Эта страница предоставляет список слоев глубокого обучения в MATLAB®.
Чтобы изучить, как создать сети из слоев для различных задач, смотрите следующие примеры.
Задача | Узнать больше |
---|---|
Создайте нейронные сети для глубокого обучения для классификации изображений или регрессии. | Создайте простую сеть глубокого обучения для классификации |
Создайте нейронные сети для глубокого обучения для последовательности и данных временных рядов. | Классификация последовательностей Используя глубокое обучение |
Создайте нейронную сеть для глубокого обучения для аудиоданных. | Распознание речевых команд с использованием глубокого обучения |
Создайте нейронную сеть для глубокого обучения для текстовых данных. | Классифицируйте текстовые данные Используя глубокое обучение |
Используйте следующие функции, чтобы создать различные типы слоя. В качестве альтернативы используйте приложение Deep Network Designer, чтобы создать сети в интерактивном режиме.
Чтобы изучить, как задать ваши собственные слои, смотрите, Задают Пользовательские Слои Глубокого обучения.
Слой | Описание |
---|---|
Изображение ввело входные параметры слоя 2D изображения к сети, и применяет нормализацию данных. | |
Входной слой 3-D изображения вводит 3-D изображения или объемы к сети и применяет нормализацию данных. | |
Последовательность ввела входные данные о последовательности слоя к сети. | |
| Слой входа ROI вводит изображения к Быстрой сети обнаружения объектов R-CNN. |
Слой | Описание |
---|---|
2D сверточный слой применяет скользящие сверточные фильтры к входу. | |
3-D сверточный слой применяет скользящие кубовидные фильтры свертки к 3D входу. | |
2D сгруппированный сверточный слой разделяет входные каналы на группы и применяет скользящие сверточные фильтры. Используйте сгруппированные сверточные слои в отделимом мудром каналом (также известный мудрыми глубиной отделимый) свертка. | |
Транспонированный 2D слой свертки сверхдискретизировал карты функции. | |
Транспонированный 3-D слой свертки сверхдискретизировал 3D карты функции. | |
Полносвязный слой умножает вход на матрицу веса и затем добавляет вектор смещения. |
Слой | Описание |
---|---|
Последовательность ввела входные данные о последовательности слоя к сети. | |
Слой LSTM изучает долгосрочные зависимости между временными шагами в данных о последовательности и временных рядах. | |
Двунаправленный слой LSTM (BiLSTM) изучает двунаправленные долгосрочные зависимости между временными шагами данных о последовательности или временных рядов. Эти зависимости могут быть полезными, когда это необходимо, сеть, чтобы извлечь уроки из полных временных рядов на каждом временном шаге. | |
Слой сворачивания последовательности преобразует пакет последовательностей изображений к пакету изображений. Используйте слой сворачивания последовательности, чтобы выполнить операции свертки на временных шагах последовательностей изображений независимо. | |
Слой разворачивания последовательности восстанавливает структуру последовательности входных данных после сворачивания последовательности. | |
Сглаживать слой сворачивает пространственные размерности входа в размерность канала. | |
| Слой встраивания слова сопоставляет словари с векторами. |
Слой | Описание |
---|---|
Слой ReLU выполняет пороговую операцию к каждому элементу входа, где любое значение меньше, чем нуль обнуляется. | |
Текучий слой ReLU выполняет пороговую операцию, где любое входное значение меньше, чем нуль умножается на фиксированный скаляр. | |
Отсеченный слой ReLU выполняет пороговую операцию, где любое входное значение, меньше, чем нуль обнуляются и любое значение выше потолка усечения, установлено в тот потолок усечения. | |
Слой активации ELU выполняет единичную операцию на положительных входных параметрах и экспоненциальную нелинейность на отрицательных входных параметрах. | |
Гиперболическая касательная (tanh) слой активации применяет функцию tanh на входные параметры слоя. | |
| Слой PReLU выполняет пороговую операцию, где для каждого канала, любое входное значение меньше, чем нуль умножаются на скаляр, изученный в учебное время. |
Слой | Описание |
---|---|
Пакетный слой нормализации нормирует каждый входной канал через мини-пакет. Чтобы ускорить обучение сверточных нейронных сетей и уменьшать чувствительность к сетевой инициализации, используйте пакетные слои нормализации между сверточными слоями и нелинейностью, такой как слои ReLU. | |
Мудрый каналом локальный ответ (межканальный) слой нормализации выполняет мудрую каналом нормализацию. | |
Слой уволенного случайным образом обнуляет входные элементы с данной вероятностью. | |
2D слой обрезки применяет 2D обрезку к входу. | |
3-D слой обрезки обрезки 3-D объем к размеру входа показывает карту. |
Слой | Описание |
---|---|
Средний слой объединения выполняет субдискретизацию путем деления входа на прямоугольные области объединения и вычисление средних значений каждой области. | |
3-D средний слой объединения выполняет субдискретизацию путем деления 3D входа на кубовидные области объединения и вычисление средних значений каждой области. | |
Глобальный средний слой объединения выполняет субдискретизацию путем вычисления среднего значения размерностей высоты и ширины входа. | |
Глобальный средний слой объединения выполняет субдискретизацию путем вычисления среднего значения высоты, ширины и размерностей глубины входа. | |
Макс. слой объединения выполняет субдискретизацию путем деления входа на прямоугольные области объединения и вычисления максимума каждой области. | |
3-D макс. слой объединения выполняет субдискретизацию путем деления 3D входа на кубовидные области объединения и вычисления максимума каждой области. | |
Макс. слой необъединения не объединяет выход макс. слоя объединения. |
Слой | Описание |
---|---|
Слой сложения добавляет входные параметры из нескольких поэлементных слоев нейронной сети. | |
Слой конкатенации глубины берет входные параметры, которые имеют ту же высоту и ширину, и конкатенирует их по третьему измерению (размерность канала). | |
Слой конкатенации берет входные параметры и конкатенирует их в заданном измерении. Входные параметры должны иметь тот же размер во всех размерностях кроме размерности конкатенации. | |
| Взвешенный слой сложения масштабирует и добавляет входные параметры из нескольких поэлементных слоев нейронной сети. |
Слой | Описание |
---|---|
| Слой входа ROI вводит изображения к Быстрой сети обнаружения объектов R-CNN. |
| ROI, макс. объединяющий слой выходная функция фиксированного размера, сопоставляет для каждого прямоугольного ROI в рамках входной карты функции. Используйте этот слой, чтобы создать Быстрое или сеть обнаружения объектов Faster R-CNN. |
| Слой предложения по области выходные ограничительные рамки вокруг потенциальных объектов в изображении как часть сети предложения по области (RPN) в Faster R-CNN. |
| Сеть предложения по области (RPN) softmax слой применяет softmax функцию активации к входу. Используйте этот слой, чтобы создать сеть обнаружения объектов Faster R-CNN. |
| Слой классификации сетей предложения по области (RPN) классифицирует области изображений или как объект или как фон при помощи перекрестной энтропийной функции потерь. Используйте этот слой, чтобы создать сеть обнаружения объектов Faster R-CNN. |
| Слой регрессии поля совершенствовал местоположения ограничительной рамки при помощи сглаженной функции потерь L1. Используйте этот слой, чтобы создать Быстрое или сеть обнаружения объектов Faster R-CNN. |
Слой | Описание |
---|---|
softmax слой применяет функцию softmax к входу. | |
Слой классификации вычисляет перекрестную энтропийную потерю для многоклассовых задач классификации со взаимоисключающими классами. | |
Слой регрессии вычисляет половину потери среднеквадратической ошибки для проблем регрессии. | |
| Слой классификации пикселей обеспечивает категориальную метку для каждого пикселя изображения или воксела. |
| Слой классификации пикселей Dice обеспечивает категориальную метку для каждого пикселя изображения или воксела с помощью обобщенной потери Dice. |
| Сеть предложения по области (RPN) softmax слой применяет softmax функцию активации к входу. Используйте этот слой, чтобы создать сеть обнаружения объектов Faster R-CNN. |
| Слой классификации сетей предложения по области (RPN) классифицирует области изображений или как объект или как фон при помощи перекрестной энтропийной функции потерь. Используйте этот слой, чтобы создать сеть обнаружения объектов Faster R-CNN. |
| Слой регрессии поля совершенствовал местоположения ограничительной рамки при помощи сглаженной функции потерь L1. Используйте этот слой, чтобы создать Быстрое или сеть обнаружения объектов Faster R-CNN. |
| Взвешенный слой классификации вычисляет взвешенную перекрестную энтропийную потерю для проблем классификации. |
| Слой классификации пикселей Tversky обеспечивает категориальную метку для каждого пикселя изображения или использования воксела потеря Tversky. |
| Слой SSE классификации вычисляет ошибочную потерю суммы квадратов для проблем классификации. |
| Слой MAE регрессии вычисляет среднюю потерю абсолютной погрешности для проблем регрессии. |
trainNetwork
| trainingOptions