Эта страница предоставляет список слоев глубокого обучения в MATLAB®.
Чтобы изучить, как создать сети из слоев для различных задач, смотрите следующие примеры.
Задача | Узнать больше |
---|---|
Создайте нейронные сети для глубокого обучения для классификации изображений или регрессии. | Создайте простую сеть глубокого обучения для классификации |
Создайте нейронные сети для глубокого обучения для последовательности и данных временных рядов. | Классификация последовательностей Используя глубокое обучение |
Создайте нейронную сеть для глубокого обучения для аудиоданных. | Распознание речевых команд с использованием глубокого обучения |
Создайте нейронную сеть для глубокого обучения для текстовых данных. | Классифицируйте текстовые данные Используя глубокое обучение |
Используйте следующие функции, чтобы создать различные типы слоя. В качестве альтернативы используйте приложение Deep Network Designer, чтобы создать сети в интерактивном режиме.
Чтобы изучить, как задать ваши собственные слои, смотрите, Задают Пользовательские Слои Глубокого обучения.
Слой | Описание |
---|---|
Изображение ввело входные параметры слоя 2D изображения к сети, и применяет нормализацию данных. | |
Входной слой 3-D изображения вводит 3-D изображения или объемы к сети и применяет нормализацию данных. | |
Последовательность ввела входные данные о последовательности слоя к сети. | |
Функция ввела входные данные о функции слоя к сети, и применяет нормализацию данных. Используйте этот слой, когда у вас будет набор данных числовых скаляров, представляющих функции (данные без пространственных или измерений времени). | |
| Слой входа ROI вводит изображения к сети обнаружения объектов Fast R-CNN. |
Слой | Описание |
---|---|
1D сверточный слой применяет скользящие сверточные фильтры к 1D входу. | |
2D сверточный слой применяет скользящие сверточные фильтры к 2D входу. | |
3-D сверточный слой применяет скользящие кубовидные фильтры свертки к 3-D входу. | |
2D сгруппированный сверточный слой разделяет входные каналы на группы и применяет скользящие сверточные фильтры. Используйте сгруппированные сверточные слои для отделимого мудрого каналом (также известный мудрыми глубиной отделимый) свертка. | |
Транспонированный 2D слой свертки сверхдискретизировал карты функции. | |
Транспонированный 3-D слой свертки сверхдискретизировал 3D карты функции. | |
Полносвязный слой умножает вход на матрицу веса и затем добавляет вектор смещения. |
Слой | Описание |
---|---|
Последовательность ввела входные данные о последовательности слоя к сети. | |
Слой LSTM изучает долгосрочные зависимости между временными шагами в данных о последовательности и временных рядах. | |
Двунаправленный слой LSTM (BiLSTM) изучает двунаправленные долгосрочные зависимости между временными шагами данных о последовательности или временных рядов. Эти зависимости могут быть полезными, когда это необходимо, сеть, чтобы извлечь уроки из полных временных рядов на каждом временном шаге. | |
Слой ГРУ изучает зависимости между временными шагами в данных о последовательности и временных рядах. | |
1D сверточный слой применяет скользящие сверточные фильтры к 1D входу. | |
1D макс. слой объединения выполняет субдискретизацию путем деления входа на 1D области объединения, затем вычисляя максимум каждой области. | |
1D средний слой объединения выполняет субдискретизацию путем деления входа на 1D области объединения, затем вычисляя среднее значение каждой области. | |
1D глобальная переменная макс. объединение слоя выполняет субдискретизацию путем вывода максимума времени или пространственных размерностей входа. | |
Слой сворачивания последовательности преобразует пакет последовательностей изображений к пакету изображений. Используйте слой сворачивания последовательности, чтобы выполнить операции свертки на временных шагах последовательностей изображений независимо. | |
Слой разворачивания последовательности восстанавливает структуру последовательности входных данных после сворачивания последовательности. | |
Сглаживать слой сворачивает пространственные размерности входа в размерность канала. | |
| Слой встраивания слова сопоставляет словари с векторами. |
|
Слой | Описание |
---|---|
Слой ReLU выполняет пороговую операцию к каждому элементу входа, где любое значение меньше, чем нуль обнуляется. | |
Текучий слой ReLU выполняет пороговую операцию, где любое входное значение меньше, чем нуль умножается на фиксированный скаляр. | |
Отсеченный слой ReLU выполняет пороговую операцию, где любое входное значение, меньше, чем нуль обнуляются и любое значение выше потолка усечения, установлено в тот потолок усечения. | |
Слой активации ELU выполняет единичную операцию на положительных входных параметрах и экспоненциальную нелинейность на отрицательных входных параметрах. | |
Гиперболическая касательная (tanh) слой активации применяет функцию tanh на входные параметры слоя. | |
Слой активации свиста применяет функцию свиста на входные параметры слоя. | |
| softplus слой применяет softplus функцию активации Y = журнал (1 + eX), который гарантирует, что выход всегда положителен. Эта функция активации является сглаженной непрерывной версией reluLayer . Можно включить этот слой в глубокие нейронные сети, которые вы задаете для агентов в агентах обучения с подкреплением. Этот слой полезен для создания непрерывных Гауссовых глубоких нейронных сетей политики, для которых стандартное отклонение выход должен быть положительным. |
Функциональный слой применяет заданную функцию к входу слоя. | |
| Слой LSTM глазка является вариантом слоя LSTM, где вычисления логического элемента используют состояние ячейки слоя. |
Слой | Описание |
---|---|
Слой нормализации партии. нормирует мини-пакет данных через все наблюдения для каждого канала независимо. Чтобы ускорить обучение сверточной нейронной сети и уменьшать чувствительность к сетевой инициализации, используйте слои нормализации партии. между сверточными слоями и нелинейностью, такой как слои ReLU. | |
Слой нормализации группы нормирует мини-пакет данных через сгруппированные подмножества каналов для каждого наблюдения независимо. Чтобы ускорить обучение сверточной нейронной сети и уменьшать чувствительность к сетевой инициализации, используйте слои нормализации группы между сверточными слоями и нелинейностью, такой как слои ReLU. | |
Слой нормализации экземпляра нормирует мини-пакет данных через каждый канал для каждого наблюдения независимо. Чтобы улучшить сходимость обучения сверточная нейронная сеть и уменьшать чувствительность к сетевым гиперпараметрам, используйте слои нормализации экземпляра между сверточными слоями и нелинейностью, такой как слои ReLU. | |
Слой нормализации слоя нормирует мини-пакет данных через все каналы для каждого наблюдения независимо. Чтобы ускорить обучение текущих и многоуровневых perceptron нейронных сетей и уменьшать чувствительность к сетевой инициализации, используйте слои нормализации слоя после learnable слоев, таких как LSTM и полносвязные слоя. | |
Мудрый каналом локальный ответ (межканальный) слой нормализации выполняет мудрую каналом нормализацию. | |
Слой уволенного случайным образом обнуляет входные элементы с данной вероятностью. | |
2D слой обрезки применяет 2D обрезку к входу. | |
3-D слой обрезки обрезки 3-D объем к размеру входа показывает карту. | |
| Масштабирующийся слой линейно масштабирует и смещает входной массив U , предоставление выхода Y = Scale.*U + Bias . Можно включить этот слой в глубокие нейронные сети, которые вы задаете для агентов или критиков в агентах обучения с подкреплением. Этот слой полезен для масштабирования и перемещения выходных параметров нелинейных слоев, такой как tanhLayer и сигмоидальный. |
| Квадратичный слой берет входной вектор и выводит вектор из квадратичных одночленов, созданных из входных элементов. Этот слой полезен, когда вам нужен слой, выход которого является некоторой квадратичной функцией своих входных параметров. Например, чтобы воссоздать структуру квадратичных функций ценности, таких как используемые в проектировании контроллера LQR. |
| 2D изменяет размер слоя, изменяет размер 2D входа масштабным коэффициентом, к заданной высоте и ширине, или к размеру ссылочной входной карты функции. |
| 3-D изменяет размер слоя, изменяет размер 3-D входа масштабным коэффициентом, к заданной высоте, ширине и глубине, или к размеру ссылочной входной карты функции. |
| Слой STFT вычисляет кратковременное преобразование Фурье входа. |
Слой | Описание |
---|---|
1D средний слой объединения выполняет субдискретизацию путем деления входа на 1D области объединения, затем вычисляя среднее значение каждой области. | |
2D средний слой объединения выполняет субдискретизацию путем деления входа на прямоугольные области объединения, затем вычисляя средние значения каждой области. | |
3-D средний слой объединения выполняет субдискретизацию путем деления 3D входа на кубовидные области объединения, затем вычисляя средние значения каждой области. | |
1D глобальный средний слой объединения выполняет субдискретизацию путем вывода среднего значения времени или пространственных размерностей входа. | |
2D глобальный средний слой объединения выполняет субдискретизацию путем вычисления среднего значения размерностей высоты и ширины входа. | |
3-D глобальный средний слой объединения выполняет субдискретизацию путем вычисления среднего значения высоты, ширины и размерностей глубины входа. | |
1D макс. слой объединения выполняет субдискретизацию путем деления входа на 1D области объединения, затем вычисляя максимум каждой области. | |
2D макс. слой объединения выполняет субдискретизацию путем деления входа на прямоугольные области объединения, затем вычисляя максимум каждой области. | |
3-D макс. слой объединения выполняет субдискретизацию путем деления 3D входа на кубовидные области объединения, затем вычисляя максимум каждой области. | |
1D глобальная переменная макс. объединение слоя выполняет субдискретизацию путем вывода максимума времени или пространственных размерностей входа. | |
2D глобальная переменная макс. объединение слоя выполняет субдискретизацию путем вычисления максимума размерностей высоты и ширины входа. | |
3-D глобальная переменная макс. объединение слоя выполняет субдискретизацию путем вычисления максимума высоты, ширины и размерностей глубины входа. | |
2D макс. слой необъединения не объединяет выход 2D макс. слоя объединения. |
Слой | Описание |
---|---|
Слой сложения добавляет входные параметры из нескольких поэлементных слоев нейронной сети. | |
Слой умножения умножает входы от нескольких поэлементных слоев нейронной сети. | |
Слой конкатенации глубины берет входные параметры, которые имеют ту же высоту и ширину, и конкатенирует их по третьему измерению (размерность канала). | |
Слой конкатенации берет входные параметры и конкатенирует их в заданном измерении. Входные параметры должны иметь тот же размер во всех размерностях кроме размерности конкатенации. | |
| Взвешенный слой сложения масштабирует и добавляет входные параметры из нескольких поэлементных слоев нейронной сети. |
Слой | Описание |
---|---|
| Слой входа ROI вводит изображения к сети обнаружения объектов Fast R-CNN. |
| ROI, макс. объединяющий слой выходная функция фиксированного размера, сопоставляет для каждого прямоугольного ROI в рамках входной карты функции. Используйте этот слой, чтобы создать Быстрое или сеть обнаружения объектов Faster R-CNN. |
| ROI выравнивает слой выходные карты функции фиксированного размера для каждого прямоугольного ROI в рамках входной карты функции. Используйте этот слой, чтобы создать сеть Mask R-CNN. |
| Слой поля привязки хранит поля привязки для карты функции, используемой в сетях обнаружения объектов. |
| Слой предложения по области выходные ограничительные рамки вокруг потенциальных объектов в изображении как часть сети предложения по области (RPN) в Faster R-CNN. |
| Слой слияния SSD объединяет выходные параметры карт функции для последующей регрессии и расчета классификации потерь. |
yolov2TransformLayer (Computer Vision Toolbox) | Слой преобразования вас только смотрит однажды версия 2 (YOLO v2), сеть преобразовывает предсказания ограничительной рамки последнего слоя свертки в сети, чтобы находиться в пределах границ основной истины. Используйте слой преобразования, чтобы улучшить устойчивость сети YOLO v2. |
| Пробел к слою глубины переставляет пространственные блоки входа в размерность глубины. Используйте этот слой, когда необходимо будет объединить карты функции различного размера, не отбрасывая данных о функции. |
| 2D глубина, чтобы расположить слой с интервалами переставляет данные из размерности глубины в блоки 2D пространственных данных. |
| Сеть предложения по области (RPN) softmax слой применяет softmax функцию активации к входу. Используйте этот слой, чтобы создать сеть обнаружения объектов Faster R-CNN. |
| Фокальный слой потерь предсказывает классы объектов с помощью фокальной потери. |
| Слой классификации сетей предложения по области (RPN) классифицирует области изображений или как объект или как фон при помощи функции потери перекрестной энтропии. Используйте этот слой, чтобы создать сеть обнаружения объектов Faster R-CNN. |
| Слой регрессии поля совершенствовал местоположения ограничительной рамки при помощи сглаженной функции потерь L1. Используйте этот слой, чтобы создать Быстрое или сеть обнаружения объектов Faster R-CNN. |
Слой | Описание |
---|---|
softmax слой применяет функцию softmax к входу. | |
Сигмоидальный слой применяет сигмоидальную функцию к входу, таким образом, что выход ограничен в интервале (0,1). | |
Слой классификации вычисляет потерю перекрестной энтропии для классификации и взвешенных задач классификации со взаимоисключающими классами. | |
Слой регрессии вычисляет половину потери среднеквадратической ошибки для задач регрессии. | |
| Слой классификации пикселей обеспечивает категориальную метку для каждого пикселя изображения или вокселя. |
| Слой классификации пикселей Dice обеспечивает категориальную метку для каждого пикселя изображения, или воксель с помощью обобщил Dice Loss. |
| Фокальный слой потерь предсказывает классы объектов с помощью фокальной потери. |
| Сеть предложения по области (RPN) softmax слой применяет softmax функцию активации к входу. Используйте этот слой, чтобы создать сеть обнаружения объектов Faster R-CNN. |
| Слой классификации сетей предложения по области (RPN) классифицирует области изображений или как объект или как фон при помощи функции потери перекрестной энтропии. Используйте этот слой, чтобы создать сеть обнаружения объектов Faster R-CNN. |
| Слой регрессии поля совершенствовал местоположения ограничительной рамки при помощи сглаженной функции потерь L1. Используйте этот слой, чтобы создать Быстрое или сеть обнаружения объектов Faster R-CNN. |
| Выходной слой вас только смотрит однажды версия 2 (YOLO v2), сеть совершенствовала местоположения ограничительной рамки путем минимизации потери среднеквадратической ошибки между предсказанными местоположениями и основной истиной. |
| Слой классификации пикселей Tversky обеспечивает категориальную метку для каждого пикселя изображения или использования вокселя потеря Tversky. |
| Слой SSE классификации вычисляет ошибочную потерю суммы квадратов для проблем классификации. |
| Слой MAE регрессии вычисляет среднюю потерю абсолютной погрешности для проблем регрессии. |
trainingOptions
| trainNetwork
| Deep Network Designer