Список слоев глубокого обучения

Эта страница предоставляет список слоев глубокого обучения в MATLAB®.

Чтобы изучить, как создать сети из слоев для различных задач, смотрите следующие примеры.

ЗадачаУзнать больше
Создайте нейронные сети для глубокого обучения для классификации изображений или регрессии.

Создайте простую сеть глубокого обучения для классификации

Обучите сверточную нейронную сеть регрессии

Обучите остаточную сеть для классификации изображений

Создайте нейронные сети для глубокого обучения для последовательности и данных временных рядов.

Классификация последовательностей Используя глубокое обучение

Прогнозирование временных рядов Используя глубокое обучение

Создайте нейронную сеть для глубокого обучения для аудиоданных.Распознание речевых команд с использованием глубокого обучения
Создайте нейронную сеть для глубокого обучения для текстовых данных.

Классифицируйте текстовые данные Используя глубокое обучение

Сгенерируйте текст Используя глубокое обучение

Слои глубокого обучения

Используйте следующие функции, чтобы создать различные типы слоя. В качестве альтернативы используйте приложение Deep Network Designer, чтобы создать сети в интерактивном режиме.

Чтобы изучить, как задать ваши собственные слои, смотрите, Задают Пользовательские Слои Глубокого обучения.

Входные слои

СлойОписание

imageInputLayer

Изображение ввело входные параметры слоя 2D изображения к сети, и применяет нормализацию данных.

image3dInputLayer

Входной слой 3-D изображения вводит 3-D изображения или объемы к сети и применяет нормализацию данных.

sequenceInputLayer

Последовательность ввела входные данные о последовательности слоя к сети.

featureInputLayer

Функция ввела входные данные о функции слоя к сети, и применяет нормализацию данных. Используйте этот слой, когда у вас будет набор данных числовых скаляров, представляющих функции (данные без пространственных или измерений времени).

roiInputLayer (Computer Vision Toolbox)

Слой входа ROI вводит изображения к сети обнаружения объектов Fast R-CNN.

Свертки и полносвязные слои

СлойОписание

convolution2dLayer

2D сверточный слой применяет скользящие сверточные фильтры к входу.

convolution3dLayer

3-D сверточный слой применяет скользящие кубовидные фильтры свертки к 3D входу.

groupedConvolution2dLayer

2D сгруппированный сверточный слой разделяет входные каналы на группы и применяет скользящие сверточные фильтры. Используйте сгруппированные сверточные слои для отделимого мудрого каналом (также известный мудрыми глубиной отделимый) свертка.

transposedConv2dLayer

Транспонированный 2D слой свертки сверхдискретизировал карты функции.

transposedConv3dLayer

Транспонированный 3-D слой свертки сверхдискретизировал 3D карты функции.

fullyConnectedLayer

Полносвязный слой умножает вход на матрицу веса и затем добавляет вектор смещения.

Слои последовательности

СлойОписание

sequenceInputLayer

Последовательность ввела входные данные о последовательности слоя к сети.

lstmLayer

Слой LSTM изучает долгосрочные зависимости между временными шагами в данных о последовательности и временных рядах.

bilstmLayer

Двунаправленный слой LSTM (BiLSTM) изучает двунаправленные долгосрочные зависимости между временными шагами данных о последовательности или временных рядов. Эти зависимости могут быть полезными, когда это необходимо, сеть, чтобы извлечь уроки из полных временных рядов на каждом временном шаге.

gruLayer

Слой ГРУ изучает зависимости между временными шагами в данных о последовательности и временных рядах.

sequenceFoldingLayer

Слой сворачивания последовательности преобразует пакет последовательностей изображений к пакету изображений. Используйте слой сворачивания последовательности, чтобы выполнить операции свертки на временных шагах последовательностей изображений независимо.

sequenceUnfoldingLayer

Слой разворачивания последовательности восстанавливает структуру последовательности входных данных после сворачивания последовательности.

flattenLayer

Сглаживать слой сворачивает пространственные размерности входа в размерность канала.

wordEmbeddingLayer (Text Analytics Toolbox)

Слой встраивания слова сопоставляет словари с векторами.

Слои активации

СлойОписание

reluLayer

Слой ReLU выполняет пороговую операцию к каждому элементу входа, где любое значение меньше, чем нуль обнуляется.

leakyReluLayer

Текучий слой ReLU выполняет пороговую операцию, где любое входное значение меньше, чем нуль умножается на фиксированный скаляр.

clippedReluLayer

Отсеченный слой ReLU выполняет пороговую операцию, где любое входное значение, меньше, чем нуль обнуляются и любое значение выше потолка усечения, установлено в тот потолок усечения.

eluLayer

Слой активации ELU выполняет единичную операцию на положительных входных параметрах и экспоненциальную нелинейность на отрицательных входных параметрах.

tanhLayer

Гиперболическая касательная (tanh) слой активации применяет функцию tanh на входные параметры слоя.

swishLayer

Слой активации свиста применяет функцию свиста на входные параметры слоя.

preluLayer (Пользовательский пример слоя)

Слой PReLU выполняет пороговую операцию, где для каждого канала, любое входное значение меньше, чем нуль умножаются на скаляр, изученный в учебное время.

Нормализация, уволенный и слои обрезки

СлойОписание

batchNormalizationLayer

Слой нормализации партии. нормирует мини-пакет данных через все наблюдения для каждого канала независимо. Чтобы ускорить обучение сверточной нейронной сети и уменьшать чувствительность к сетевой инициализации, используйте слои нормализации партии. между сверточными слоями и нелинейностью, такой как слои ReLU.

groupNormalizationLayer

Слой нормализации группы нормирует мини-пакет данных через сгруппированные подмножества каналов для каждого наблюдения независимо. Чтобы ускорить обучение сверточной нейронной сети и уменьшать чувствительность к сетевой инициализации, используйте слои нормализации группы между сверточными слоями и нелинейностью, такой как слои ReLU.

instanceNormalizationLayer

Слой нормализации экземпляра нормирует мини-пакет данных через каждый канал для каждого наблюдения независимо. Чтобы улучшить сходимость обучения сверточная нейронная сеть и уменьшать чувствительность к сетевым гиперпараметрам, используйте слои нормализации экземпляра между сверточными слоями и нелинейностью, такой как слои ReLU.

layerNormalizationLayer

Слой нормализации слоя нормирует мини-пакет данных через все каналы для каждого наблюдения независимо. Чтобы ускорить обучение текущих и многоуровневых perceptron нейронных сетей и уменьшать чувствительность к сетевой инициализации, используйте слои нормализации слоя после learnable слоев, таких как LSTM и полносвязные слоя.

crossChannelNormalizationLayer

Мудрый каналом локальный ответ (межканальный) слой нормализации выполняет мудрую каналом нормализацию.

dropoutLayer

Слой уволенного случайным образом обнуляет входные элементы с данной вероятностью.

crop2dLayer

2D слой обрезки применяет 2D обрезку к входу.

crop3dLayer

3-D слой обрезки обрезки 3-D объем к размеру входа показывает карту.

resize2dLayer (Image Processing Toolbox)

2D изменяет размер слоя, изменяет размер 2D входа масштабным коэффициентом, к заданной высоте и ширине, или к размеру ссылочной входной карты функции.

resize3dLayer (Image Processing Toolbox)

3-D изменяет размер слоя, изменяет размер 3-D входа масштабным коэффициентом, к заданной высоте, ширине и глубине, или к размеру ссылочной входной карты функции.

Объединение и необъединение слоев

СлойОписание

averagePooling2dLayer

Средний слой объединения выполняет субдискретизацию путем деления входа на прямоугольные области объединения и вычисление средних значений каждой области.

averagePooling3dLayer

3-D средний слой объединения выполняет субдискретизацию путем деления 3D входа на кубовидные области объединения и вычисление средних значений каждой области.

globalAveragePooling2dLayer

Глобальный средний слой объединения выполняет субдискретизацию путем вычисления среднего значения размерностей высоты и ширины входа.

globalAveragePooling3dLayer

3-D глобальный средний слой объединения выполняет субдискретизацию путем вычисления среднего значения высоты, ширины и размерностей глубины входа.

maxPooling2dLayer

Макс. слой объединения выполняет субдискретизацию путем деления входа на прямоугольные области объединения и вычисления максимума каждой области.

maxPooling3dLayer

3-D макс. слой объединения выполняет субдискретизацию путем деления 3D входа на кубовидные области объединения и вычисления максимума каждой области.

globalMaxPooling2dLayer

Глобальная переменная макс. объединение слоя выполняет субдискретизацию путем вычисления максимума размерностей высоты и ширины входа.

globalMaxPooling3dLayer

3-D глобальная переменная макс. объединение слоя выполняет субдискретизацию путем вычисления максимума высоты, ширины и размерностей глубины входа.

maxUnpooling2dLayer

Макс. слой необъединения не объединяет выход макс. слоя объединения.

Слои комбинации

СлойОписание

additionLayer

Слой сложения добавляет входные параметры из нескольких поэлементных слоев нейронной сети.

multiplicationLayer

Слой умножения умножает входы от нескольких поэлементных слоев нейронной сети.

depthConcatenationLayer

Слой конкатенации глубины берет входные параметры, которые имеют ту же высоту и ширину, и конкатенирует их по третьему измерению (размерность канала).

concatenationLayer

Слой конкатенации берет входные параметры и конкатенирует их в заданном измерении. Входные параметры должны иметь тот же размер во всех размерностях кроме размерности конкатенации.

weightedAdditionLayer (Пользовательский пример слоя)

Взвешенный слой сложения масштабирует и добавляет входные параметры из нескольких поэлементных слоев нейронной сети.

Слои обнаружения объектов

СлойОписание

roiInputLayer (Computer Vision Toolbox)

Слой входа ROI вводит изображения к сети обнаружения объектов Fast R-CNN.

roiMaxPooling2dLayer (Computer Vision Toolbox)

ROI, макс. объединяющий слой выходная функция фиксированного размера, сопоставляет для каждого прямоугольного ROI в рамках входной карты функции. Используйте этот слой, чтобы создать Быстрое или сеть обнаружения объектов Faster R-CNN.

roiAlignLayer (Computer Vision Toolbox)

ROI выравнивает слой выходные карты функции фиксированного размера для каждого прямоугольного ROI в рамках входной карты функции. Используйте этот слой, чтобы создать сеть Mask-RCNN.

anchorBoxLayer (Computer Vision Toolbox)

Слой поля привязки хранит поля привязки для карты функции, используемой в сетях обнаружения объектов.

regionProposalLayer (Computer Vision Toolbox)

Слой предложения по области выходные ограничительные рамки вокруг потенциальных объектов в изображении как часть сети предложения по области (RPN) в Faster R-CNN.

ssdMergeLayer (Computer Vision Toolbox)

Слой слияния SSD объединяет выходные параметры карт функции для последующей регрессии и расчета классификации потерь.

spaceToDepthLayer (Image Processing Toolbox)

Пробел к слою глубины переставляет пространственные блоки входа в размерность глубины. Используйте этот слой, когда необходимо будет объединить карты функции различного размера, не отбрасывая данных о функции.

depthToSpace2dLayer (Image Processing Toolbox)

2D глубина, чтобы расположить слой с интервалами переставляет данные из размерности глубины в блоки 2D пространственных данных.

rpnSoftmaxLayer (Computer Vision Toolbox)

Сеть предложения по области (RPN) softmax слой применяет softmax функцию активации к входу. Используйте этот слой, чтобы создать сеть обнаружения объектов Faster R-CNN.

focalLossLayer (Computer Vision Toolbox)

Фокальный слой потерь предсказывает классы объектов с помощью фокальной потери.

rpnClassificationLayer (Computer Vision Toolbox)

Слой классификации сетей предложения по области (RPN) классифицирует области изображений или как объект или как фон при помощи функции потери перекрестной энтропии. Используйте этот слой, чтобы создать сеть обнаружения объектов Faster R-CNN.

rcnnBoxRegressionLayer (Computer Vision Toolbox)

Слой регрессии поля совершенствовал местоположения ограничительной рамки при помощи сглаженной функции потерь L1. Используйте этот слой, чтобы создать Быстрое или сеть обнаружения объектов Faster R-CNN.

Порождающие соперничающие слоя сети

СлойОписание

projectAndReshapeLayer (Пользовательский пример слоя)

Проект и изменяется, слой берет в качестве входа 1 1 numLatentInputs массивы и преобразуют их в изображения заданного размера. Используйте проект и измените слои, чтобы изменить шумовой вход к GANs.

embedAndReshapeLayer (Пользовательский пример слоя)

Встраивание и изменяется, слой берет в качестве входа числовые индексы категориальных элементов и преобразует их в изображения заданного размера. Использование встраивает и изменяет слои, чтобы ввести категориальные данные в условный GANs.

Выходной слой

СлойОписание

softmaxLayer

softmax слой применяет функцию softmax к входу.

sigmoidLayer

Сигмоидальный слой применяет сигмоидальную функцию к входу, таким образом, что выход ограничен в интервале (0,1).

classificationLayer

Слой классификации вычисляет потерю перекрестной энтропии для классификации и взвешенных задач классификации со взаимоисключающими классами.

regressionLayer

Слой регрессии вычисляет половину потери среднеквадратической ошибки для задач регрессии.

pixelClassificationLayer (Computer Vision Toolbox)

Слой классификации пикселей обеспечивает категориальную метку для каждого пикселя изображения или вокселя.

dicePixelClassificationLayer (Computer Vision Toolbox)

Слой классификации пикселей Dice обеспечивает категориальную метку для каждого пикселя изображения, или воксель с помощью обобщил Dice Loss.

focalLossLayer (Computer Vision Toolbox)

Фокальный слой потерь предсказывает классы объектов с помощью фокальной потери.

rpnSoftmaxLayer (Computer Vision Toolbox)

Сеть предложения по области (RPN) softmax слой применяет softmax функцию активации к входу. Используйте этот слой, чтобы создать сеть обнаружения объектов Faster R-CNN.

rpnClassificationLayer (Computer Vision Toolbox)

Слой классификации сетей предложения по области (RPN) классифицирует области изображений или как объект или как фон при помощи функции потери перекрестной энтропии. Используйте этот слой, чтобы создать сеть обнаружения объектов Faster R-CNN.

rcnnBoxRegressionLayer (Computer Vision Toolbox)

Слой регрессии поля совершенствовал местоположения ограничительной рамки при помощи сглаженной функции потерь L1. Используйте этот слой, чтобы создать Быстрое или сеть обнаружения объектов Faster R-CNN.

tverskyPixelClassificationLayer (Пользовательский пример слоя)

Слой классификации пикселей Tversky обеспечивает категориальную метку для каждого пикселя изображения или использования вокселя потеря Tversky.

sseClassificationLayer (Пользовательский пример слоя)

Слой SSE классификации вычисляет ошибочную потерю суммы квадратов для проблем классификации.

maeRegressionLayer (Пользовательский пример слоя)

Слой MAE регрессии вычисляет среднюю потерю абсолютной погрешности для проблем регрессии.

Смотрите также

| |

Похожие темы

Для просмотра документации необходимо авторизоваться на сайте