классифицировать

Классифицируйте данные с помощью обученной глубокой нейронной сети

Можно сделать прогнозы с помощью обученной нейронной сети для глубокого обучения или на центральном процессоре или на графическом процессоре. Используя графический процессор требует Parallel Computing Toolbox™, и CUDA® включил NVIDIA®, графический процессор с вычисляет возможность 3.0 или выше. Задайте требования к аппаратным средствам с помощью аргумента пары "имя-значение" ExecutionEnvironment.

Синтаксис

[YPred,scores] = classify(net,X)
[YPred,scores] = classify(net,sequences)
[YPred,scores] = classify(___,Name,Value)

Описание

пример

[YPred,scores] = classify(net,X) предсказывает метки класса для данных изображения в X с помощью обучившего сеть, net.

пример

[YPred,scores] = classify(net,sequences) предсказывает метки класса для временных рядов или данных о последовательности в sequences с помощью обученной сети LSTM, net.

пример

[YPred,scores] = classify(___,Name,Value) предсказывает метки класса с дополнительными опциями, заданными одним или несколькими аргументами пары "имя-значение".

Совет

При создании прогнозов с последовательностями различных длин мини-пакетный размер может повлиять на объем дополнения добавленного к входным данным, которые могут привести к различным ожидаемым значениям. Попытайтесь использовать различные значения, чтобы видеть, который работает лучше всего с вашей сетью. Чтобы задать мини-пакетный размер и дополнительные опции, используйте опции 'SequenceLength' и 'MiniBatchSize'.

Примеры

свернуть все

Загрузите выборочные данные.

[XTrain,YTrain] = digitTrain4DArrayData;

digitTrain4DArrayData загружает набор обучающих данных цифры как 4-D данные массива. XTrain является 28 28 1 5 000 массивов, где 28 высота, и 28 ширина изображений. 1 количество каналов, и 5000 количество синтетических изображений рукописных цифр. YTrain является категориальным вектором, содержащим метки для каждого наблюдения.

Создайте сверточную архитектуру нейронной сети.

layers = [ ...
    imageInputLayer([28 28 1])
    convolution2dLayer(5,20)
    reluLayer
    maxPooling2dLayer(2,'Stride',2)
    fullyConnectedLayer(10)
    softmaxLayer
    classificationLayer];

Установите опции на настройки по умолчанию для стохастического спуска градиента с импульсом.

options = trainingOptions('sgdm');

Обучите сеть.

rng('default')
net = trainNetwork(XTrain,YTrain,layers,options);
Training on single CPU.
Initializing input data normalization.
|========================================================================================|
|  Epoch  |  Iteration  |  Time Elapsed  |  Mini-batch  |  Mini-batch  |  Base Learning  |
|         |             |   (hh:mm:ss)   |   Accuracy   |     Loss     |      Rate       |
|========================================================================================|
|       1 |           1 |       00:00:00 |       11.72% |       2.2909 |          0.0100 |
|       2 |          50 |       00:00:02 |       52.34% |       1.8173 |          0.0100 |
|       3 |         100 |       00:00:04 |       66.41% |       1.1120 |          0.0100 |
|       4 |         150 |       00:00:05 |       67.19% |       0.9866 |          0.0100 |
|       6 |         200 |       00:00:07 |       73.44% |       0.7928 |          0.0100 |
|       7 |         250 |       00:00:10 |       81.25% |       0.6349 |          0.0100 |
|       8 |         300 |       00:00:12 |       83.59% |       0.6307 |          0.0100 |
|       9 |         350 |       00:00:14 |       83.59% |       0.4726 |          0.0100 |
|      11 |         400 |       00:00:16 |       92.97% |       0.3709 |          0.0100 |
|      12 |         450 |       00:00:18 |       95.31% |       0.2842 |          0.0100 |
|      13 |         500 |       00:00:20 |       92.19% |       0.2760 |          0.0100 |
|      15 |         550 |       00:00:23 |       98.44% |       0.2186 |          0.0100 |
|      16 |         600 |       00:00:25 |       96.88% |       0.2164 |          0.0100 |
|      17 |         650 |       00:00:27 |       96.88% |       0.1960 |          0.0100 |
|      18 |         700 |       00:00:29 |      100.00% |       0.1066 |          0.0100 |
|      20 |         750 |       00:00:31 |       99.22% |       0.0850 |          0.0100 |
|      21 |         800 |       00:00:33 |       99.22% |       0.1224 |          0.0100 |
|      22 |         850 |       00:00:35 |       99.22% |       0.0832 |          0.0100 |
|      24 |         900 |       00:00:37 |       97.66% |       0.1246 |          0.0100 |
|      25 |         950 |       00:00:39 |       98.44% |       0.0821 |          0.0100 |
|      26 |        1000 |       00:00:41 |       99.22% |       0.0601 |          0.0100 |
|      27 |        1050 |       00:00:44 |       99.22% |       0.0679 |          0.0100 |
|      29 |        1100 |       00:00:46 |       99.22% |       0.0519 |          0.0100 |
|      30 |        1150 |       00:00:48 |       99.22% |       0.0590 |          0.0100 |
|      30 |        1170 |       00:00:49 |      100.00% |       0.0578 |          0.0100 |
|========================================================================================|

Запустите обучивший сеть на наборе тестов.

[XTest,YTest]= digitTest4DArrayData;
YPred = classify(net,XTest);

Отобразите первые 10 изображений в тестовых данных и сравните с классификацией от classify.

[YTest(1:10,:) YPred(1:10,:)]
ans = 10x2 categorical array
     0      0 
     0      0 
     0      0 
     0      0 
     0      0 
     0      0 
     0      0 
     0      0 
     0      0 
     0      0 

Результаты classify совпадают с истинными цифрами для первых десяти изображений.

Вычислите точность по всем тестовым данным.

accuracy = sum(YPred == YTest)/numel(YTest)
accuracy = 0.9794

Предварительно обученная сеть Load. JapaneseVowelsNet является предварительно обученной сетью LSTM, обученной на японском наборе данных Vowels, как описано в [1] и [2]. Это было обучено на последовательностях, отсортированных по длине последовательности с мини-пакетным размером 27.

load JapaneseVowelsNet

Просмотрите сетевую архитектуру.

net.Layers
ans = 
  5x1 Layer array with layers:

     1   'sequenceinput'   Sequence Input          Sequence input with 12 dimensions
     2   'lstm'            LSTM                    LSTM with 100 hidden units
     3   'fc'              Fully Connected         9 fully connected layer
     4   'softmax'         Softmax                 softmax
     5   'classoutput'     Classification Output   crossentropyex with '1' and 8 other classes

Загрузите тестовые данные.

load JapaneseVowelsTest

Классифицируйте тестовые данные.

YPred = classify(net,XTest);

Просмотрите метки первых 10 последовательностей с их предсказанными метками.

[YTest(1:10) YPred(1:10)]
ans = 10x2 categorical array
     1      1 
     1      1 
     1      1 
     1      1 
     1      1 
     1      1 
     1      1 
     1      1 
     1      1 
     1      1 

Вычислите точность классификации прогнозов.

accuracy = sum(YPred == YTest)/numel(YTest)
accuracy = 0.8595

Входные параметры

свернуть все

Обучивший сеть, заданный как SeriesNetwork или объект DAGNetwork. Можно получить обучивший сеть путем импорта предварительно обученной сети (например, при помощи функции alexnet) или по образованию собственная сеть с помощью trainNetwork.

Данные изображения, заданные как одно из следующих.

Входной параметрОписание
Трехмерный массивЧисловой массив, который представляет одно изображение. Массив имеет размер h-by-w-by-c, где h, w и c соответствуют высоте, ширине и количеству каналов изображения, соответственно.
Массив 4-DЧисловой массив, который представляет стек изображений. Массив имеет размер h-by-w-by-c-by-N, где N является количеством изображений в стеке изображений.
ImageDatastore

ImageDatastore с метками categorical.

Для получения дополнительной информации смотрите аргумент imds trainNetwork.

Datastore

Datastore, который возвращает данные как одно изображение, массив ячеек изображений или таблицу, первый столбец которой содержит изображения.

Для получения дополнительной информации смотрите Хранилища данных для Глубокого обучения.

Таблица

Первый столбец таблицы содержит или каналы передачи изображения или трехмерные массивы, представляющие изображения. Последующие столбцы содержат ответы.

Для получения дополнительной информации смотрите аргумент tbl trainNetwork.

Последовательность или данные временных рядов, заданные как N-by-1 массив ячеек числовых массивов, где N является количеством наблюдений, числовой массив, представляющий одну последовательность или datastore.

Для входа массива ячеек или числового массива размерности числовых массивов, содержащих последовательности, зависят от типа данных.

Входной параметрОписание
Векторные последовательностиc-by-s матрицы, где c является количеством функций последовательностей и s, является длиной последовательности.
2D последовательности изображенийh-by-w-by-c-by-s массивы, где h, w и c соответствуют высоте, ширине, и количеству каналов изображений, соответственно, и s, является длиной последовательности.
3-D последовательности изображенийh-by-w-by-d-by-c-by-s, где h, w, d и c соответствуют высоте, ширине, глубине, и количеству каналов 3-D изображений, соответственно, и s, является длиной последовательности.

Для входа datastore datastore должен возвратить данные как массив ячеек последовательностей или таблицы, первый столбец которой содержит последовательности. Размерности данных о последовательности должны соответствовать приведенной выше таблице.

Аргументы в виде пар имя-значение

Пример: 'MiniBatchSize','256' задает мини-пакетный размер как 256.

Задайте дополнительную пару, разделенную запятой аргумента Name,Value. Имя (Name) — это имя аргумента, а значение (Value) — соответствующее значение. Имя должно находиться внутри одинарных кавычек (' ').

Размер мини-пакетов, чтобы использовать для прогноза, заданного как положительное целое число. Большие мини-пакетные размеры требуют большей памяти, но могут привести к более быстрым прогнозам.

При создании прогнозов с последовательностями различных длин мини-пакетный размер может повлиять на объем дополнения добавленного к входным данным, которые могут привести к различным ожидаемым значениям. Попытайтесь использовать различные значения, чтобы видеть, который работает лучше всего с вашей сетью. Чтобы задать мини-пакетный размер и дополнительные опции, используйте опции 'SequenceLength' и 'MiniBatchSize'.

Пример: 'MiniBatchSize',256

Оптимизация производительности, заданная как пара, разделенная запятой, состоящая из 'Acceleration' и одно из следующего:

  • 'auto' Автоматически примените много оптимизации, подходящей для входной сети и аппаратного ресурса.

  • MEX Скомпилируйте и выполните MEX-функцию. Эта опция доступна при использовании графического процессора только. Используя графический процессор требует Parallel Computing Toolbox, и CUDA включил NVIDIA, графический процессор с вычисляет возможность 3.0 или выше. Если Parallel Computing Toolbox или подходящий графический процессор не доступны, то программное обеспечение возвращает ошибку.

  • 'none' Отключите все ускорение.

Опцией по умолчанию является 'auto'. Если 'auto' будет задан, MATLAB® применит много совместимой оптимизации. Если вы используете опцию 'auto', MATLAB никогда не генерирует MEX-функцию.

Используя опции 'Acceleration' 'auto' и 'mex' могут предложить выигрыши в производительности, но за счет увеличенного начального времени выполнения. Последующие вызовы с совместимыми параметрами быстрее. Используйте оптимизацию производительности, когда вы запланируете вызвать функцию многократно с помощью новых входных данных.

Опция 'mex' генерирует и выполняет MEX-функцию на основе сети и параметров, используемых в вызове функции. У вас может быть несколько MEX-функций, сопоставленных с одной сетью когда-то. Очищение сетевой переменной также очищает любые MEX-функции, сопоставленные с той сетью.

Опция 'mex' только доступна для входных данных, заданных как числовой массив, массив ячеек числовых массивов, таблицы или datastore изображений. Никакие другие типы datastore не поддерживают опцию 'mex'.

Опция 'mex' только доступна, когда вы используете графический процессор. Необходимо было также установить компилятор C/C++. Для инструкций по настройке смотрите Setup MEX (GPU Coder).

Ускорение 'mex' не поддерживает все слои. Для списка поддерживаемых слоев смотрите Поддерживаемые Слои (GPU Coder).

Пример: 'Acceleration','mex'

Аппаратный ресурс, заданный как пара, разделенная запятой, состоящая из 'ExecutionEnvironment' и одно из следующего:

  • 'auto' Используйте графический процессор, если вы доступны; в противном случае используйте центральный процессор.

  • 'gpu' — Используйте графический процессор. Используя графический процессор требует Parallel Computing Toolbox, и CUDA включил NVIDIA, графический процессор с вычисляет возможность 3.0 или выше. Если Parallel Computing Toolbox или подходящий графический процессор не доступны, то программное обеспечение возвращает ошибку.

  • 'cpu' — Используйте центральный процессор.

Пример: 'ExecutionEnvironment','cpu'

Опция, чтобы заполнить, обрежьте или разделите входные последовательности, заданные как одно из следующего:

  • 'longest' — Заполните последовательности в каждом мини-пакете, чтобы иметь ту же длину как самая длинная последовательность. Эта опция не отбрасывает данных, хотя дополнение может ввести шум сети.

  • 'shortest' — Усеченные последовательности в каждом мини-пакете, чтобы иметь ту же длину как самая короткая последовательность. Эта опция гарантирует, что никакое дополнение не добавляется, за счет отбрасывания данных.

  • Положительное целое число — Для каждого мини-пакета, заполните последовательности к самому близкому кратному заданная длина, которая больше, чем самая долгая длина последовательности в мини-пакете, и затем разделяет последовательности в меньшие последовательности заданной длины. Если разделение происходит, то программное обеспечение создает дополнительные мини-пакеты. Используйте эту опцию, если полные последовательности не умещаются в памяти. Также попытайтесь сократить количество последовательностей на мини-пакет путем установки опции 'MiniBatchSize' на нижнее значение.

Если вы задаете длину последовательности как положительное целое число, то программные процессы меньшие последовательности в последовательных итерациях. Сеть обновляет сетевое состояние между последовательностями разделения.

Программное обеспечение заполняет и обрезает последовательности справа. Чтобы узнать больше об эффекте дополнения, усечение и разделение входных последовательностей, видят, что Последовательность Дополняет, Усечение, и Разделяет.

Пример: 'SequenceLength','shortest'

Значение, которым можно заполнить входные последовательности, заданные как скаляр. Опция допустима только, когда SequenceLength является 'longest' или положительное целое число. Не заполняйте последовательности NaN, потому что выполнение так может распространить ошибки в сети.

Пример: 'SequencePaddingValue',-1

Выходные аргументы

свернуть все

Предсказанные метки класса, возвращенные как категориальный вектор или массив ячеек категориальных векторов. Формат YPred зависит от типа проблемы.

Следующая таблица описывает формат для проблем классификации.

ЗадачаФормат
Отобразите классификациюN-by-1 категориальный вектор меток, где N является количеством наблюдений.
Классификация последовательностей к метке
Классификация от последовательности к последовательности

N-by-1 массив ячеек категориальных последовательностей меток, где N является количеством наблюдений. Каждая последовательность имеет то же количество временных шагов как соответствующая входная последовательность.

Для проблем классификации от последовательности к последовательности с одним наблюдением sequences может быть матрицей. В этом случае YPred является категориальной последовательностью меток.

Предсказанные очки или ответы, возвращенные как матрица или массив ячеек матриц. Формат scores зависит от типа проблемы.

Следующая таблица описывает формат scores.

ЗадачаФормат
Отобразите классификациюN-by-K матрица, где N является количеством наблюдений и K, является количеством классов
Классификация последовательностей к метке
Классификация от последовательности к последовательности

N-by-1 массив ячеек матриц, где N является количеством наблюдений. Последовательности являются матрицами со строками K, где K является количеством ответов. Каждая последовательность имеет то же количество временных шагов как соответствующая входная последовательность.

Для проблем классификации от последовательности к последовательности с одним наблюдением sequences может быть матрицей. В этом случае scores является матрицей предсказанных очков класса.

Для примера, исследуя очки классификации, смотрите, Классифицируют Изображения Веб-камеры Используя Глубокое обучение.

Алгоритмы

Все функции для обучения глубокому обучению, прогноза и валидации в Deep Learning Toolbox™ выполняют вычисления с помощью арифметики с плавающей точкой, с одинарной точностью. Функции для глубокого обучения включают trainNetwork, predict, classify и activations. Программное обеспечение использует арифметику с одинарной точностью, когда вы обучаете нейронные сети с помощью и центральных процессоров и графических процессоров.

Альтернативы

Можно вычислить предсказанные очки из обучившего сеть использования predict.

Можно также вычислить активации из сетевого слоя с помощью activations.

Для последовательности к метке и сетей классификации от последовательности к последовательности, можно сделать прогнозы и обновить сетевое состояние с помощью classifyAndUpdateState и predictAndUpdateState.

Ссылки

[1] М. Кудо, J. Тояма, и М. Шимбо. "Многомерная Классификация Кривых Используя Прохождение через области". Буквы Распознавания образов. Издание 20, № 11-13, страницы 1103-1111.

[2] Репозиторий машинного обучения UCI: японский набор данных гласных. https://archive.ics.uci.edu/ml/datasets/Japanese+Vowels

Введенный в R2016a

Для просмотра документации необходимо авторизоваться на сайте