Обучите Более быстрый детектор объекта глубокого обучения R-CNN
trainedDetector = trainFasterRCNNObjectDetector(trainingData,network,options)trainedDetector = trainFasterRCNNObjectDetector(trainingData,checkpoint,options)trainedDetector = trainFasterRCNNObjectDetector(trainingData,detector,options)trainedDetector = trainFasterRCNNObjectDetector(___,Name,Value)[trainedDetector,info] = trainFasterRCNNObjectDetector(___) обучает Более быстрый R-CNN (области с нейронными сетями свертки) объектный детектор с помощью переменного учебного метода с четырьмя шагами в глубоком обучении [1]. Можно обучить Более быстрый детектор R-CNN обнаруживать несколько классов объектов. trainedDetector = trainFasterRCNNObjectDetector(trainingData,network,options)
Эта функция требует, чтобы у вас был Deep Learning Toolbox™. Рекомендуется, чтобы у вас также был Parallel Computing Toolbox™, чтобы использовать с графическим процессором CUDA®-enabled NVIDIA® с, вычисляют возможность 3.0 или выше.
обучение резюме от контрольной точки детектора.trainedDetector = trainFasterRCNNObjectDetector(trainingData,checkpoint,options)
продолжает обучение детектор объекта Faster R-CNN. Используйте этот синтаксис для подстройки детектора.trainedDetector = trainFasterRCNNObjectDetector(trainingData,detector,options)
дополнительные опции использования заданы одним или несколькими аргументами пары trainedDetector = trainFasterRCNNObjectDetector(___,Name,Value)Name,Value и любыми из предыдущих входных параметров.
[ также возвращает информацию об учебном прогрессе, таком как учебная потеря и точность, для каждой итерации.trainedDetector,info] = trainFasterRCNNObjectDetector(___)
Чтобы ускорить предварительную обработку данных для обучения, trainFastRCNNObjectDetector автоматически создает и использует параллельный пул на основе ваших параллельных настроек настройки. Для получения дополнительной информации об установке этих настроек, смотрите параллельные настройки настройки. Используя параллельные вычисления настройки требует Parallel Computing Toolbox.
VGG-16, VGG-19, ResNet-101 и Inception-ResNet-v2 являются большими моделями. Обучение с большими изображениями может произвести "Из Памяти" ошибки. Чтобы смягчить эти ошибки, попробуйте один или несколько из этих опций:
Уменьшайте размер своих изображений при помощи аргумента 'SmallestImageDimension'.
Уменьшите значение аргумента значения имени 'NumRegionsToSample'.
Эта функция поддерживает изучение передачи. При вводе network по наименованию, такой как 'resnet50', затем функция автоматически преобразовывает сеть в допустимую Более быструю сетевую модель R-CNN на основе предварительно обученной модели resnet50. Также вручную задайте пользовательскую сеть Faster R-CNN при помощи LayerGraph, извлеченного от предварительно обученной сети DAG. Для получения дополнительной информации смотрите, Создают Более быструю Сеть Обнаружения объектов R-CNN.
Эта таблица описывает, как преобразовать каждую именованную сеть в сеть Fast R-CNN. Имя слоя выделения признаков задает, какой слой обрабатывается слоем объединения ROI. ROI размер вывода задает размер карт функции, выведенных слоем объединения ROI.
| Сетевое имя | Имя слоя выделения признаков | Слой объединения ROI OutputSize | Описание |
|---|---|---|---|
alexnet | 'relu5' | [6 6] | В последний раз макс. объединение слоя заменяется ROI, макс. объединяющим слой |
vgg16 | 'relu5_3' | [7 7] | |
vgg19 | 'relu5_4' | ||
squeezenet | 'fire5-concat' | [14 14] | |
resnet18 | 'res4b_relu' | Слой объединения ROI вставляется после слоя выделения признаков. | |
resnet50 | 'activation_40_relu' | ||
resnet101 | 'res4b22_relu' | ||
googlenet | 'inception_4d-output' | ||
mobilenetv2 | 'block_13_expand_relu' | ||
inceptionv3 | 'mixed7' | [17 17] | |
inceptionresnetv2 | 'block17_20_ac' |
Если вы хотите изменить, как сеть преобразовывается в сеть Faster R-CNN, см. Проект R-CNN, Быстрый R-CNN и Более быстрая Модель R-CNN.
Во время обучения области повторного изображения обрабатываются от изображений обучения, количеством областей изображений на изображение управляет свойство NumRegionsToSample. Управление свойствами PositiveOverlapRange и NegativeOverlapRange, которые отображают области, используется для обучения. Положительные учебные выборки - те, которые накладываются с наземными полями истины 0,6 к 1,0, как измерено пересечением ограничительной рамки по метрике объединения (IoU). Отрицательные учебные выборки - те, которые накладываются 0 к 0,3. Выберите значения для этих свойств путем тестирования обученного детектора на наборе валидации. Например,
| Перекройте значения | Описание |
|---|---|
Набор PositiveOverlapRange к [0.6 1] | Положительные учебные выборки установлены равные выборкам, которые накладываются с наземными полями истины 0,6 к 1,0, измеренный ограничительной рамкой метрика IoU. |
Набор NegativeOverlapRange к [0 0.3] | Отрицательные учебные выборки установлены равные выборкам, которые накладываются с наземными полями истины 0 к 0,3. |
если вы устанавливаете PositiveOverlapRange на [0.6 1], то функция устанавливает положительные учебные выборки, равные выборкам, которые накладываются с наземными полями истины 0,6 к 1,0, измеренный пересечением ограничительной рамки по метрике объединения. Если вы устанавливаете NegativeOverlapRange на [0 0.3], то отрицательные учебные выборки наборов функции - те, которые накладываются 0 к 0,3, если NegativeOverlapRange является [0 0.3].
Используйте функцию trainingOptions, чтобы включить или отключить многословную печать.
Функция trainFasterRCNNObjectDetector обучает детектор объекта Faster R-CNN на четырех этапах с переменной оптимизацией [1].
[1] Жэнь, Shaoqing, Kaiming он, Росс Джиршик и Цзянь Sun. "Более быстрый R-CNN: к обнаружению объектов в реальном времени с сетями предложения по области". Усовершенствования в нейронных системах обработки информации. Издание 28, 2015.
[2] Girshick, Росс. "Быстрое r-cnn". Продолжения Международной конференции IEEE по вопросам Компьютерного зрения. 2015
[3] Girshick, R., Дж. Донахью, Т. Даррелл и Дж. Малик. "Богатые иерархии функции для точного обнаружения объектов и семантической сегментации". CVPR '14 продолжений 2 014 конференций по IEEE по компьютерному зрению и распознаванию образов. Страницы 580-587. 2014
[4] Zitnick, К. Лоуренс и П. Доллэр. "Поля ребра: Определение местоположения объектных предложений от ребер". Компьютерное-зрение-ECCV. Springer International Publishing. Страницы 391-4050. 2014.