Обучите Более быстрый детектор объекта глубокого обучения R-CNN
trainedDetector = trainFasterRCNNObjectDetector(trainingData,network,options)
trainedDetector = trainFasterRCNNObjectDetector(trainingData,checkpoint,options)
trainedDetector = trainFasterRCNNObjectDetector(trainingData,detector,options)
trainedDetector = trainFasterRCNNObjectDetector(___,Name,Value)
[trainedDetector,info] = trainFasterRCNNObjectDetector(___)
обучает Более быстрый R-CNN (области с нейронными сетями свертки) объектный детектор с помощью переменного учебного метода с четырьмя шагами в глубоком обучении [1]. Можно обучить Более быстрый детектор R-CNN обнаруживать несколько классов объектов. trainedDetector
= trainFasterRCNNObjectDetector(trainingData
,network
,options
)
Эта функция требует, чтобы у вас был Deep Learning Toolbox™. Рекомендуется, чтобы у вас также был Parallel Computing Toolbox™, чтобы использовать с графическим процессором CUDA®-enabled NVIDIA® с, вычисляют возможность 3.0 или выше.
обучение резюме от контрольной точки детектора.trainedDetector
= trainFasterRCNNObjectDetector(trainingData
,checkpoint
,options
)
продолжает обучение детектор объекта Faster R-CNN. Используйте этот синтаксис для подстройки детектора.trainedDetector
= trainFasterRCNNObjectDetector(trainingData
,detector
,options
)
дополнительные опции использования заданы одним или несколькими аргументами пары trainedDetector
= trainFasterRCNNObjectDetector(___,Name,Value
)Name,Value
и любыми из предыдущих входных параметров.
[
также возвращает информацию об учебном прогрессе, таком как учебная потеря и точность, для каждой итерации.trainedDetector
,info
] = trainFasterRCNNObjectDetector(___)
Чтобы ускорить предварительную обработку данных для обучения, trainFastRCNNObjectDetector
автоматически создает и использует параллельный пул на основе ваших параллельных настроек настройки. Для получения дополнительной информации об установке этих настроек, смотрите параллельные настройки настройки. Используя параллельные вычисления настройки требует Parallel Computing Toolbox.
VGG-16, VGG-19, ResNet-101 и Inception-ResNet-v2 являются большими моделями. Обучение с большими изображениями может произвести "Из Памяти" ошибки. Чтобы смягчить эти ошибки, попробуйте один или несколько из этих опций:
Уменьшайте размер своих изображений при помощи аргумента 'SmallestImageDimension
'.
Уменьшите значение аргумента значения имени 'NumRegionsToSample
'.
Эта функция поддерживает изучение передачи. При вводе network
по наименованию, такой как 'resnet50'
, затем функция автоматически преобразовывает сеть в допустимую Более быструю сетевую модель R-CNN на основе предварительно обученной модели resnet50
. Также вручную задайте пользовательскую сеть Faster R-CNN при помощи LayerGraph
, извлеченного от предварительно обученной сети DAG. Для получения дополнительной информации смотрите, Создают Более быструю Сеть Обнаружения объектов R-CNN.
Эта таблица описывает, как преобразовать каждую именованную сеть в сеть Fast R-CNN. Имя слоя выделения признаков задает, какой слой обрабатывается слоем объединения ROI. ROI размер вывода задает размер карт функции, выведенных слоем объединения ROI.
Сетевое имя | Имя слоя выделения признаков | Слой объединения ROI OutputSize | Описание |
---|---|---|---|
alexnet | 'relu5' | [6 6] | В последний раз макс. объединение слоя заменяется ROI, макс. объединяющим слой |
vgg16 | 'relu5_3' | [7 7] | |
vgg19 | 'relu5_4' | ||
squeezenet | 'fire5-concat' | [14 14] | |
resnet18 | 'res4b_relu' | Слой объединения ROI вставляется после слоя выделения признаков. | |
resnet50 | 'activation_40_relu' | ||
resnet101 | 'res4b22_relu' | ||
googlenet | 'inception_4d-output' | ||
mobilenetv2 | 'block_13_expand_relu' | ||
inceptionv3 | 'mixed7' | [17 17] | |
inceptionresnetv2 | 'block17_20_ac' |
Если вы хотите изменить, как сеть преобразовывается в сеть Faster R-CNN, см. Проект R-CNN, Быстрый R-CNN и Более быстрая Модель R-CNN.
Во время обучения области повторного изображения обрабатываются от изображений обучения, количеством областей изображений на изображение управляет свойство NumRegionsToSample
. Управление свойствами PositiveOverlapRange
и NegativeOverlapRange
, которые отображают области, используется для обучения. Положительные учебные выборки - те, которые накладываются с наземными полями истины 0,6 к 1,0, как измерено пересечением ограничительной рамки по метрике объединения (IoU). Отрицательные учебные выборки - те, которые накладываются 0 к 0,3. Выберите значения для этих свойств путем тестирования обученного детектора на наборе валидации. Например,
Перекройте значения | Описание |
---|---|
Набор PositiveOverlapRange к [0.6 1] | Положительные учебные выборки установлены равные выборкам, которые накладываются с наземными полями истины 0,6 к 1,0, измеренный ограничительной рамкой метрика IoU. |
Набор NegativeOverlapRange к [0 0.3] | Отрицательные учебные выборки установлены равные выборкам, которые накладываются с наземными полями истины 0 к 0,3. |
если вы устанавливаете PositiveOverlapRange
на [0.6 1]
, то функция устанавливает положительные учебные выборки, равные выборкам, которые накладываются с наземными полями истины 0,6 к 1,0, измеренный пересечением ограничительной рамки по метрике объединения. Если вы устанавливаете NegativeOverlapRange
на [0 0.3]
, то отрицательные учебные выборки наборов функции - те, которые накладываются 0 к 0,3, если NegativeOverlapRange
является [0 0.3]
.
Используйте функцию trainingOptions
, чтобы включить или отключить многословную печать.
Функция trainFasterRCNNObjectDetector
обучает детектор объекта Faster R-CNN на четырех этапах с переменной оптимизацией [1].
[1] Жэнь, Shaoqing, Kaiming он, Росс Джиршик и Цзянь Sun. "Более быстрый R-CNN: к обнаружению объектов в реальном времени с сетями предложения по области". Усовершенствования в нейронных системах обработки информации. Издание 28, 2015.
[2] Girshick, Росс. "Быстрое r-cnn". Продолжения Международной конференции IEEE по вопросам Компьютерного зрения. 2015
[3] Girshick, R., Дж. Донахью, Т. Даррелл и Дж. Малик. "Богатые иерархии функции для точного обнаружения объектов и семантической сегментации". CVPR '14 продолжений 2 014 конференций по IEEE по компьютерному зрению и распознаванию образов. Страницы 580-587. 2014
[4] Zitnick, К. Лоуренс и П. Доллэр. "Поля ребра: Определение местоположения объектных предложений от ребер". Компьютерное-зрение-ECCV. Springer International Publishing. Страницы 391-4050. 2014.