Создайте слои U-Net для семантической сегментации
возвращает сеть U-Net. lgraph
= unetLayers(imageSize
,numClasses
)unetLayers
включает слой классификации пикселей в сеть, чтобы предсказать категориальную метку для каждого пикселя во входном изображении.
Используйте unetLayers
создать архитектуру сети U-Net. Необходимо обучить сеть с помощью функции Deep Learning Toolbox™ trainNetwork
.
[
также возвращает размер выходного размера от сети U-Net.lgraph
,outputSize
] = unetLayers(imageSize
,numClasses
)
___ = unetLayers(
задает опции с помощью одного или нескольких аргументов пары "имя-значение". Заключите каждое имя свойства в кавычки. Например, imageSize
,numClasses
,Name,Value
)unetLayers(imageSize,numClasses,'NumFirstEncoderFilters',64)
дополнительно определяет номер выходных каналов к 64
для первого этапа энкодера.
Используйте 'same'
дополнение в слоях свертки, чтобы обеспечить тот же размер данных от входа, чтобы вывести и включить использование широкого набора входных размеров изображения.
Используйте основанные на закрашенной фигуре подходы в бесшовной сегментации больших изображений. Можно извлечь закрашенные фигуры изображений при помощи randomPatchExtractionDatastore
функция в Image Processing Toolbox™.
Используйте 'valid'
дополнение, чтобы предотвратить артефакты границы, в то время как вы используете основанные на закрашенной фигуре подходы в сегментации.
Можно использовать сеть, созданную с помощью unetLayers
функция для генерации кода графического процессора после обучения с trainNetwork
. Для получения дополнительной информации и примеры, смотрите Генерацию кода Глубокого обучения (Deep Learning Toolbox).
[1] Ronneberger, O., П. Фишер и Т. Брокс. "U-Net: Сверточные Сети для Биомедицинской Сегментации Изображений". Медицинское Вычисление Изображений и Машинное Вмешательство (MICCAI). Издание 9351, 2015, стр 234–241.
[2] Он, K., С. Чжан, С. Жэнь и J. Sun. "Копаясь глубоко в выпрямителях: превышение производительности Человеческого Уровня на классификации ImageNet". Продолжения международной конференции IEEE по вопросам компьютерного зрения. 2015, 1026–1034.