detectPeopleACF

Обнаружьте людей, использующих совокупные функции канала (ACF)

detectPeopleACF будет удален в будущем релизе. Используйте peopleDetectorACF вместо этого.

Описание

пример

bboxes = detectPeopleACF(I) возвращает матрицу, bboxes, это содержит местоположения обнаруженных вертикальных людей во входном изображении, I. Местоположения представлены как ограничительные рамки. Функция использует алгоритм совокупных функций канала (ACF).

[bboxes,scores] = detectPeopleACF(I) также возвращает музыку обнаружения к каждой ограничительной рамке.

[___] = detectPeopleACF(I,roi) обнаруживает людей в прямоугольной поисковой области, заданной roi, использование любого из предыдущих синтаксисов.

[___] = detectPeopleACF(Name,Value) дополнительные опции использования заданы одним или несколькими Name,Value парные аргументы. Незаданные свойства имеют значения по умолчанию.

Поддержка генерации кода:
Генерация кода поддержек: нет
Блок MATLAB function поддержек: Нет

Примеры

свернуть все

Считайте изображение.

I = imread('visionteam1.jpg');

Обнаружьте людей в изображении и сохраните результаты как ограничительные рамки и счет.

[bboxes,scores] = detectPeopleACF(I);

Аннотируйте обнаруженных вертикальных людей в изображении.

I = insertObjectAnnotation(I,'rectangle',bboxes,scores);

Отобразите результаты с аннотацией.

figure
imshow(I)
title('Detected people and detection scores')

Входные параметры

свернуть все

Введите изображение в виде изображения истинного цвета. Изображение должно быть действительным и неразреженным.

Типы данных: uint8 | uint16 | int16 | double | single

Прямоугольная поисковая область в виде четырехэлементного вектора, [x, y, width, height]. roi должен полностью содержаться в I.

Аргументы в виде пар имя-значение

Задайте дополнительные разделенные запятой пары Name,Value аргументы. Name имя аргумента и Value соответствующее значение. Name должен появиться в кавычках. Вы можете задать несколько аргументов в виде пар имен и значений в любом порядке, например: Name1, Value1, ..., NameN, ValueN.

Пример: 'Threshold',-1

Модель классификации ACF в виде разделенной запятой пары, состоящей из 'Model'и любой 'inria-100x41' или 'caltech-50x21'. 'inria-100x41' модель была обучена с помощью набора данных INRIA Person. 'caltech-50x21' модель была обучена с помощью набора данных Caltech Pedestrian.

Количество уровней шкалы на октаву в виде разделенной запятой пары, состоящей из 'NumScaleLevels', и целое число. Каждая октава является уменьшением масштаба степени двойки изображения. Увеличьте это число, чтобы обнаружить людей в более прекрасном шаге шкалы. Рекомендуемые значения находятся в области значений [4,8].

Шаг окна для раздвижного окна в виде разделенной запятой пары, состоящей из 'WindowStride', и целое число. Установите это значение к сумме, вы хотите переместить окно в направлениях y и x. Раздвижное окно сканирует изображения для обнаружения объектов. Функция использует тот же шаг в направлениях y и x.

Выберите самую сильную ограничительную рамку в виде разделенной запятой пары, состоящей из 'SelectStrongest'и любой true или false. Процесс, часто называемый немаксимальным подавлением, устраняет перекрывающиеся ограничительные рамки на основе их баллов. Установите это свойство на true использовать selectStrongestBbox функционируйте, чтобы выбрать самую сильную ограничительную рамку. Установите это свойство на false, выполнять пользовательскую операцию выбора. Установка этого свойства к false возвращает обнаруженные ограничительные рамки.

Минимальный размер области в пикселях в виде разделенной запятой пары, состоящей из 'MinSize', и двухэлементный вектор [height width]. Можно установить это свойство на [50 21] для 'caltech-50x21' модель или [100 41] для 'inria-100x41' модель. Можно уменьшать время вычисления путем устанавливания этого значения к известному минимальному размеру области для обнаружения человека. По умолчанию, MinSize установлен в самый маленький размер области, возможный обнаружить вертикального человека для выбранной модели классификации.

Максимальный размер области в пикселях в виде разделенной запятой пары, состоящей из 'MaxSize', и двухэлементный вектор, [height width]. Можно уменьшать время вычисления путем устанавливания этого значения к известному размеру области для обнаружения человека. Если вы не устанавливаете это значение, по умолчанию функция определяет высоту и ширину изображения с помощью размера I.

Порог точности классификации в виде разделенной запятой пары, состоящей из 'Threshold'и численное значение. Типичные значения находятся в области значений [–1,1]. Во время многошкального обнаружения объектов пороговое значение управляет точностью классификации людей или бывших важных персон и скоростью. Увеличьте этот порог, чтобы ускорить производительность рискуя тем, чтобы пропустить истинные обнаружения.

Выходные аргументы

свернуть все

Местоположения людей обнаружили использование алгоритма совокупных функций канала (ACF), возвращенного как M-by-4 матрица. Местоположения представлены как ограничительные рамки. Каждая строка в bboxes содержит четырехэлементный вектор, [x, y, width, height]. Этот вектор задает верхний левый угол и размер ограничительной рамки, в пикселях, для обнаруженного человека.

Значение доверия для обнаружений, возвращенных как M-by-1 вектор. Вектор содержит значение для каждой ограничительной рамки в bboxes. Счетом к каждому обнаружению является выход мягко-каскадного классификатора. Областью значений значений баллов является [-inf inf]. Большие баллы указывают на более высокое доверие к обнаружению.

Ссылки

[1] Доллар, P., Р. Аппел, С. Белонги и П. Перона. "Быстро покажите пирамиды для обнаружения объектов". Анализ шаблона и Искусственный интеллект, Транзакции IEEE. Издание 36, Выпуск 8, 2014, стр 1532–1545.

[2] Доллар, К. Уоджек, Б. Шил и П. Перона. "Пешеходное обнаружение: оценка состояния". Анализ шаблона и Искусственный интеллект, Транзакции IEEE. Издание 34, Выпуск 4, 2012, стр 743–761.

[3] Доллар, C., Wojeck, Б. Шил и П. Перона. "Пешеходное обнаружение: сравнительный тест". Конференция по IEEE по Компьютерному зрению и Распознаванию образов. 2009.

Введенный в R2016a

Для просмотра документации необходимо авторизоваться на сайте