Этот пример показывает, как создать монокулярную симуляцию датчика камеры, способную к контурам маршрута и обнаружениям транспортного средства. Датчик сообщит об этих обнаружениях в системе координат транспортного средства. В этом примере вы узнаете о системе координат, используемой Automated Driving Toolbox™, и методах компьютерного зрения, участвующих в проекте выборки монокулярного датчика камеры.
Транспортные средства, которые содержат функции ADAS или спроектированы, чтобы быть полностью автономными, полагаются на несколько датчиков. Эти датчики могут включать гидролокатор, радар, лидар и камеры. Этот пример иллюстрирует некоторые концепции, связанные с проектом монокулярной системы камеры. Такой датчик может выполнить множество задач, включая:
Определение контуров маршрута
Обнаружение транспортных средств, людей и других объектов
Оценка расстояния от автомобиля , оборудованного датчиком до препятствий
Впоследствии показания, возвращенные датчиком монокулярного фотоаппарата, могут использоваться для выдачи предупреждений об отходе маршрута, предупреждений о столкновении или для разработки системы вспомогательного управления маршрута. В сочетании с другими датчиками он также может использоваться для реализации системы экстренного торможения и других критически важных для безопасности функций.
Пример реализует подмножество функций, обнаруженных в полностью развитой монокулярной системе камеры. Он обнаруживает контуры маршрута и задние части транспортных средств и сообщает об их местоположении в системе координат автомобиля.
Знание собственных и внешних параметров калибровки камеры очень важно для точного преобразования между координатами пикселя и транспортного средства.
Начните, определив собственные параметры камеры. Параметры, приведенные ниже, были определены ранее с помощью процедуры калибровки камеры, которая использовала шаблон калибровки шахматной доски. Вы можете использовать приложение Camera Calibrator, чтобы получить их для вашей камеры.
focalLength = [309.4362, 344.2161]; % [fx, fy] in pixel units principalPoint = [318.9034, 257.5352]; % [cx, cy] optical center in pixel coordinates imageSize = [480, 640]; % [nrows, mcols]
Обратите внимание, что коэффициенты искажения объектива были проигнорированы, потому что в данных мало искажений. Параметры хранятся в cameraIntrinsics
объект.
camIntrinsics = cameraIntrinsics(focalLength, principalPoint, imageSize);
Затем определите ориентацию камеры относительно шасси транспортного средства. Эта информация будет использоваться для создания внешних данных камеры, которые определяют положение 3-D системы координат камеры относительно системы координат транспортного средства.
height = 2.1798; % mounting height in meters from the ground pitch = 14; % pitch of the camera in degrees
Вышеуказанные величины могут быть выведены из матриц вращения и перемещения, возвращенных extrinsics
функция. Тангаж задает наклон камеры от горизонтального положения. Для камеры, используемой в этом примере, крен и рыскание датчика равны нулю. Всёсь строение, определяющая внутреннюю и внешнюю составляющие, хранится в monoCamera
объект.
sensor = monoCamera(camIntrinsics, height, 'Pitch', pitch);
Обратите внимание, что monoCamera
объект настраивает очень специфическую систему координат транспортного средства, где ось X указывает вперед от транспортного средства, ось Y указывает налево от транспортного средства, а ось Z указывает вверх от земли.
По умолчанию источник системы координат находится на земле, прямо под центром камеры, заданным фокальной точкой камеры. Перемещение источника осуществляется с помощью SensorLocation
свойство monoCamera
объект. Кроме того, monoCamera
обеспечивает imageToVehicle
и vehicleToImage
способы преобразования между изображением и системами координат транспортного средства.
Примечание. Преобразование между системами координат принимает плоскую дорогу. Он основан на установлении гомографической матрицы, которая сопоставляет местоположения на плоскости формирования изображения с местоположениями на поверхности дороги. Нелетающие дороги вносят ошибки в расчеты расстояния, особенно в местах, которые находятся далеко от транспортного средства.
Перед обработкой всего видео обработайте один видеокадр, чтобы проиллюстрировать концепции, участвующие в проекте монокулярного датчика камеры.
Начните, создав VideoReader
объект, который открывает видео файла. Чтобы быть эффективной памятью, VideoReader
загружает по одному видеокадру за раз.
videoName = 'caltech_cordova1.avi';
videoReader = VideoReader(videoName);
Прочитайте интересную систему координат, который содержит маркеры маршрута и транспортное средство.
timeStamp = 0.06667; % time from the beginning of the video videoReader.CurrentTime = timeStamp; % point to the chosen frame frame = readFrame(videoReader); % read frame at timeStamp seconds imshow(frame) % display frame
Примечание: Этот пример игнорирует искажение объектива. Если бы вы были обеспокоены ошибками в измерениях расстояния, введенными искажением объектива, на данной точке вы использовали бы undistortImage
функция для удаления искажения объектива.
Существует много способов сегментировать и обнаруживать маркеры маршрута. Один из подходов включает использование преобразования изображения в виде птичьего глаза. Несмотря на то, что это несет вычислительные затраты, это преобразование предлагает одно большое преимущество. Маркеры маршрута в виде птичьего полета имеют равномерную толщину, что упрощает процесс сегментации. Маркеры маршрута, принадлежащие тому же маршруту, также становятся параллельными, что облегчает последующий анализ.
Учитывая настройку камеры, birdsEyeView
объект преобразует оригинальное изображение в вид птичьего полета. Этот объект позволяет вам задать область, которую вы хотите преобразовать с помощью координат транспортного средства. Обратите внимание, что модули координат транспортного средства были установлены monoCamera
объект, когда высота установки камеры была указана в метрах. Например, если бы высота была задана в миллиметрах, в остальной части симуляции использовались бы миллиметры.
% Using vehicle coordinates, define area to transform distAheadOfSensor = 30; % in meters, as previously specified in monoCamera height input spaceToOneSide = 6; % all other distance quantities are also in meters bottomOffset = 3; outView = [bottomOffset, distAheadOfSensor, -spaceToOneSide, spaceToOneSide]; % [xmin, xmax, ymin, ymax] imageSize = [NaN, 250]; % output image width in pixels; height is chosen automatically to preserve units per pixel ratio birdsEyeConfig = birdsEyeView(sensor, outView, imageSize);
Сгенерируйте изображение вида птицы.
birdsEyeImage = transformImage(birdsEyeConfig, frame); figure imshow(birdsEyeImage)
Области, удаленные от датчика, являются более размытыми из-за наличия меньшего количества пикселей и, таким образом, требующих большей интерполяции.
Обратите внимание, что можно выполнить последние шаги обработки без использования вида птичьего полета, пока можно найти пиксели кандидата контура маршрута в координатах транспортного средства.
Имея изображение вида птицы, вы теперь можете использовать segmentLaneMarkerRidge
функция для отделения пикселей кандидата маркера маршрута от дорожного покрытия. Этот метод был выбран за его простоту и относительную эффективность. Существуют альтернативные методы сегментации, включая семантическую сегментацию (глубокое обучение) и управляемые фильтры. Можно заменить эти методы ниже, чтобы получить бинарную маску, необходимую для следующего этапа.
Большинство входных параметров в функции ниже заданы в мировых единицах измерения, например, ширина маркера маршрута, подаваемая в segmentLaneMarkerRidge
. Использование мировых единиц измерения позволяет легко попробовать новые датчики, даже когда изменяется вход размер изображения. Это очень важно для того, чтобы сделать проект более устойчивым и гибким в отношении изменения оборудования камеры и обработки различных стандартов во многих странах.
% Convert to grayscale birdsEyeImage = im2gray(birdsEyeImage); % Lane marker segmentation ROI in world units vehicleROI = outView - [-1, 2, -3, 3]; % look 3 meters to left and right, and 4 meters ahead of the sensor approxLaneMarkerWidthVehicle = 0.25; % 25 centimeters % Detect lane features laneSensitivity = 0.25; birdsEyeViewBW = segmentLaneMarkerRidge(birdsEyeImage, birdsEyeConfig, approxLaneMarkerWidthVehicle,... 'ROI', vehicleROI, 'Sensitivity', laneSensitivity); figure imshow(birdsEyeViewBW)
Определение местоположения отдельных маркеров маршрута происходит в координатах транспортного средства, которые привязываются на датчике камеры. Этот пример использует параболическую модель контура маршрута, ax ^ 2 + bx + c, чтобы представлять маркеры маршрута. Другие представления, такие как полином третьей степени или сплайны, возможны. Преобразование в координаты транспортного средства необходимо, в противном случае искривление маркера маршрута не может быть правильно представлено параболой, в то время как это затронуто перспективным искажением.
Модель маршрута предназначена для маркеров маршрута вдоль пути транспортного средства. Маркеры маршрута, идущие поперек пути или дорожные знаки, окрашенные в асфальт, отбраковываются.
% Obtain lane candidate points in vehicle coordinates
[imageX, imageY] = find(birdsEyeViewBW);
xyBoundaryPoints = imageToVehicle(birdsEyeConfig, [imageY, imageX]);
Поскольку сегментированные точки содержат много выбросов, которые не являются частью фактических маркеров маршрута, используйте надежный алгоритм аппроксимирования кривыми, основанный на консенсусе случайной выборки (RANSAC).
Верните контуры и их параметры параболы (a, b, c) в массиве parabolicLaneBoundary
объекты, boundaries
.
maxLanes = 2; % look for maximum of two lane markers boundaryWidth = 3*approxLaneMarkerWidthVehicle; % expand boundary width [boundaries, boundaryPoints] = findParabolicLaneBoundaries(xyBoundaryPoints,boundaryWidth, ... 'MaxNumBoundaries', maxLanes, 'validateBoundaryFcn', @validateBoundaryFcn);
Заметьте, что findParabolicLaneBoundaries
принимает указатель на функцию, validateBoundaryFcn
. Эта функция , взятая в качестве примера, перечислена в конце этого примера. Использование этого дополнительного входа позволяет отклонить некоторые кривые на основе значений параметров a, b, c. Он может также использоваться, чтобы использовать преимущества временной информации для ряда систем координат путем ограничения будущих значений a, b, c на основе предыдущих видеокадров.
Некоторые кривые, найденные на предыдущем шаге, все еще могут быть недопустимыми. Для примера, когда кривая помещается в маркеры перекрестия. Используйте дополнительную эвристику, чтобы отклонить многие такие кривые.
% Establish criteria for rejecting boundaries based on their length maxPossibleXLength = diff(vehicleROI(1:2)); minXLength = maxPossibleXLength * 0.60; % establish a threshold % Reject short boundaries isOfMinLength = arrayfun(@(b)diff(b.XExtent) > minXLength, boundaries); boundaries = boundaries(isOfMinLength);
Удалите дополнительные контуры на основе метрики прочности, вычисленной findParabolicLaneBoundaries
функция. Установите порог прочности маршрута на основе информация только для чтения и размера изображения.
% To compute the maximum strength, assume all image pixels within the ROI % are lane candidate points birdsImageROI = vehicleToImageROI(birdsEyeConfig, vehicleROI); [laneImageX,laneImageY] = meshgrid(birdsImageROI(1):birdsImageROI(2),birdsImageROI(3):birdsImageROI(4)); % Convert the image points to vehicle points vehiclePoints = imageToVehicle(birdsEyeConfig,[laneImageX(:),laneImageY(:)]); % Find the maximum number of unique x-axis locations possible for any lane % boundary maxPointsInOneLane = numel(unique(vehiclePoints(:,1))); % Set the maximum length of a lane boundary to the ROI length maxLaneLength = diff(vehicleROI(1:2)); % Compute the maximum possible lane strength for this image size/ROI size % specification maxStrength = maxPointsInOneLane/maxLaneLength; % Reject weak boundaries isStrong = [boundaries.Strength] > 0.4*maxStrength; boundaries = boundaries(isStrong);
Эвристика для классификации типа маркера маршрута как твердого/штрихового включены в вспомогательную функцию, перечисленную в нижней части этого примера. Знание типа маркера маршрута очень важно для автоматического управления транспортным средством. Например, пересечение твердого маркера запрещено.
boundaries = classifyLaneTypes(boundaries, boundaryPoints); % Locate two ego lanes if they are present xOffset = 0; % 0 meters from the sensor distanceToBoundaries = boundaries.computeBoundaryModel(xOffset); % Find candidate ego boundaries leftEgoBoundaryIndex = []; rightEgoBoundaryIndex = []; minLDistance = min(distanceToBoundaries(distanceToBoundaries>0)); minRDistance = max(distanceToBoundaries(distanceToBoundaries<=0)); if ~isempty(minLDistance) leftEgoBoundaryIndex = distanceToBoundaries == minLDistance; end if ~isempty(minRDistance) rightEgoBoundaryIndex = distanceToBoundaries == minRDistance; end leftEgoBoundary = boundaries(leftEgoBoundaryIndex); rightEgoBoundary = boundaries(rightEgoBoundaryIndex);
Отображение обнаруженных маркеров маршрута на изображении с видом на глаз птицы и на регулярном виде.
xVehiclePoints = bottomOffset:distAheadOfSensor; birdsEyeWithEgoLane = insertLaneBoundary(birdsEyeImage, leftEgoBoundary , birdsEyeConfig, xVehiclePoints, 'Color','Red'); birdsEyeWithEgoLane = insertLaneBoundary(birdsEyeWithEgoLane, rightEgoBoundary, birdsEyeConfig, xVehiclePoints, 'Color','Green'); frameWithEgoLane = insertLaneBoundary(frame, leftEgoBoundary, sensor, xVehiclePoints, 'Color','Red'); frameWithEgoLane = insertLaneBoundary(frameWithEgoLane, rightEgoBoundary, sensor, xVehiclePoints, 'Color','Green'); figure subplot('Position', [0, 0, 0.5, 1.0]) % [left, bottom, width, height] in normalized units imshow(birdsEyeWithEgoLane) subplot('Position', [0.5, 0, 0.5, 1.0]) imshow(frameWithEgoLane)
Обнаружение и отслеживание транспортных средств является критическим в системах предупреждения столкновения (FCW) и автономного экстренного торможения (AEB).
Загрузите детектор совокупных функций канала (ACF), который предварительно обучен, чтобы обнаружить переднюю и заднюю части транспортных средств. Такой детектор может обрабатывать сценарии, где выдача предупреждения о столкновении важна. Для примера этого недостаточно обнаружить транспортное средство, перемещающееся через дорогу перед автомобилем , оборудованным датчиком.
detector = vehicleDetectorACF();
% Width of a common vehicle is between 1.5 to 2.5 meters
vehicleWidth = [1.5, 2.5];
Используйте configureDetectorMonoCamera
функция для специализации типового детектора ACF с учетом геометрии типового автомобильного приложения. При прохождении в этом строении камеры этот новый детектор ищет только транспортные средства вдоль поверхности дороги, потому что нет смысла искать транспортные средства высоко выше точки исчезновения. Это экономит вычислительное время и уменьшает количество ложных срабатываний.
monoDetector = configureDetectorMonoCamera(detector, sensor, vehicleWidth); [bboxes, scores] = detect(monoDetector, frame);
Поскольку в этом примере показано, как обработать только одну систему координат в демонстрационных целях, вы не можете применить отслеживание поверх необработанных обнаружений. Сложение отслеживания делает результаты возврата местоположения транспортного средства более устойчивыми, потому что, даже когда транспортное средство частично закрыта, трекер продолжает возвращать местоположение транспортного средства. Для получения дополнительной информации см. пример «Отслеживать несколько транспортных средств с помощью камеры».
Затем преобразуйте обнаружения транспортного средства в координаты автомобиля. The computeVehicleLocations
функция, включенная в конец этого примера, вычисляет местоположение транспортного средства в координатах транспортного средства, заданных ограничивающий прямоугольник, возвращенный алгоритмом обнаружения в координатах изображения. Оно возвращает центральное положение дна ограничивающего прямоугольника в координатах транспортного средства. Поскольку мы используем монокулярный датчик камеры и простую гомографию, точно можно вычислить только расстояния вдоль поверхности дороги. Расчет произвольного местоположения в трехмерном простртребуеттребует использования стереофотоаппарата или другого датчика, способного к триангуляции.
locations = computeVehicleLocations(bboxes, sensor);
% Overlay the detections on the video frame
imgOut = insertVehicleDetections(frame, locations, bboxes);
figure;
imshow(imgOut);
Теперь, когда у вас есть представление о внутренней работе отдельных шагов, давайте составим их вместе и применим их к видео последовательности, где мы также можем использовать временную информацию.
Перемотка видео к началу, а затем обработка видео. Приведенный ниже код сокращается, поскольку все ключевые параметры были определены на предыдущих шагах. Здесь параметры используются без дальнейших объяснений.
videoReader.CurrentTime = 0; isPlayerOpen = true; snapshot = []; while hasFrame(videoReader) && isPlayerOpen % Grab a frame of video frame = readFrame(videoReader); % Compute birdsEyeView image birdsEyeImage = transformImage(birdsEyeConfig, frame); birdsEyeImage = im2gray(birdsEyeImage); % Detect lane boundary features birdsEyeViewBW = segmentLaneMarkerRidge(birdsEyeImage, birdsEyeConfig, ... approxLaneMarkerWidthVehicle, 'ROI', vehicleROI, ... 'Sensitivity', laneSensitivity); % Obtain lane candidate points in vehicle coordinates [imageX, imageY] = find(birdsEyeViewBW); xyBoundaryPoints = imageToVehicle(birdsEyeConfig, [imageY, imageX]); % Find lane boundary candidates [boundaries, boundaryPoints] = findParabolicLaneBoundaries(xyBoundaryPoints,boundaryWidth, ... 'MaxNumBoundaries', maxLanes, 'validateBoundaryFcn', @validateBoundaryFcn); % Reject boundaries based on their length and strength isOfMinLength = arrayfun(@(b)diff(b.XExtent) > minXLength, boundaries); boundaries = boundaries(isOfMinLength); isStrong = [boundaries.Strength] > 0.2*maxStrength; boundaries = boundaries(isStrong); % Classify lane marker type boundaries = classifyLaneTypes(boundaries, boundaryPoints); % Find ego lanes xOffset = 0; % 0 meters from the sensor distanceToBoundaries = boundaries.computeBoundaryModel(xOffset); % Find candidate ego boundaries leftEgoBoundaryIndex = []; rightEgoBoundaryIndex = []; minLDistance = min(distanceToBoundaries(distanceToBoundaries>0)); minRDistance = max(distanceToBoundaries(distanceToBoundaries<=0)); if ~isempty(minLDistance) leftEgoBoundaryIndex = distanceToBoundaries == minLDistance; end if ~isempty(minRDistance) rightEgoBoundaryIndex = distanceToBoundaries == minRDistance; end leftEgoBoundary = boundaries(leftEgoBoundaryIndex); rightEgoBoundary = boundaries(rightEgoBoundaryIndex); % Detect vehicles [bboxes, scores] = detect(monoDetector, frame); locations = computeVehicleLocations(bboxes, sensor); % Visualize sensor outputs and intermediate results. Pack the core % sensor outputs into a struct. sensorOut.leftEgoBoundary = leftEgoBoundary; sensorOut.rightEgoBoundary = rightEgoBoundary; sensorOut.vehicleLocations = locations; sensorOut.xVehiclePoints = bottomOffset:distAheadOfSensor; sensorOut.vehicleBoxes = bboxes; % Pack additional visualization data, including intermediate results intOut.birdsEyeImage = birdsEyeImage; intOut.birdsEyeConfig = birdsEyeConfig; intOut.vehicleScores = scores; intOut.vehicleROI = vehicleROI; intOut.birdsEyeBW = birdsEyeViewBW; closePlayers = ~hasFrame(videoReader); isPlayerOpen = visualizeSensorResults(frame, sensor, sensorOut, ... intOut, closePlayers); timeStamp = 7.5333; % take snapshot for publishing at timeStamp seconds if abs(videoReader.CurrentTime - timeStamp) < 0.01 snapshot = takeSnapshot(frame, sensor, sensorOut); end end
Отобразите видеокадр. Моментальный снимок получен в timeStamp
секунд.
if ~isempty(snapshot) figure imshow(snapshot) end
The helperMonoSensor
класс собирает настройку и все необходимые шаги для симуляции монокулярного датчика камеры в полный пакет, который можно применить к любому видео. Поскольку большинство параметров, используемых в проекте датчика, основаны на мировых единицах измерения, проект устойчив к изменениям параметров камеры, включая размер изображения. Обратите внимание, что код внутри helperMonoSensor
класс отличается от цикла в предыдущем разделе, который использовался для иллюстрации основных концепций.
Помимо предоставления нового видео, вы должны предоставить строение камеры, соответствующую этому видео. Процесс показан здесь. Попробуйте на собственных видео.
% Sensor configuration focalLength = [309.4362, 344.2161]; principalPoint = [318.9034, 257.5352]; imageSize = [480, 640]; height = 2.1798; % mounting height in meters from the ground pitch = 14; % pitch of the camera in degrees camIntrinsics = cameraIntrinsics(focalLength, principalPoint, imageSize); sensor = monoCamera(camIntrinsics, height, 'Pitch', pitch); videoReader = VideoReader('caltech_washington1.avi');
Создайте helperMonoSensor
объект и применить его к видео.
monoSensor = helperMonoSensor(sensor); monoSensor.LaneXExtentThreshold = 0.5; % To remove false detections from shadows in this video, we only return % vehicle detections with higher scores. monoSensor.VehicleDetectionThreshold = 20; isPlayerOpen = true; snapshot = []; while hasFrame(videoReader) && isPlayerOpen frame = readFrame(videoReader); % get a frame sensorOut = processFrame(monoSensor, frame); closePlayers = ~hasFrame(videoReader); isPlayerOpen = displaySensorOutputs(monoSensor, frame, sensorOut, closePlayers); timeStamp = 11.1333; % take snapshot for publishing at timeStamp seconds if abs(videoReader.CurrentTime - timeStamp) < 0.01 snapshot = takeSnapshot(frame, sensor, sensorOut); end end
Отобразите видеокадр. Моментальный снимок получен в timeStamp
секунд.
if ~isempty(snapshot) figure imshow(snapshot) end
visualizeSensorResults отображает информацию о ядре и промежуточные результаты симуляции монокулярного датчика камеры.
function isPlayerOpen = visualizeSensorResults(frame, sensor, sensorOut,... intOut, closePlayers) % Unpack the main inputs leftEgoBoundary = sensorOut.leftEgoBoundary; rightEgoBoundary = sensorOut.rightEgoBoundary; locations = sensorOut.vehicleLocations; xVehiclePoints = sensorOut.xVehiclePoints; bboxes = sensorOut.vehicleBoxes; % Unpack additional intermediate data birdsEyeViewImage = intOut.birdsEyeImage; birdsEyeConfig = intOut.birdsEyeConfig; vehicleROI = intOut.vehicleROI; birdsEyeViewBW = intOut.birdsEyeBW; % Visualize left and right ego-lane boundaries in bird's-eye view birdsEyeWithOverlays = insertLaneBoundary(birdsEyeViewImage, leftEgoBoundary , birdsEyeConfig, xVehiclePoints, 'Color','Red'); birdsEyeWithOverlays = insertLaneBoundary(birdsEyeWithOverlays, rightEgoBoundary, birdsEyeConfig, xVehiclePoints, 'Color','Green'); % Visualize ego-lane boundaries in camera view frameWithOverlays = insertLaneBoundary(frame, leftEgoBoundary, sensor, xVehiclePoints, 'Color','Red'); frameWithOverlays = insertLaneBoundary(frameWithOverlays, rightEgoBoundary, sensor, xVehiclePoints, 'Color','Green'); frameWithOverlays = insertVehicleDetections(frameWithOverlays, locations, bboxes); imageROI = vehicleToImageROI(birdsEyeConfig, vehicleROI); ROI = [imageROI(1) imageROI(3) imageROI(2)-imageROI(1) imageROI(4)-imageROI(3)]; % Highlight candidate lane points that include outliers birdsEyeViewImage = insertShape(birdsEyeViewImage, 'rectangle', ROI); % show detection ROI birdsEyeViewImage = imoverlay(birdsEyeViewImage, birdsEyeViewBW, 'blue'); % Display the results frames = {frameWithOverlays, birdsEyeViewImage, birdsEyeWithOverlays}; persistent players; if isempty(players) frameNames = {'Lane marker and vehicle detections', 'Raw segmentation', 'Lane marker detections'}; players = helperVideoPlayerSet(frames, frameNames); end update(players, frames); % Terminate the loop when the first player is closed isPlayerOpen = isOpen(players, 1); if (~isPlayerOpen || closePlayers) % close down the other players clear players; end end
computeVehicleLocations вычисляет местоположение транспортного средства в координатах транспортного средства, учитывая ограничивающий прямоугольник, возвращенный алгоритмом обнаружения в координатах изображения. Оно возвращает центральное положение дна ограничивающего прямоугольника в координатах транспортного средства. Поскольку используются монокулярный датчик камеры и простая гомография, можно вычислить только расстояния вдоль поверхности дороги. Расчет произвольного местоположения в трехмерном простртребуеттребует использования стереофотоаппарата или другого датчика, способного к триангуляции.
function locations = computeVehicleLocations(bboxes, sensor) locations = zeros(size(bboxes,1),2); for i = 1:size(bboxes, 1) bbox = bboxes(i, :); % Get [x,y] location of the center of the lower portion of the % detection bounding box in meters. bbox is [x, y, width, height] in % image coordinates, where [x,y] represents upper-left corner. yBottom = bbox(2) + bbox(4) - 1; xCenter = bbox(1) + (bbox(3)-1)/2; % approximate center locations(i,:) = imageToVehicle(sensor, [xCenter, yBottom]); end end
insertVehicleDetections вставляет ограничительные рамки и отображает местоположения [x, y], соответствующие обнаружениям возвращённого транспортного средства.
function imgOut = insertVehicleDetections(imgIn, locations, bboxes) imgOut = imgIn; for i = 1:size(locations, 1) location = locations(i, :); bbox = bboxes(i, :); label = sprintf('X=%0.2f, Y=%0.2f', location(1), location(2)); imgOut = insertObjectAnnotation(imgOut, ... 'rectangle', bbox, label, 'Color','g'); end end
vehicleToImageROI преобразует информация только для чтения в координатах транспортного средства в координаты изображения в изображении вида птичьего глаза.
function imageROI = vehicleToImageROI(birdsEyeConfig, vehicleROI) vehicleROI = double(vehicleROI); loc2 = abs(vehicleToImage(birdsEyeConfig, [vehicleROI(2) vehicleROI(4)])); loc1 = abs(vehicleToImage(birdsEyeConfig, [vehicleROI(1) vehicleROI(4)])); loc4 = vehicleToImage(birdsEyeConfig, [vehicleROI(1) vehicleROI(4)]); loc3 = vehicleToImage(birdsEyeConfig, [vehicleROI(1) vehicleROI(3)]); [minRoiX, maxRoiX, minRoiY, maxRoiY] = deal(loc4(1), loc3(1), loc2(2), loc1(2)); imageROI = round([minRoiX, maxRoiX, minRoiY, maxRoiY]); end
validateBoundaryFcn отклоняет некоторые краевые кривые маршрута, вычисленные с помощью алгоритма RANSAC.
function isGood = validateBoundaryFcn(params) if ~isempty(params) a = params(1); % Reject any curve with a small 'a' coefficient, which makes it highly % curved. isGood = abs(a) < 0.003; % a from ax^2+bx+c else isGood = false; end end
classifyLaneTypes определяет типы маркеров маршрута как solid
, dashed
, и т.д.
function boundaries = classifyLaneTypes(boundaries, boundaryPoints) for bInd = 1 : numel(boundaries) vehiclePoints = boundaryPoints{bInd}; % Sort by x vehiclePoints = sortrows(vehiclePoints, 1); xVehicle = vehiclePoints(:,1); xVehicleUnique = unique(xVehicle); % Dashed vs solid xdiff = diff(xVehicleUnique); % Sufficiently large threshold to remove spaces between points of a % solid line, but not large enough to remove spaces between dashes xdifft = mean(xdiff) + 3*std(xdiff); largeGaps = xdiff(xdiff > xdifft); % Safe default boundaries(bInd).BoundaryType= LaneBoundaryType.Solid; if largeGaps>2 % Ideally, these gaps should be consistent, but you cannot rely % on that unless you know that the ROI extent includes at least 3 dashes. boundaries(bInd).BoundaryType = LaneBoundaryType.Dashed; end end end
takeSnapshot захватывает выходы для отчета о публикации HTML.
function I = takeSnapshot(frame, sensor, sensorOut) % Unpack the inputs leftEgoBoundary = sensorOut.leftEgoBoundary; rightEgoBoundary = sensorOut.rightEgoBoundary; locations = sensorOut.vehicleLocations; xVehiclePoints = sensorOut.xVehiclePoints; bboxes = sensorOut.vehicleBoxes; frameWithOverlays = insertLaneBoundary(frame, leftEgoBoundary, sensor, xVehiclePoints, 'Color','Red'); frameWithOverlays = insertLaneBoundary(frameWithOverlays, rightEgoBoundary, sensor, xVehiclePoints, 'Color','Green'); frameWithOverlays = insertVehicleDetections(frameWithOverlays, locations, bboxes); I = frameWithOverlays; end
configureDetectorMonoCamera
| estimateMonoCameraParameters
| extrinsics
| findParabolicLaneBoundaries
| segmentLaneMarkerRidge