Этот пример показывает, как сгенерировать фильм с 64 кадрами и форматом кадра 64 на 64 пикселя (на уровне 10 кадров в секунду). Фильм содержит симуляцию движущейся цели, которая перемещается через структурированный фон, который самостоятельно перемещается. Движение дрожания, вызванное случайной вибрацией, также сгенерировано (в модели Simulink®, названной "aero_vibrati"), и движение дрожания добавляется в полное движение датчика. Наконец, изображение размывается через Гауссову оптическую функцию рассеяния точки.
Примечание: Изменение delt здесь также требует, чтобы изменение в параметрах установило диалоговое окно в модели Simulink "вибрация".
delt = 0.1; % Sample time of the generated sequence num_frames= 64; % Number of frames to generate framesize = 64; % Square frame size in pixels out = zeros(framesize,framesize,num_frames); % Initialize movie storage as a 3D Array
Первая стадия должна задать форму и движение целевого объекта. Выбранная форма является большим знаком "плюс", и изображение задано матрицей, представляющей интенсивность изображений в каждом положении пикселя. Цель задана, чтобы переместиться от центра до правого нижнего из изображения.
target = [zeros(3,11) zeros(1,5) 6 zeros(1,5) zeros(1,5) 6 zeros(1,5) zeros(1,3) 6 6 6 6 6 zeros(1,3) % Target is a plus sign 5 by 5 pixels across zeros(1,5) 6 zeros(1,5) % with an intensity of 6 (S/N ratio is ~4). zeros(1,5) 6 zeros(1,5) % The total target image is made on an 11x11 grid to zeros(3,11)]; % allow the image to be interpolated without error. target_velx = 1; % target velocity in x direction in pixels per second target_vely = 1; % target velocity in y direction in pixels per second target_x_initially = framesize/2; % the target is initially in the center of the frame in x target_y_initially = framesize/2; % and in y figure(1); colormap('gray'); image(target*32); title('Target Image')
Сгенерируйте синусоидально коррелированый фон и дайте ему движение дрейфа. Затем наложите цель на фоновое изображение.
backsize = framesize+36; % Make the background bigger than the frame so when it % drifts there are new pixels available to drift into. xygrid = (1:backsize)/backsize; B=2*sin(2*pi*xygrid).^2'*cos(2*pi*xygrid).^2; psd = fft2(B); psd = real(psd.*conj(psd)); background = B + 0.5*randn(backsize); % Add a specular Gaussian white % sequence to the structure with % variance of 0.25 (sigma of 0.5). xoff = 10; yoff = 10; % Sensor location is offset from the 0,0 of the background driftx = 1; drifty = 1; % drift rate of the background in a and y directions pix/sec. minout = min(min(min(background))); maxout = max(max(max(background))); colormap('gray'); image((background-minout)*64/(maxout-minout)) title('Background image with additive white specular noise')
Вращательная вибрация средства отслеживания моделируется с помощью модели aero_vibrati. Данные, требуемые моделировать вибрацию средства отслеживания, сгенерированы путем выполнения модели Simulink "aero_vibrati".
Запустите модель вибрации Simulink, использующую sim команда (Примечание - если delt изменяется с 0,1 секунд, модель Simulink должна быть изменена также, чтобы гарантировать, что шаг расчета для вибрации совпадает с шагом расчета в этой модели средства отслеживания изображений.
Получившиеся случайные вращения показывают в рисунке 1.
omega = 2*pi*5; % The structural frequencies are 5, 10 and 15 Hz in the model. zeta = 0.01; % Damping ratio for all modes open_system('aero_vibrati') simout = sim('aero_vibrati','SrcWorkspace','current'); vibdat = simout.get('vibdat'); % The Simulink model "aero_vibrati" % generates the vibration data at % a sample time of 0.01 sec. vibx = vibdat(1:10:1000); % The output of simulation is % returned as the variable simout % The variable simout contains viby = vibdat(1001:10:2000); % the in array vibdat that contains % the vibration data levarmx = 10; % Rotational lever arm for vibration noise in x levarmy = 10; % and in y. subplot(211); plot(0.01*(1:10:1000),vibx);grid; title('Time history of the random Tracker rotations') xlabel('Time');ylabel('x direction') subplot(212); plot(0.01*(1:10:1000),viby);grid; xlabel('Time');ylabel('y direction')
Кадры, которые составят фильм, теперь создаются и хранятся в многомерном массиве. Каждый кадр имеет фон и цель в отличающихся положениях из-за целевого движения, фонового дрейфа и вибрации средства отслеживания. Первый кадр фильма покажут в рисунке 1.
clf; drawnow; for t = 1:num_frames % Drift the Background at the rate driftx and drifty % (in pixels/second) and add in the vibration: xshift = driftx*delt*t+levarmx*vibx(t,1); yshift = drifty*delt*t+levarmy*viby(t,1); % Interpolate the 2D image using the MATLAB(R) function interp2: [xgrid, ygrid] = meshgrid(1:backsize); [xindex, yindex] = meshgrid(xshift:1:xshift+backsize,yshift:1:yshift+backsize); outtemp = interp2(xgrid,ygrid,background,xindex,yindex); % Truncate the drifted image down from backsize to framesize: out(:,:,t) = outtemp(xoff:xoff+framesize-1,xoff:xoff+framesize-1); % Now let the target move also: tpixinx = floor(target_velx*delt*t); tpixiny = floor(target_vely*delt*t); % Before interpolating extract the number of pixels moved txi = target_velx*delt*t - tpixinx; tyi = target_vely*delt*t - tpixiny; % Interpolate on sub-pixels around the origin only [txgrid tygrid] = meshgrid(1:11); % meshgrid here generates a matrix of grid elements [txi tyi] = meshgrid(txi+1:txi+11,tyi+1:tyi+11); % meshgrid generates 2 matrices with the x and y grids % Interpolate the intensity values first using interp2 -- a built in MATLAB command temp = interp2(txgrid,tygrid,target,txi,tyi); % Insert the target at the location determined by the initial offset, and the number of whole pixels moved tx = tpixinx + target_x_initially-1; ty = tpixiny + target_y_initially-1; out(tx:tx+6,ty:ty+6,t) = temp(9:-1:3,9:-1:3) + out(tx:tx+6,ty:ty+6,t); end minout = min(min(min(out))); maxout = max(max(max(out))); colormap('gray'); image((out(:,:,1)-minout) * 64/(maxout-minout)); title('First frame of combined target and background image.')
Этот сегмент кода может использовать измеренную апертурную функцию столь же легко - просто заменяют следующие пять строк "загрузкой measured_aperture", где measured_aperture является измеренной функцией, сохраненной в ASCII, и данные сохранили в файле measured_aperture.mat, MATLAB® .mat файл, который содержит матрицу apfunction. (в типе MATLAB "загрузка справки" для того, как использовать загрузку и посмотреть на c и код Фортрана, который показывает, как считать и записать MATLAB .mat файлы).
(Примечание: Когда Функция рассеяния точки является Гауссовой, затем так Апертурная функция),
Чтобы моделировать эффект оптики средства отслеживания, каждый из кадров фильма теперь размывается с помощью 2D БПФ (Быстрое преобразование Фурье). Первый кадр получившегося изображения показывают в рисунке 1.
x = 1:framesize; y = 1:framesize; sigma = 120; apfunction = exp(-(x-framesize/2).^2/(2*sigma))' * exp(-(y-framesize/2).^2/(2*sigma)); apfunction = fftshift(apfunction); % Rotate so it conforms with FFT convention for j = 1:num_frames out(:,:,j) = real(ifft2(apfunction.*fft2(out(:,:,j)))); end minout = min(min(min(out))); maxout = max(max(max(out))); colormap('gray'); image((out(:,:,1)-minout)*64/(maxout-minout)); title('First frame of blurred image.')
Масштабируйте кадр фильма так, чтобы был, имеет 64 значения интенсивности с min к макс., и затем покажите результат изображением. Смотрите справку MATLAB для того, как moviein и getframe работают.
minout = min(min(min(out))); maxout = max(max(max(out))); M = moviein(num_frames); for j = 1:num_frames image((out(:,:,j)-minout)*64/(maxout-minout)) drawnow M(:,j) = getframe; end colormap('gray') movie(M);
Можно опционально сохранить сгенерированный фильм средства отслеживания в матовом файле и также сохранить psd фона для дальнейшего использования с фильмом.
save trackerimage out save psdback psd save moviedat M
bdclose('aero_vibrati');