В этом примере показано, как декодировать ambisonic аудио в бинауральное аудио с помощью виртуальных громкоговорителей. Виртуальный громкоговоритель является источником звука, расположенным на поверхность сферы с прослушивателем, расположенным в центре сферы. Каждый виртуальный громкоговоритель имеет пару Функций моделирования восприятия звука (HRTF), сопоставленных с ним: один для оставленного уха и один для правого уха. Виртуальные местоположения громкоговорителя наряду с порядком ambisonic используются, чтобы вычислить ambisonic матрицу декодера. Выход декодера отфильтрован соответствием HRTFs виртуальному положению громкоговорителя. Сигналы слева HRTFs суммируются вместе и питаются левое ухо и сигналы справа, HRTFs суммируются вместе и питаются правое ухо. Блок-схему потока звукового сигнала показывают здесь.
ARIDataset = load('ReferenceHRTF.mat');
Получите данные HRTF в необходимой размерности: [NumOfSourceMeasurements x 2 x LengthOfSamples]
hrtfData = ARIDataset.hrtfData; sourcePosition = ARIDataset.sourcePosition(:,[1,2]);
Базы данных АРИ HRTF, используемые в этом примере, основаны на работе Научно-исследовательским институтом Акустики https://www.kfs.oeaw.ac.at/hrtf. Данные HRTF и исходное положение в ReferenceHRTF.mat
от предмета ARI NH2.
Базы данных HRTF Научно-исследовательским институтом Акустики, австрийской Академии наук лицензируют при Приписывании-ShareAlike Creative Commons 3.0 Непортированных Лицензии: https://creativecommons.org/licenses/by-sa/3.0/.
Теперь, когда Набор данных HRTF загружается, определите который точки выбрать для виртуальных громкоговорителей. Этот пример выбирает случайные точки, распределенные на поверхности сферы, и выбирает точки набора данных HRTF, самого близкого к выбранным точкам.
Выберите случайные точки от сферического распределения
Сравните сферу с точками от набора данных HRTF
Выберите точки с кратчайшим расстоянием между ними
% Create a sphere with a distribution of points nPoints = 24; % number of points to pick rng(0); % seed randcom number generator sphereAZ = 360*rand(1,nPoints); sphereEL = rad2deg(acos(2*rand(1,nPoints)-1))-90; pickedSphere = [sphereAZ' sphereEL']; % Compare distributed points on the sphere to points from the HRTF dataset pick = zeros(1, nPoints); d = zeros(size(pickedSphere,1), size(sourcePosition,1)); for ii = 1:size(pickedSphere,1) for jj = 1:size(sourcePosition,1) % Calculate arc length d(ii,jj) = acos( ... sind(pickedSphere(ii,2))*sind(sourcePosition(jj,2)) + ... cosd(pickedSphere(ii,2))*cosd(sourcePosition(jj,2)) * ... cosd(pickedSphere(ii,1) - sourcePosition(jj,1))); end [~,Idx] = sort(d(ii,:)); % Sort points pick(ii) = Idx(1); % Pick the closest point end
Задайте желаемый порядок ambisonic, и желал виртуальных исходных позиций громкоговорителя входных параметров к audioexample.ambisonics.ambidecodemtrx
функция помощника. Функция возвращает матрицу декодера звукозаписи с эффектом присутствия.
order = 7; devices = sourcePosition(pick,:)'; dmtrx = audioexample.ambisonics.ambidecodemtrx(order, devices);
Создайте массив КИХ-фильтров, чтобы выполнить бинауральный HRTF, фильтрующий на основе положения виртуальных громкоговорителей.
FIR = cell(size(pickedSphere)); for ii = 1:length(pick) FIR{ii,1} = dsp.FrequencyDomainFIRFilter(hrtfData(:,pick(ii),1)'); FIR{ii,2} = dsp.FrequencyDomainFIRFilter(hrtfData(:,pick(ii),2)'); end
Загрузите ambisonic звуковой файл вертолета, звучат и преобразуют его в 48 кГц для совместимости с набором данных HRTF. Задайте ambisonic формат звукового файла.
Создайте звуковой файл, произведенный на уровне 48 кГц для совместимости с набором данных HRTF.
desiredFs = 48e3; [audio,fs] = audioread('Heli_16ch_ACN_SN3D.wav'); audio = resample(audio,desiredFs,fs); audiowrite('Heli_16ch_ACN_SN3D_48.wav',audio,desiredFs);
Задайте ambisonic формат звукового файла. Настройте объекты аудиовыхода и аудиовход.
format = 'acn-sn3d'; samplesPerFrame = 2048; fileReader = dsp.AudioFileReader('Heli_16ch_ACN_SN3D_48.wav', ... 'SamplesPerFrame',samplesPerFrame); deviceWriter = audioDeviceWriter('SampleRate',desiredFs); audioFiltered = zeros(samplesPerFrame,size(FIR,1),2);
while ~isDone(fileReader) audioAmbi = fileReader(); audioDecoded = audioexample.ambisonics.ambidecode(audioAmbi, dmtrx, format); for ii = 1:size(FIR,1) audioFiltered(:,ii,1) = step(FIR{ii,1}, audioDecoded(:,ii)); % Left audioFiltered(:,ii,2) = step(FIR{ii,2}, audioDecoded(:,ii)); % Right end audioOut = 10*squeeze(sum(audioFiltered,2)); % Sum at each ear numUnderrun = deviceWriter(audioOut); end % Release resources release(fileReader) release(deviceWriter)
Пример генерации плагина Ambisonic
[1] Kronlachner, M. (2014). Пространственные Преобразования для Изменения Записей Ambisonic (Магистерская диссертация).
[2] Noisternig, Маркус. и др. "3D Ambisonic Основанная Бинауральная Система Воспроизведения звука". Представленный на 24-й Международной конференции AES: Многоканальное Аудио, Новая Действительность, Альберта, июнь 2003.