OpenL3 нейронную сеть
возвращает предварительно обученную модель OpenL3.net
= openl3
Эта функция требует как Audio Toolbox™, так и Deep Learning Toolbox™.
задает опции, используя один или несколько аргументов «» имя, значение «». Для примера, net
= openl3(Name,Value
)net = openl3('EmbeddingLength',6144)
задает выходную длину вложения 6144.
Загрузите и разархивируйте модель Audio Toolbox™ для OpenL3.
Тип openl3
в Командном окне. Если модель Audio Toolbox для OpenL3 не установлена, функция предоставляет ссылку на расположение весов сети. Чтобы скачать модель, щелкните ссылку. Разархивируйте файл в местоположении по пути MATLAB.
Также выполните эти команды, чтобы загрузить и разархивировать модель OpenL3 в свою временную директорию.
downloadFolder = fullfile(tempdir,'OpenL3Download'); loc = websave(downloadFolder,'https://ssd.mathworks.com/supportfiles/audio/openl3.zip'); OpenL3Location = tempdir; unzip(loc,OpenL3Location) addpath(fullfile(OpenL3Location,'openl3'))
Проверьте успешность установки путем ввода openl3
в Командном окне. Если сеть установлена, то функция возвращает DAGNetwork
(Deep Learning Toolbox) объект.
openl3
ans = DAGNetwork with properties: Layers: [30×1 nnet.cnn.layer.Layer] Connections: [29×2 table] InputNames: {'in'} OutputNames: {'out'}
Загрузите предварительно обученную OpenL3 сверточную нейронную сеть и исследуйте слои и классы.
Использование openl3
для загрузки предварительно обученной OpenL3 сети. Область выхода net
является DAGNetwork
(Deep Learning Toolbox) объект.
net = openl3
net = DAGNetwork with properties: Layers: [30×1 nnet.cnn.layer.Layer] Connections: [29×2 table] InputNames: {'in'} OutputNames: {'out'}
Просмотрите сетевую архитектуру с помощью Layers
свойство. Сеть имеет 30 слоев. Существует 16 слоев с усвояемыми весами, из которых восемь являются нормализациями партии . и восемь являются сверточными слоями.
net.Layers
ans = 30×1 Layer array with layers: 1 'in' Image Input 128×199×1 images 2 'batch_normalization_81' Batch Normalization Batch normalization with 1 channels 3 'conv2d_71' Convolution 64 3×3×1 convolutions with stride [1 1] and padding 'same' 4 'batch_normalization_82' Batch Normalization Batch normalization with 64 channels 5 'activation_71' ReLU ReLU 6 'conv2d_72' Convolution 64 3×3×64 convolutions with stride [1 1] and padding 'same' 7 'batch_normalization_83' Batch Normalization Batch normalization with 64 channels 8 'activation_72' ReLU ReLU 9 'max_pooling2d_41' Max Pooling 2×2 max pooling with stride [2 2] and padding [0 0 0 0] 10 'conv2d_73' Convolution 128 3×3×64 convolutions with stride [1 1] and padding 'same' 11 'batch_normalization_84' Batch Normalization Batch normalization with 128 channels 12 'activation_73' ReLU ReLU 13 'conv2d_74' Convolution 128 3×3×128 convolutions with stride [1 1] and padding 'same' 14 'batch_normalization_85' Batch Normalization Batch normalization with 128 channels 15 'activation_74' ReLU ReLU 16 'max_pooling2d_42' Max Pooling 2×2 max pooling with stride [2 2] and padding [0 0 0 0] 17 'conv2d_75' Convolution 256 3×3×128 convolutions with stride [1 1] and padding 'same' 18 'batch_normalization_86' Batch Normalization Batch normalization with 256 channels 19 'activation_75' ReLU ReLU 20 'conv2d_76' Convolution 256 3×3×256 convolutions with stride [1 1] and padding 'same' 21 'batch_normalization_87' Batch Normalization Batch normalization with 256 channels 22 'activation_76' ReLU ReLU 23 'max_pooling2d_43' Max Pooling 2×2 max pooling with stride [2 2] and padding [0 0 0 0] 24 'conv2d_77' Convolution 512 3×3×256 convolutions with stride [1 1] and padding 'same' 25 'batch_normalization_88' Batch Normalization Batch normalization with 512 channels 26 'activation_77' ReLU ReLU 27 'audio_embedding_layer' Convolution 512 3×3×512 convolutions with stride [1 1] and padding 'same' 28 'max_pooling2d_44' Max Pooling 16×24 max pooling with stride [16 24] and padding 'same' 29 'flatten' Keras Flatten Flatten activations into 1-D assuming C-style (row-major) order 30 'out' Regression Output mean-squared-error
Использование analyzeNetwork
(Deep Learning Toolbox), чтобы визуально исследовать сеть.
analyzeNetwork(net)
Использование openl3Preprocess
для извлечения встраиваний из аудиосигнала.
Считывайте аудиосигнал.
[audioIn,fs] = audioread('Counting-16-44p1-mono-15secs.wav');
Чтобы извлечь спектрограммы из аудио, вызовите openl3Preprocess
функция со скоростью звука и дискретизации. Используйте 50% перекрытия и установите тип спектра линейным. The openl3Preprocess
функция возвращает массив из 30 спектрограмм, полученных с использованием длины БПФ 512.
features = openl3Preprocess(audioIn,fs,'OverlapPercentage',50,'SpectrumType','linear'); [posFFTbinsOvLap50,numHopsOvLap50,~,numSpectOvLap50] = size(features)
posFFTbinsOvLap50 = 257
numHopsOvLap50 = 197
numSpectOvLap50 = 30
Функции openl3Preprocess
снова на этот раз с использованием перекрытия по умолчанию 90%. The openl3Preprocess
теперь функция возвращает массив из 146 спектрограмм.
features = openl3Preprocess(audioIn,fs,'SpectrumType','linear'); [posFFTbinsOvLap90,numHopsOvLap90,~,numSpectOvLap90] = size(features)
posFFTbinsOvLap90 = 257
numHopsOvLap90 = 197
numSpectOvLap90 = 146
Визуализируйте одну из спектрограмм случайным образом.
randSpect = randi(numSpectOvLap90); viewRandSpect = features(:,:,:,randSpect); N = size(viewRandSpect,2); binsToHz = (0:N-1)*fs/N; nyquistBin = round(N/2); semilogx(binsToHz(1:nyquistBin),mag2db(abs(viewRandSpect(1:nyquistBin)))) xlabel('Frequency (Hz)') ylabel('Power (dB)'); title([num2str(randSpect),'th Spectrogram']) axis tight grid on
Создайте OpenL3 сеть (для этого требуется Deep Learning Toolbox), используя ту же 'SpectrumType'
.
net = openl3('SpectrumType','linear');
Извлеките и визуализируйте audio embeddings.
embeddings = predict(net,features); surf(embeddings,'EdgeColor','none') view([90,-90]) axis([1 numSpectOvLap90 1 numSpectOvLap90]) xlabel('Embedding Length') ylabel('Spectrum Number') title('OpenL3 Feature Embeddings') axis tight
Задайте необязательные разделенные разделенными запятой парами Name,Value
аргументы. Name
- имя аргумента и Value
- соответствующее значение. Name
должны находиться внутри кавычек. Можно задать несколько аргументов в виде пар имен и значений в любом порядке Name1,Value1,...,NameN,ValueN
.
openl3('EmbeddingLength',6144)
'SpectrumType'
- Спектральный тип'mel128'
(по умолчанию) | 'mel256'
| 'linear'
Тип спектра, сгенерированный из аудио и используемый как вход в нейронную сеть, заданный как 'mel128'
, 'mel256'
, или 'linear'
.
При использовании 'SpectrumType'
и:
'mel128'
- Сеть принимает спектрограммы mel с 128 полос mel в качестве входных данных. Входные размерности для сети 128
-by- 199
-by- 1
-by - K, где 128
Количество mel- полос и 199
- количество временных переходов.
'mel256'
- Сеть принимает спектрограммы mel с 256 мел полосами в качестве входных данных. Входные размерности для сети 256
-by- 199
-by- 1
-by - K, где 256
Количество mel- полос и 199
- количество временных переходов.
'linear'
- Сеть принимает положительные односторонние спектрограммы с длиной БПФ 257. Входные размерности для сети 257
-by- 197
-by- 1
-by - K, где 257
- положительная односторонняя длина и 197
БПФ - количество временных переходов.
K представляет количество спектрограмм. При предварительной обработке данных с openl3Preprocess
, вы должны использовать то же 'SpectrumType'
.
Типы данных: char
| string
'EmbeddingLength'
- Длина встраивания512
(по умолчанию) | 6144
Длина выхода audio embedding, заданная как 512
или 6144
.
Типы данных: single
| double
'ContentType'
- Тип аудиоконтента'env'
(по умолчанию) | 'music'
Аудио содержимого тип обученной нейронной сети, заданный как 'env'
или 'music'
.
Задайте ContentType
кому:
'env'
когда вы хотите использовать модель, обученную экологическим данным.
'music'
когда вы хотите использовать модель, обученную на музыкальных данных.
Типы данных: char
| string
net
- Предварительно обученная OpenL3 нейронная сетьDAGNetwork
объектПредварительно обученная OpenL3 нейронная сеть, возвращенная как DAGNetwork
(Deep Learning Toolbox) объект.
[1] Cramer, Jason, et al. Look, Listen, and Learn More: Design Choices for Deep Audio Embeddings (неопр.) (недоступная ссылка). В ICASSP 2019 IEEE International Conference on Aoustics, Speech and Signal Processing (ICASSP), IEEE, 2019, pp. 3852-56. DOI.org (Crossref), doi:/10.1109/ICASSP.2019.8682475.
audioFeatureExtractor
| classifySound
| openl3Features
| openl3Preprocess
| vggish
| vggishFeatures
У вас есть измененная версия этого примера. Вы хотите открыть этот пример с вашими правками?
1. Если смысл перевода понятен, то лучше оставьте как есть и не придирайтесь к словам, синонимам и тому подобному. О вкусах не спорим.
2. Не дополняйте перевод комментариями “от себя”. В исправлении не должно появляться дополнительных смыслов и комментариев, отсутствующих в оригинале. Такие правки не получится интегрировать в алгоритме автоматического перевода.
3. Сохраняйте структуру оригинального текста - например, не разбивайте одно предложение на два.
4. Не имеет смысла однотипное исправление перевода какого-то термина во всех предложениях. Исправляйте только в одном месте. Когда Вашу правку одобрят, это исправление будет алгоритмически распространено и на другие части документации.
5. По иным вопросам, например если надо исправить заблокированное для перевода слово, обратитесь к редакторам через форму технической поддержки.