Parallel Computing Toolbox™ поддерживает распределенные массивы для разделения больших массивов на несколько работников MATLAB ®. Вы работаете со всем массивом как с одной сущностью, однако работники работают только со своей частью массива и при необходимости автоматически передают данные между собой. Одновременное выполнение поддерживается несколькими данными одной программы (spmd) языковая конструкция для облегчения общения между работниками. Используйте распределенные матричные операции и функции для работы непосредственно с этими массивами без дальнейших изменений. Распределенные массивы в Parallel Computing Toolbox можно использовать для запуска приложений больших данных с использованием объединенной памяти кластера.
Создание и использование распределенных массивов
Если массив данных слишком велик для размещения в памяти одного компьютера, можно создать distributed массив.
Выполнение функций MATLAB с распределенными массивами
Функции MATLAB, работающие на распределенных массивах
Распределение массивов по параллельным работникам
Использовать datastore или distributed для создания распределенных массивов и разделения данных между работниками
Запуск отдельных программ для нескольких наборов данных
Использовать spmd операторы для выполнения одного и того же кода в нескольких наборах данных и управляющих распределенных по коду массивах
Доступ к рабочим переменным с помощью композитов
Составные объекты в клиентском сеансе MATLAB позволяют напрямую обращаться к значениям данных работников.
Сеть поездов параллельно с индивидуальным контуром обучения
В этом примере показано, как настроить пользовательский цикл обучения для параллельного обучения сети.
Использование GOP для достижения MPI_Allreduce функциональности
В этом примере мы рассмотрим gop функция и функции, которые на ней строятся: gplus и gcat.
Численная оценка Pi с использованием передачи сообщений
В этом примере показаны основы работы с инструкциями spmd и их интерактивные средства выполнения параллельных вычислений.
Выберите между spmd, parfor и parfeval
Сравнение и контраст spmd против других функций параллельных вычислений, таких как parfor и parfeval.
Выполнение кода для параллельных пулов
Сведения о запуске и остановке параллельных пулов, размере пула и выборе кластера.
Укажите параметры параллельности
Укажите настройки и автоматически создайте параллельный пул.
Нераспределенные и распределенные массивы
Описывает различные типы массивов, используемых при передаче заданий
Работа с распределенными массивами
Описывает, как использовать совместно распределенные массивы для расчета
Закольцовывание по распределенному диапазону (для drange)
Описывает, как программировать for-loop с распределенными массивами
Работа с удаленными данными в Amazon S3™, Azure ® Blob Storage или HDFS™.