gpucoder.batchedMatrixMultiplyAdd

Оптимизированная реализация графический процессор пакетной матрицы умножает с операцией add

Описание

[D1,D2] = gpucoder.batchedMatrixMultiplyAdd(A1,B1,C1,A2,B2,C2) выполняет матрично-матричное умножение и добавление пакета матриц A1,B1,C1 и A2,B2,C2. gpucoder.batchedMatrixMultiplyAdd функция выполняет матрично-матричное умножение вида:

D=αAB+βC

где α и β являются скалярными коэффициентами умножения и A, B, C, и D являются матрицами с размерностями m-by- k, k-by- n, m-by- n, и m-by- n соответственно. A и B необязательно может быть транспонирована или конъюгирована с гермитами. По умолчанию, α и β установлены в единицу, и матрицы не транспонированы. Чтобы задать другой скалярный коэффициент умножения и выполнить операции транспонирования на входных матрицах, используйте Name,Value аргументы в виде пар.

Все пакеты переданы в gpucoder.batchedMatrixMultiplyAdd функция должна быть равномерной. То есть все образцы должны иметь одинаковые размерности m,n,k.

[D1,...,DN] = gpucoder.batchedMatrixMultiplyAdd(A1,B1,C1,...,AN,BN,CN) выполняет матрично-матричное умножение и сложение нескольких A, B, C матрицы вида:

Di=αAiBi+βCii=1N

пример

___ = gpucoder.batchedMatrixMultiplyAdd(___,Name,Value) выполняет пакетное умножение матрицы и добавление операции с помощью опций, заданных одним или несколькими Name,Value аргументы в виде пар.

Примеры

свернуть все

Выполните простое пакетное матрично-матричное умножение с добавлением и использованием gpucoder.batchedMatrixMultiplyAdd функция для генерации CUDA® код, который вызывает соответствующие cublas<t>gemmBatched API.

В одном файле запишите функцию точки входа myBatchMatMulAdd который принимает матричные входы A1, B1, C1, A2, B2, и C2. Поскольку входные матрицы не транспонированы, используйте 'nn' опция.

function [D1,D2] = myBatchMatMulAdd(A1,B1,C1,A2,B2,C2,alpha,beta)

[D1,D2] = gpucoder.batchedMatrixMultiplyAdd(A1,B1,C1,A2,B2,C2, ...
    'alpha',alpha,,'beta',beta,'transpose','nn');

end

Чтобы создать тип для матрицы двойных чисел для использования в генерации кода, используйте coder.newtype функция.

A1 = coder.newtype('double',[12,14],[0 0]);
A2 = coder.newtype('double',[12,14],[0 0]);
B1 = coder.newtype('double',[14,16],[0 0]);
B2 = coder.newtype('double',[14,16],[0 0]);
C1 = coder.newtype('double',[12,16],[0 0]);
C2 = coder.newtype('double',[12,16],[0 0]);
alpha = 0.3;
beta = 0.6;
inputs = {A1,B1,C1,A2,B2,C2,alpha,beta};

Чтобы сгенерировать библиотеку CUDA, используйте codegen функция.

cfg = coder.gpuConfig('lib');
cfg.GpuConfig.EnableCUBLAS = true;
cfg.GpuConfig.EnableCUSOLVER = true;
cfg.GenerateReport = true;
codegen -config cfg-args inputs myBatchMatMulAdd

Сгенерированный код CUDA содержит ядра myBatchMatMulAdd_kernelNN для инициализации входа и выходных матриц. Код также содержит cublasDgemmBatched Вызовы API в библиотеку cuBLAS. Следующий код является фрагментом сгенерированного кода.

//
// File: myBatchMatMulAdd.cu
//
...
void myBatchMatMulAdd(const double A1[168], const double B1[224], const double
                      C1[192], const double A2[168], const double B2[224], const
                      double C2[192], double alpha, double beta, double D1[192],
                      double D2[192])
{
  double alpha1;
...

  myBatchMatMulAdd_kernel2<<<dim3(1U, 1U, 1U), dim3(224U, 1U, 1U)>>>(*gpu_B2,
    *gpu_B1, *gpu_input_cell_f4, *gpu_input_cell_f3);
  cudaMemcpy(gpu_C2, (void *)&C2[0], 1536UL, cudaMemcpyHostToDevice);
  cudaMemcpy(gpu_C1, (void *)&C1[0], 1536UL, cudaMemcpyHostToDevice);
  myBatchMatMulAdd_kernel3<<<dim3(1U, 1U, 1U), dim3(192U, 1U, 1U)>>>(*gpu_C2,
    *gpu_C1, gpu_r3, gpu_r2);
  myBatchMatMulAdd_kernel4<<<dim3(1U, 1U, 1U), dim3(32U, 1U, 1U)>>>(gpu_r2,
    *gpu_out_cell);
  myBatchMatMulAdd_kernel5<<<dim3(1U, 1U, 1U), dim3(32U, 1U, 1U)>>>(gpu_r3,
    *gpu_out_cell);
...

  cublasDgemmBatched(getCublasGlobalHandle(), CUBLAS_OP_N, CUBLAS_OP_N, 12, 16,
                     14, (double *)gpu_alpha1, (double **)gpu_Aarray, 12,
                     (double **)gpu_Barray, 14, (double *)gpu_beta1, (double **)
                     gpu_Carray, 12, 2);
  myBatchMatMulAdd_kernel6<<<dim3(1U, 1U, 1U), dim3(192U, 1U, 1U)>>>(*gpu_D2,
...

}

Входные параметры

свернуть все

Операнды, заданные как векторы или матрицы. A, B, и C должен быть 2-D массивами. Количество столбцов в A должно быть равно количеству строк в B. Количество строк в A должно быть равно количеству строк в C. Количество столбцов в B должно быть равно количеству столбцов в C.

Типы данных: double | single | int8 | int16 | int32 | int64 | uint8 | uint16 | uint32 | uint64
Поддержка комплексного числа: Да

Аргументы в виде пар имя-значение

Задайте необязательные разделенные разделенными запятой парами Name,Value аргументы. Name - имя аргумента и Value - соответствующее значение. Name должны находиться внутри кавычек. Можно задать несколько аргументов в виде пар имен и значений в любом порядке Name1,Value1,...,NameN,ValueN.

Пример: [D1,D2] = gpucoder.batchedMatrixMultiplyAdd(A1,B1,C1,A2,B2,C2,'alpha',0.3,'beta',0.6,'transpose','CC');

Значение скаляра, используемого для умножения с A. Значение по умолчанию является единицей.

Значение скаляра, используемого для умножения с C. Значение по умолчанию является единицей.

Вектор символов, состоящая из двух символов, указывающих на операцию, выполненную над матрицами A и B перед матричным умножением. Возможные значения нормальны ('N'), транспонированная ('T'), или комплексная сопряженная транспозиция ('C').

Выходные аргументы

свернуть все

Продукт, возвращенное в виде скаляра, вектора или матрицы. Массивы D имеет одинаковое число строк в качестве входных A и одинаковое число столбцов как вход B.

Введенный в R2020a
Для просмотра документации необходимо авторизоваться на сайте