combineByKey

Класс: matlab.compiler.mlspark.RDD
Пакет: matlab.compiler.mlspark

Объедините элементы для каждого ключа с помощью пользовательского набора функций агрегации

Синтаксис

result = combineByKey(obj,createCombiner,mergeValue,mergeCombiners,numPartitions)

Описание

result = combineByKey(obj,createCombiner,mergeValue,mergeCombiners,numPartitions) объединяет элементы для каждого ключа с помощью пользовательского набора функций агрегации: createCombiner и mergeValue. Входной параметр numPartitions задает количество секций, создаваемых в получившемся RDD.

Входные параметры

расширить все

RDD входа для объединения, заданный как RDD объект.

Функция комбинатора (C), заданная как значение (V), заданная как указатель на функцию.

Типы данных: function_handle

Функция, представляющая слияние заданного значения (V) с существующим объединителем (C), заданным как указатель на функцию.

Типы данных: function_handle

Функция, представляющая слияние двух комбинаторов, чтобы вернуть новый комбинатор, заданный как указатель на функцию.

Пример:

Типы данных: function_handle

Количество создаваемых разделов, заданное как скалярное значение.

Пример:

Типы данных: double

Выходные аргументы

расширить все

MATLAB® массив ячеек, содержащий элементы RDD.

Примеры

расширить все

%% Connect to Spark
sparkProp = containers.Map({'spark.executor.cores'}, {'1'});
conf = matlab.compiler.mlspark.SparkConf('AppName','myApp', ...
                        'Master','local[1]','SparkProperties',sparkProp);
sc = matlab.compiler.mlspark.SparkContext(conf);

%% combineByKey
inputRdd = sc.parallelize({{'a',1}, {'b',1},{'a',1}});
resRdd = inputRdd.combineByKey(@(value) num2str(value), ...
            @(acc,value) strcat(acc, value), ...
            @(rdd1value, rdd2Value) strcat(rdd1Value, rdd2Value));
viewRes = resRdd.collect()
Введенный в R2016b