exponenta event banner

combineByKey

Класс: matlab.compiler.mlspark.RDD
Пакет: matlab.compiler.mlspark

Объединение элементов для каждого ключа с помощью пользовательского набора функций агрегации

Синтаксис

result = combineByKey(obj,createCombiner,mergeValue,mergeCombiners,numPartitions)

Описание

result = combineByKey(obj,createCombiner,mergeValue,mergeCombiners,numPartitions) объединяет элементы для каждого ключа с помощью пользовательского набора функций агрегации: createCombiner и mergeValue. Входной аргумент numPartitions указывает количество разделов, создаваемых в результирующем RDD.

Входные аргументы

развернуть все

Входной RDD для объединения, указанный как RDD объект.

Функция объединения (C), заданная значением (V), заданным как дескриптор функции.

Типы данных: function_handle

Функция, представляющая объединение заданного значения (V) с существующим объединителем (C), указанным как дескриптор функции.

Типы данных: function_handle

Функция, представляющая объединение двух объединителей для возврата нового объединителя, заданного как дескриптор функции.

Пример:

Типы данных: function_handle

Число создаваемых секций, указанное как скалярное значение.

Пример:

Типы данных: double

Выходные аргументы

развернуть все

Массив ячеек MATLAB ®, содержащий элементы RDD.

Примеры

развернуть все

%% Connect to Spark
sparkProp = containers.Map({'spark.executor.cores'}, {'1'});
conf = matlab.compiler.mlspark.SparkConf('AppName','myApp', ...
                        'Master','local[1]','SparkProperties',sparkProp);
sc = matlab.compiler.mlspark.SparkContext(conf);

%% combineByKey
inputRdd = sc.parallelize({{'a',1}, {'b',1},{'a',1}});
resRdd = inputRdd.combineByKey(@(value) num2str(value), ...
            @(acc,value) strcat(acc, value), ...
            @(rdd1value, rdd2Value) strcat(rdd1Value, rdd2Value));
viewRes = resRdd.collect()
Представлен в R2016b