getDefaultReducePartitions

Класс: matlab.compiler.mlspark.RDD
Пакет: matlab.compiler.mlspark

Получите количество сокращенных разделов по умолчанию в RDD

Синтаксис

numPartitions = getDefaultReducePartitions(obj)

Описание

numPartitions = getDefaultReducePartitions(obj) получает количество сокращенных разделов по умолчанию в obj.

Входные параметры

расширить все

RDD входа, заданный как RDD объект

Выходные аргументы

расширить все

Количество сокращенных разделов по умолчанию в вход RDD, возвращаемое как скалярное значение.

Примеры

расширить все

Получите количество сокращенных разделов по умолчанию в RDD.

%% Connect to Spark
sparkProp = containers.Map({'spark.executor.cores'}, {'1'});
conf = matlab.compiler.mlspark.SparkConf('AppName','myApp', ...
                        'Master','local[1]','SparkProperties',sparkProp);
sc = matlab.compiler.mlspark.SparkContext(conf);

%% getDefaultReducePartitions
x = sc.parallelize({1,2,3});
y = x.map(@(x)({x,1}));
z1 = y.reduceByKey(@(a,b)(a+b));
z2 = y.reduceByKey(@(a,b)(a+b), 3);

z1.getDefaultReducePartitions() % ans is 1
z2.getDefaultReducePartitions() % ans is 3, as the 2nd argument to reduceByKey is the number of reduce partitions

См. также

| |

Введенный в R2016b