getDefaultReducePartitions

Класс: matlab.compiler.mlspark.RDD
Пакет: matlab.compiler.mlspark

Доберитесь количество значения по умолчанию уменьшают разделы в RDD

Синтаксис

numPartitions = getDefaultReducePartitions(obj)

Описание

numPartitions = getDefaultReducePartitions(obj) добирается количество значения по умолчанию уменьшают разделы в obj.

Входные параметры

развернуть все

Вход RDD, заданный как RDD объект

Выходные аргументы

развернуть все

Количество значения по умолчанию уменьшает разделы во входе RDD, возвращенном как скалярное значение.

Примеры

развернуть все

Доберитесь количество значения по умолчанию уменьшают разделы в RDD.

%% Connect to Spark
sparkProp = containers.Map({'spark.executor.cores'}, {'1'});
conf = matlab.compiler.mlspark.SparkConf('AppName','myApp', ...
                        'Master','local[1]','SparkProperties',sparkProp);
sc = matlab.compiler.mlspark.SparkContext(conf);

%% getDefaultReducePartitions
x = sc.parallelize({1,2,3});
y = x.map(@(x)({x,1}));
z1 = y.reduceByKey(@(a,b)(a+b));
z2 = y.reduceByKey(@(a,b)(a+b), 3);

z1.getDefaultReducePartitions() % ans is 1
z2.getDefaultReducePartitions() % ans is 3, as the 2nd argument to reduceByKey is the number of reduce partitions

Смотрите также

| |

Введенный в R2017b