getDefaultReducePartitions

Класс: matlab.compiler.mlspark.RDD
Пакет: matlab.compiler.mlspark

Доберитесь количество значения по умолчанию уменьшают разделы в RDD

Синтаксис

numPartitions = getDefaultReducePartitions(obj)

Описание

numPartitions = getDefaultReducePartitions(obj) добирается количество значения по умолчанию уменьшают разделы в obj.

Входные параметры

развернуть все

Вход RDD в виде RDD объект

Выходные аргументы

развернуть все

Количество значения по умолчанию уменьшает разделы во входе RDD, возвращенном как скалярное значение.

Примеры

развернуть все

Доберитесь количество значения по умолчанию уменьшают разделы в RDD.

%% Connect to Spark
sparkProp = containers.Map({'spark.executor.cores'}, {'1'});
conf = matlab.compiler.mlspark.SparkConf('AppName','myApp', ...
                        'Master','local[1]','SparkProperties',sparkProp);
sc = matlab.compiler.mlspark.SparkContext(conf);

%% getDefaultReducePartitions
x = sc.parallelize({1,2,3});
y = x.map(@(x)({x,1}));
z1 = y.reduceByKey(@(a,b)(a+b));
z2 = y.reduceByKey(@(a,b)(a+b), 3);

z1.getDefaultReducePartitions() % ans is 1
z2.getDefaultReducePartitions() % ans is 3, as the 2nd argument to reduceByKey is the number of reduce partitions

Смотрите также

| |

Введенный в R2017b