exponenta event banner

класс matlab.compiler.mlspark.SparkContext

Пакет: matlab.compiler.mlspark
Суперклассы:

Класс интерфейса для инициализации подключения к кластеру с поддержкой Spark

Описание

A SparkContext объект служит точкой входа в Spark™ путем инициализации подключения к кластеру Spark. Он принимает SparkConf объект в качестве входного аргумента и использует параметры, указанные в этом объекте, для настройки внутренних служб, необходимых для установления подключения к среде выполнения Spark.

Строительство

sc = matlab.compiler.mlspark.SparkContext(conf) создает SparkContext объект инициализирует подключение к кластеру Spark.

Входные аргументы

развернуть все

Пройти SparkConf объект в качестве входных данных для SparkContext.

Пример: sc = matlab.compiler.mlspark.SparkContext(conf);

Посмотрите matlab.compiler.mlspark.SparkConf для получения информации о том, как создать SparkConf объект.

Свойства

Свойства этого класса скрыты.

Методы

addJarДобавление зависимости файла JAR для всех задач, которые необходимо выполнить в SparkContext
передачаШироковещательная передача переменной, доступной только для чтения, в кластер
datastoreToRDDПреобразование MATLAB datastore в искровой RDD
удалитьЗавершение подключения к кластеру с поддержкой искр
getSparkConfДобраться SparkConf параметры конфигурации
найти что-либо подобноеСоздание RDD из коллекции локальных значений MATLAB
setCheckpointDirУстановка каталога, в котором должны быть установлены контрольные точки RDD
setLogLevelУстановить уровень журнала
textFileСоздание RDD из текстового файла

Примеры

свернуть все

SparkContext класс инициализирует подключение к кластеру с поддержкой Spark с помощью свойств Spark.

% Setup Spark Properties as a containers.Map object
sparkProp = containers.Map({'spark.executor.cores'}, {'1'}); 

% Create SparkConf object
conf = matlab.compiler.mlspark.SparkConf('AppName','myApp', ...
                        'Master','local[1]','SparkProperties',sparkProp);
% Create a SparkContext
sc = matlab.compiler.mlspark.SparkContext(conf);

Подробнее

развернуть все

Ссылки

Дополнительные сведения см. в последней документации по Spark.

Представлен в R2016b