matlab.compiler.mlspark.SparkContext class

Пакет: matlab.compiler.mlspark
Суперклассы:

Класс интерфейса для инициализации соединения с кластером с поддержкой Spark

Описание

A SparkContext объект служит точкой входа в Spark™ путем инициализации соединения с кластером Spark. Принимает SparkConf объект как входной параметр и использует параметры, указанные в этом объекте, для настройки внутренних сервисов, необходимых для установления соединения с окружением выполнения Spark.

Конструкция

sc = matlab.compiler.mlspark.SparkContext(conf) создает SparkContext объект инициализирует соединение с кластером Spark.

Входные параметры

расширить все

Передайте SparkConf объект как вход в SparkContext.

Пример: sc = matlab.compiler.mlspark.SparkContext(conf);

См. matlab.compiler.mlspark.SparkConf для получения информации о том, как создать SparkConf объект.

Свойства

Свойства этого класса скрыты.

Методы

addJarДобавьте зависимости файла JAR для всех задач, которые необходимо выполнить в SparkContext
передачаШироковещательная передача переменной только для чтения в кластер
datastoreToRDDПреобразуйте datastore MATLAB в Spark RDD
удалитьЗавершите подключение к кластеру с поддержкой Spark
getSparkConfПолучение SparkConf параметры конфигурации
найти что-либо подобноеСоздайте RDD из набора локальных значений MATLAB
setCheckpointDirУстановите директорию, под которым должны быть проверены RDD
setLogLevelУстановите уровень журнала
textFileСоздайте RDD из текстового файла

Примеры

свернуть все

The SparkContext класс инициализирует подключение к кластеру с поддержкой Spark с помощью свойств Spark.

% Setup Spark Properties as a containers.Map object
sparkProp = containers.Map({'spark.executor.cores'}, {'1'}); 

% Create SparkConf object
conf = matlab.compiler.mlspark.SparkConf('AppName','myApp', ...
                        'Master','local[1]','SparkProperties',sparkProp);
% Create a SparkContext
sc = matlab.compiler.mlspark.SparkContext(conf);

Подробнее о

расширить все

Ссылки

Для получения дополнительной информации см. последнюю документацию Spark.

Введенный в R2016b