Работа с удаленными данными

Можно читать и записать данные от удаленного местоположения с помощью MATLAB® функции и объекты, такие как файловый ввод-вывод функционирует и некоторые объекты datastore. Эти примеры показывают, как настроить, читайте из и запишите в удаленные местоположения на следующих платформах "облачного" хранилища:

  • Amazon S3™ (простой сервис устройства хранения данных)

  • Azure® Устройство хранения данных блоба (ранее известный как Windows Azure® Блоб устройства хранения данных (WASB))

  • Hadoop® Распределенная файловая система (HDFS™)

Amazon S3

MATLAB позволяет вам использовать Amazon S3 в качестве онлайнового веб-сервиса хранилища файлов, предлагаемого Amazon Web Services. Когда вы задаете местоположение данных, необходимо задать полный путь к файлам или папкам с помощью универсального локатора ресурса (URL) формы

s3://bucketname/path_to_file

bucketname имя контейнера и path_to_file путь к файлу или папкам.

Amazon S3 обеспечивает хранение данных через интерфейсы веб-сервисов. Можно использовать блок в качестве контейнера, чтобы хранить объекты в Amazon S3.

Настройте доступ

Чтобы работать с удаленными данными в Amazon S3, необходимо настроить доступ сначала:

  1. Зарегистрируйтесь в системе для корневой учетной записи Amazon Web Services (AWS). См. Amazon Web Services: Учетная запись.

  2. Используя вашу корневую учетную запись AWS, создайте меня AM (Идентичность и управление доступом) пользователь. Смотрите Создание меня Пользователь AM в Вашей Учетной записи AWS.

  3. Сгенерируйте ключ доступа, чтобы получить ID ключа доступа и секретный ключ доступа. Смотрите Ключи доступа Управления поскольку я Пользователи AM.

  4. Сконфигурируйте свою машину с ID ключа доступа AWS, секретным ключом доступа и областью с помощью инструмента AWS Command Line Interface под эгидой https://aws.amazon.com/cli/. В качестве альтернативы установите переменные окружения непосредственно при помощи setenv:

    • AWS_ACCESS_KEY_ID и AWS_SECRET_ACCESS_KEY — Аутентифицируйте и включите использование сервисов Amazon S3. (Вы сгенерировали эту пару переменных ключа доступа на шаге 3.)

    • AWS_DEFAULT_REGION (дополнительный) — Выбор географическая область вашего блока. Значение этой переменной окружения обычно определяется автоматически, но владелец блока может потребовать, чтобы вы установили его вручную.

    • AWS_SESSION_TOKEN (дополнительный) — Задают лексему сеанса, если вы используете временные учетные данные безопасности, такой как с AWS® Федеративная аутентификация.

Если вы используете Parallel Computing Toolbox™, необходимо гарантировать, что кластер был сконфигурирован для доступа сервисы S3. Можно скопировать переменные клиентской среды в рабочих в кластере установкой EnvironmentVariables в parpool, batch, createJob, или в кластерном менеджере по профилю.

Считайте данные из Amazon S3

Следующий пример показывает, как использовать ImageDatastore возразите, чтобы считать заданное изображение из Amazon S3, и затем отобразить изображение, чтобы экранировать.

setenv('AWS_ACCESS_KEY_ID', 'YOUR_AWS_ACCESS_KEY_ID'); 
setenv('AWS_SECRET_ACCESS_KEY', 'YOUR_AWS_SECRET_ACCESS_KEY');

ds = imageDatastore('s3://bucketname/image_datastore/jpegfiles', ...
  'IncludeSubfolders', true, 'LabelSource', 'foldernames'); 
img = ds.readimage(1);
imshow(img)

Запись данных к Amazon S3

Следующий пример показывает, как использовать tabularTextDatastore возразите, чтобы считать табличные данные из Amazon S3 в длинный массив, предварительно обработать его путем удаления недостающих записей и сортировки, и затем записать его обратно к Amazon S3.

setenv('AWS_ACCESS_KEY_ID', 'YOUR_AWS_ACCESS_KEY_ID');
setenv('AWS_SECRET_ACCESS_KEY', 'YOUR_AWS_SECRET_ACCESS_KEY');

ds = tabularTextDatastore('s3://bucketname/dataset/airlinesmall.csv', ...
  'TreatAsMissing', 'NA', 'SelectedVariableNames', {'ArrDelay'});
tt = tall(ds);
tt = sortrows(rmmissing(tt));
write('s3://bucketname/preprocessedData/',tt);

Чтобы считать ваши высокие данные назад, используйте datastore функция.

ds = datastore('s3://bucketname/preprocessedData/');
tt = tall(ds);

Устройство хранения данных блоба Azure

MATLAB позволяет вам использовать Устройство хранения данных Блоба Azure для онлайнового хранилища файлов. Когда вы задаете местоположение данных, необходимо задать полный путь к файлам или папкам с помощью универсального локатора ресурса (URL) формы

wasbs://container@account/path_to_file/file.ext

container@account имя контейнера и path_to_file путь к файлу или папкам.

Azure обеспечивает хранение данных через интерфейсы веб-сервисов. Можно использовать блоб, чтобы сохранить файлы данных в Azure. Смотрите Введение в Azure для получения дополнительной информации.

Настройте доступ

Чтобы работать с удаленными данными в устройстве хранения данных Azure, необходимо настроить доступ сначала:

  1. Зарегистрируйте аккаунт Microsoft Azure, смотрите Microsoft Azure Account.

  2. Настройте свои детали аутентификации путем установки точно одного из двух после переменных окружения с помощью setenv:

    • MW_WASB_SAS_TOKEN — Аутентификация с помощью подписанного URL-адреса (SAS)

      Получите SAS. Для получения дополнительной информации смотрите, что раздел "Get the SAS for a blob container" в Управляет Ресурсами хранения Блоба Azure с Проводником Устройства хранения данных.

      В MATLAB, набор MW_WASB_SAS_TOKEN к строке запроса SAS. Например,

      setenv MW_WASB_SAS_TOKEN '?st=2017-04-11T09%3A45%3A00Z&se=2017-05-12T09%3A45%3A00Z&sp=rl&sv=2015-12-11&sr=c&sig=E12eH4cRCLilp3Tw%2BArdYYR8RruMW45WBXhWpMzSRCE%3D'

      Необходимо установить эту строку на допустимую лексему SAS, сгенерированную от сети Устройства хранения данных Azure пользовательский интерфейс или Проводник.

    • MW_WASB_SECRET_KEY — Аутентификация через один из двух секретных ключей Учетной записи

      Каждая Учетная запись Устройства хранения данных имеет два секретных ключа тот доступ к административной привилегии разрешения. Этому тому же доступу можно предоставить к MATLAB, не имея необходимость создавать лексему SAS путем установки MW_WASB_SECRET_KEY переменная окружения. Например:

      setenv MW_WASB_SECRET_KEY '1234567890ABCDEF1234567890ABCDEF1234567890ABCDEF'

Если вы используете Parallel Computing Toolbox, необходимо скопировать переменные клиентской среды в рабочих в кластере установкой EnvironmentVariables в parpool, batch, createJob, или в кластерном менеджере по профилю.

Для получения дополнительной информации смотрите устройство хранения данных Azure Использования с кластерами Azure HDInsight.

Считайте данные из Azure

Чтобы считать данные из Места хранения Блоба Azure, задайте местоположение с помощью следующего синтаксиса:

wasbs://container@account/path_to_file/file.ext

container@account имя контейнера и path_to_file путь к файлу или папкам.

Например, если у вас есть файл airlinesmall.csv в папке /airline на тесте устройство хранения данных считают wasbs://blobContainer@storageAccount.blob.core.windows.net/, затем можно создать datastore при помощи:

location = 'wasbs://blobContainer@storageAccount.blob.core.windows.net/airline/airlinesmall.csv';
ds = tabularTextDatastore(location, 'TreatAsMissing', 'NA', ...
  'SelectedVariableNames', {'ArrDelay'});

Можно использовать Azure для всей поддержки хранилищ данных вычислений, включая непосредственное считывание, mapreduce, длинные массивы и глубокое обучение. Например, создайте ImageDatastore объект, считайте заданное изображение из datastore, и затем отобразите изображение, чтобы экранировать.

setenv('MW_WASB_SAS_TOKEN', 'YOUR_WASB_SAS_TOKEN');  
ds = imageDatastore('wasbs://YourContainer@YourAccount.blob.core.windows.net/', ...
  'IncludeSubfolders', true, 'LabelSource', 'foldernames'); 
img = ds.readimage(1);
imshow(img)

Запись данных к Azure

В этом примере показано, как считать табличные данные из Azure в длинный массив с помощью tabularTextDatastore возразите, предварительно обработайте его путем удаления недостающих записей и сортировки, и затем запишите его обратно к Azure.

setenv('MW_WASB_SAS_TOKEN', 'YOUR_WASB_SAS_TOKEN');  

ds = tabularTextDatastore('wasbs://YourContainer@YourAccount.blob.core.windows.net/dataset/airlinesmall.csv', ...
  'TreatAsMissing', 'NA', 'SelectedVariableNames', {'ArrDelay'});
tt = tall(ds);
tt = sortrows(rmmissing(tt));
write('wasbs://YourContainer@YourAccount.blob.core.windows.net/preprocessedData/',tt);

Чтобы считать ваши высокие данные назад, используйте datastore функция.

ds = datastore('wasbs://YourContainer@YourAccount.blob.core.windows.net/preprocessedData/');
tt = tall(ds);

Распределенная файловая система Hadoop

Определение местоположения данных

MATLAB позволяет вам использовать Распределенную файловую систему Hadoop (HDFS) в качестве онлайнового веб-сервиса хранилища файлов. Когда вы задаете местоположение данных, необходимо задать полный путь к файлам или папкам с помощью универсального локатора ресурса (URL) одной из следующих форм:

hdfs:/path_to_file
hdfs:///path_to_file
hdfs://hostname/path_to_file

hostname имя хоста или сервера и path_to_file путь к файлу или папкам. Определение hostname является дополнительным. Когда вы не задаете hostname, Хэдуп использует имя хоста по умолчанию, сопоставленное с установкой Распределенной файловой системы Hadoop (HDFS) в MATLAB.

Например, можно использовать любую из этих команд, чтобы создать datastore для файла, file1.txt, в папке под названием data расположенный в хосте под названием myserver:

  • ds = tabularTextDatastore('hdfs:///data/file1.txt') 
  • ds = tabularTextDatastore('hdfs://myserver/data/file1.txt') 

Если hostname задан, это должно соответствовать namenode, заданному fs.default.name свойство в конфигурационных XML-файлах Hadoop для вашего кластера Hadoop.

Опционально, можно включать номер порта. Например, это местоположение задает хост под названием myserver с портом 7867, содержа файл file1.txt в папке под названием data:

'hdfs://myserver:7867/data/file1.txt'

Заданный номер порта должен совпадать с набором номера порта в вашей настройке HDFS.

Установка переменной окружения Hadoop

Прежде, чем читать из HDFS, используйте setenv функционируйте, чтобы установить соответствующую переменную окружения на папку, где Hadoop установлен. Эта папка должна быть доступной от текущей машины.

  • Hadoop v1 только — Набор HADOOP_HOME переменная окружения.

  • Hadoop v2 только — Набор HADOOP_PREFIX переменная окружения.

  • Если вы работаете и с Hadoop v1 и с Hadoop v2, или если HADOOP_HOME и HADOOP_PREFIX переменные окружения не установлены, затем устанавливают MATLAB_HADOOP_INSTALL переменная окружения.

Например, используйте эту команду, чтобы установить HADOOP_HOME переменная окружения. hadoop-folder папка, где Hadoop установлен, и /mypath/ путь к той папке.

setenv('HADOOP_HOME','/mypath/hadoop-folder');

Данные HDFS по Hortonworks или Cloudera

Если ваша текущая машина имеет доступ к данным HDFS по Hortonworks или Cloudera®, затем вы не должны устанавливать HADOOP_HOME или HADOOP_PREFIX переменные окружения. MATLAB автоматически присваивает эти переменные окружения при использовании узлов ребра приложения Hortonworks или Cloudera.

Предотвращение очищающегося кода из памяти

При чтении из HDFS или при чтении файлов Последовательности локально, datastore вызовы функции javaaddpath команда. Эта команда делает следующее:

  • Очищает определения всего Java® классы заданы файлами на динамическом пути к классу

  • Удаляет все глобальные переменные и переменные из базового рабочего пространства

  • Удаляет все скомпилированные скрипты, функции и MEX-функции из памяти

Чтобы предотвратить персистентные переменные, файлы кода или файлы MEX от того, чтобы быть очищенным, используют mlock функция.

Запись данных к HDFS

В этом примере показано, как использовать tabularTextDatastore объект записать данные к местоположению HDFS. Используйте write функционируйте, чтобы записать ваши высокие и распределенные массивы в Распределенную файловую систему Hadoop. Когда вы вызываете эту функцию на распределенном или длинном массиве, необходимо задать полный путь к папке HDFS. Следующий пример показывает, как считать табличные данные из HDFS в длинный массив, предварительно обработать его путем удаления недостающих записей и сортировки, и затем записать его обратно к HDFS.

ds = tabularTextDatastore('hdfs://myserver/some/path/dataset/airlinesmall.csv', ...
  'TreatAsMissing', 'NA', 'SelectedVariableNames', {'ArrDelay'});
tt = tall(ds);
tt = sortrows(rmmissing(tt));
write('hdfs://myserver/some/path/preprocessedData/',tt);

Чтобы считать ваши высокие данные назад, используйте datastore функция.

ds = datastore('hdfs://myserver/some/path/preprocessedData/');
tt = tall(ds);

Смотрите также

| | | | | | | |

Похожие темы

Для просмотра документации необходимо авторизоваться на сайте