文献
J-GLOBAL ID:201802278393589931   整理番号:18A1385997

BAIPAS データ局所性とシャッフルを用いた分散型深層学習プラットフォーム【JST・京大機械翻訳】

BAIPAS: Distributed Deep Learning Platform with Data Locality and Shuffling
著者 (4件):
資料名:
巻: 2017  号: EECS  ページ: 5-8  発行年: 2017年 
JST資料番号: W2441A  資料種別: 会議録 (C)
記事区分: 原著論文  発行国: アメリカ合衆国 (USA)  言語: 英語 (EN)
抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
本論文では,分散した深い学習プラットフォーム,BAIPAS,BigデータおよびAIベースの予測および解析システムを紹介した。大規模データを用いた深い学習の場合には,データを用いて訓練することが多い。訓練時間を短縮するために,分散した深い学習を用いる方法がある。大量のデータが外部記憶に存在するとき,データが深い学習操作の間に負荷されるとき,トレーニングは多くのネットワークI/O時間を取るので,トレーニングは長い時間を要する。大規模データにより訓練時間を短縮する方法として,データ局所管理を提案した。BAIPASは,大規模データからの迅速な学習,プラットフォームの容易な設置と監視,および深い学習モデルの開発者に対する利便性を提供することを目的とする分散型の深い学習プラットフォームである。大規模データを用いた高速訓練を提供するために,データを分散し,データの局所性とシャッフリングを用いて作業者-サーバストレージに保存し,次に訓練を実行した。データ局所性管理者は,訓練データと作業者サーバの状態情報を分析する。これは,作業者サーバの利用可能な記憶空間と作業者サーバの学習性能に従ってデータスケジューリングを配布する。しかしながら,各作業者サーバが分散訓練データを用いて深い学習を行うならば,完全訓練データ集合による学習法と比較して,モデル過剰適合が発生する可能性がある。この問題を解決するために,著者らは,訓練が実行されるとき,既に学習されたデータを他の作業者サーバに移動させるシャッフリング法を適用した。それにより,各作業者サーバは完全な訓練データセットを含むことができる。BAIPASは,プラットフォームの容易な設置と監視を提供するためにKubernetesとDockerを使用する。それはまた,前処理モジュール,管理ツール,クラスタ生成の自動化,資源監視,および他の資源を提供する。したがって,開発者は容易に深い学習モデルを開発できる。Copyright 2018 The Institute of Electrical and Electronics Engineers, Inc. All rights reserved. Translated from English into Japanese by JST.【JST・京大機械翻訳】
シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。

準シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
, 【Automatic Indexing@JST】
分類 (5件):
分類
JSTが定めた文献の分類名称とコードです
人工知能  ,  計算理論  ,  その他の情報処理  ,  CAI  ,  パターン認識 
タイトルに関連する用語 (3件):
タイトルに関連する用語
J-GLOBALで独自に切り出した文献タイトルの用語をもとにしたキーワードです

前のページに戻る