文献
J-GLOBAL ID:201802262504108406   整理番号:18A0944143

クラウドベースまたはオンデバイス:モバイルディープ推論の経験的研究【JST・京大機械翻訳】

Cloud-Based or On-Device: An Empirical Study of Mobile Deep Inference
著者 (1件):
資料名:
巻: 2018  号: IC2E  ページ: 184-190  発行年: 2018年 
JST資料番号: W2441A  資料種別: 会議録 (C)
記事区分: 原著論文  発行国: アメリカ合衆国 (USA)  言語: 英語 (EN)
抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
現代のモバイルアプリケーションは,深い学習,例えばリアルタイム画像認識と会話システムの実装における進歩から著しく利益を得ている。訓練された深い学習モデルを与えると,可能な出力値を推論するために,通常,入力データに基づく一連の行列演算を実行する必要がある。計算の複雑さとサイズ制約のために,これらの訓練されたモデルはしばしば雲においてホストされる。これらのクラウドベースのモデルを利用するために,モバイル評価はネットワーク上に入力データを送る必要がある。クラウドベースの深い学習は,モバイル評価のために合理的な応答時間を提供することができるが,それは使用事例シナリオを制限する。例えば,モバイル評価はネットワークアクセスを持つ必要がある。モバイルの特定の深い学習最適化により,オンデバイス推論を採用することが可能である。しかしながら,GPUやメモリサイズのようなモバイルハードウェアは,そのデスクトップ対応物と比較して非常に制限されるので,この新しいオンデバイス深学習推論アーキテクチャの実現可能性を理解することが重要である。本論文では,著者らが開発したベンチマークAndroidアプリケーションを用いて,3つの畳込みニューラルネットワーク(CNN)の推論性能を経験的に評価した。著者らの測定と解析は,オンデバイス推論がクラウドベースの推論と比較して,2桁の大きい応答時間とエネルギーにコストをかけることができ,負荷モデルと計算確率がオンデバイス深い推論のための2つの性能ボトルネックであることを示唆した。Copyright 2018 The Institute of Electrical and Electronics Engineers, Inc. All Rights reserved. Translated from English into Japanese by JST【JST・京大機械翻訳】
シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。

準シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
, 【Automatic Indexing@JST】
分類 (2件):
分類
JSTが定めた文献の分類名称とコードです
計算機網  ,  移動通信 
タイトルに関連する用語 (3件):
タイトルに関連する用語
J-GLOBALで独自に切り出した文献タイトルの用語をもとにしたキーワードです

前のページに戻る