抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
現代のモバイルアプリケーションは,深い学習,例えばリアルタイム画像認識と会話システムの実装における進歩から著しく利益を得ている。訓練された深い学習モデルを与えると,可能な出力値を推論するために,通常,入力データに基づく一連の行列演算を実行する必要がある。計算の複雑さとサイズ制約のために,これらの訓練されたモデルはしばしば雲においてホストされる。これらのクラウドベースのモデルを利用するために,モバイル評価はネットワーク上に入力データを送る必要がある。クラウドベースの深い学習は,モバイル評価のために合理的な応答時間を提供することができるが,それは使用事例シナリオを制限する。例えば,モバイル評価はネットワークアクセスを持つ必要がある。モバイルの特定の深い学習最適化により,オンデバイス推論を採用することが可能である。しかしながら,GPUやメモリサイズのようなモバイルハードウェアは,そのデスクトップ対応物と比較して非常に制限されるので,この新しいオンデバイス深学習推論アーキテクチャの実現可能性を理解することが重要である。本論文では,著者らが開発したベンチマークAndroidアプリケーションを用いて,3つの畳込みニューラルネットワーク(CNN)の推論性能を経験的に評価した。著者らの測定と解析は,オンデバイス推論がクラウドベースの推論と比較して,2桁の大きい応答時間とエネルギーにコストをかけることができ,負荷モデルと計算確率がオンデバイス深い推論のための2つの性能ボトルネックであることを示唆した。Copyright 2018 The Institute of Electrical and Electronics Engineers, Inc. All Rights reserved. Translated from English into Japanese by JST【JST・京大機械翻訳】