抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
モバイル機器は,強力な,ハイエンドモバイルCPUとGPUを備えているので,深い学習タスクのための重要なキャリアになっている。しかし,実時間性能のための3D畳込みニューラルネットワーク(CNNs)ターゲティングを実行するのは,高い推論精度に加えて,まだ挑戦的なタスクである。この理由は,より複雑なモデル構造であり,より高いモデル次元は,モバイル機器に関する利用可能な計算/貯蔵資源を圧倒的に支配する。自然な方法は,深い学習重量剪定技術に転換するかもしれない。しかしながら,3D CNNに対する既存の2D CNN重み剪定法の直接一般化は,高い推論精度を達成しながら,モバイル並列性を完全に利用するには理想的ではない。本論文は,3D CNNsのためのモデル圧縮と移動加速フレームワークであるRT3Dを提案し,ニューラルネットワーク重み剪定とコンパイラコード生成技術をシームレスに統合した。2つの構造化スパース性スキーム,すなわち,モバイル加速フレンドリーであるバニラ構造化スパース性とカーネルグループ構造化(KGS)スパース性を提案し,研究した。バニラスパース性は全カーネルグループを除去し,一方,KGSスパース性は,フルオンデバイス並列性を利用して,より高い柔軟性を楽しむより微細粒構造化スパース性である。提案したスパース性スキームを達成するために再加重正則化剪定アルゴリズムを提案した。スパース性による推論時間高速化は,全モデルFLOP(浮動点演算)の剪定率に近づいた。RT3Dは,3D CNNをサポートする現在のモバイルフレームワークと比較して,エンドツーエンド推定時間で29.1×高速化を示し,中程度の1%~1.5%の精度損失を示した。16のビデオフレームに対するエンドツーエンド推論時間は,携帯電話上で代表的なC3DとR(2+1)Dモデルを実行するとき,150ms以内であった。第1に,3D CNNのリアルタイム実行を,オフショアモバイル上で達成した。【JST・京大機械翻訳】