抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
自動運転車やスマートロボットなどのIoTデバイスのような組み込み機器においても,高度な判断や制御をするために,深層学習による推論処理が広く利用されつつある.しかしながら,画像入力に対する推論処理で多用される畳み込み演算は計算量が大きく,消費電力の増大とそれによる発熱量の増大を招いてしまい,その結果組み込み機器に大容量のバッテリーが必要となったり,冷却装置のための大きなスペースが必要となったりする懸念がある.これはスマートロボットなどにおいては行動自由度の低下や筐体の大きさにも影響を与える.これに対して筆者等は,コンパイラ協調のOSCARベクトルマルチコアによる,深層学習処理の高速かつ低消費電力実行の実現を目指している.本マルチコアでは,既存の多くの学習モデルを利用すべく,そのコンパイルツールチェーンに深層学習コンパイラTVMを取り入れる.本稿ではOSCAR自動並列化コンパイラとTVMによるベクトルマルチコア用コンパイルツールチェーンの有効性を示すべく,TVMによるベクトルマルチコア用コード生成手法を提案・実装する.さらに提案手法を実装したTVMをOSCARコンパイラおよびNECを組み合わせ,ResNetの学習済み深層学習モデルをNECのベクトルマルチコアであるSX-Aurora TSUBASA上で評価した.評価では上記TVMの生成コードをOSCARコンパイラで並列化し,さらにNECコンパイラによりベクトル化した.評価の結果,提案手法実装前後の同コア実行時の実行時間を比較すると,1コア実行時に13.7倍,8コア時に21.5倍の速度向上をそれぞれ得た.(著者抄録)