抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
画像認識や音声認識,自然言語処理等において,ニューラルネットワークを用いた機械学習が注目されている。近年の機械学習では認識率を向上させるためにニューラルネットワークの規模を拡大させることが主流であり,これに伴い,シミュレーションに必要な計算時間が増大している。そこで,計算時間の短縮と消費電力の削減を目指し,ニューラルネットワーク専用のハードウェアアクセラレータが盛んに研究されている。このようなハードウェアアクセラレータでは,ソフトウェア実行の際には考慮する必要のなかった点が性能に影響を及ぼす可能性がある。そこで本稿では,高性能なハードウェアアクセラレータの実現のためのひとつの着眼点として,複数コアへのタスク配置について検討する。各コアへのタスク配置がハードウェアアクセラレータの実行性能および電力効率に及ぼす影響を調査し,コア間通信量最小化のための適切な配置について考察する。シミュレーションによる評価の結果,タスク配置が実行サイクル数に影響を与え,層の規模によって異なるタスク配置が有効であることを確認した。(著者抄録)