抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
画像認識手法の一つである畳込みニューラルネットワーク(CNN:Convolutional Neural Network)は,その識別精度の高さから様々な分野で注目されている。CNNの組込み機器への実装を考えた場合,低消費電力かつ高速な処理が可能であるFPGA(Field Programmable Gate Array)は有望な選択肢となる。しかしながら,FPGAにCNNを実装する際は,内部で膨大な回数実行される積和演算回路の構成および重みを読み込む際のメモリアクセスについて工夫する必要がある。そこで本稿では,CNNの重みを2のべき乗に近似する手法を提案する。これにより,積和演算回路における乗算はシフト演算に置き換え可能となる。また,重みを近似する際はCNNに再学習を施すことで認識率の低下を抑制し,近似後は閾値以下の重みをプルーニングすることで重みの表現に必要なビット幅を削減する。提案手法によって,畳込み層のカーネルあたりのLUT使用量は約1.9倍改善され,全結合層の積和演算あたりのLUT使用量は約2.5倍改善された。また,認識精度の低下を0.3%程度に抑えた場合は畳込み層の重みを5ビット,全結合層の重みを4ビットで表現可能となり,2%程度に抑えた場合はさらに全結合層の重みを3ビットに削減して表現可能となった。(著者抄録)