抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
畳み込みニューラルネットワーク(Convolutional Neural Network,CNN)は画像認識アプリケーションに適した機械学習モデルである。CNNは,入力画像とそれが属するクラスのラベルからなる訓練データを基に,自身のパラメータを学習する。学習が完了したCNNは画像の分類器として機能する。計算機的側面からCNNを観察すると,CNNは膨大な浮動小数演算と高い並列性を有することが分かる。この高い並列性を活用して分類に要するレイテンシを削減するために,CNNをFPGAによって高速化する研究が行われてきた。FPGAは浮動小数点数の演算器を持たないため,固定小数点数を数値表現に用いるのが適当である。固定小数点数に何ビットを割り当てるかに関して,必要なFPGAリソースと精度はトレードオフの関係にある。入力画像から分類結果を得るfeed forwardパスの演算に何ビットの固定小数点数が必要であるかは,先行研究で明らかになっている。しかし,学習を含めたCNNの演算に,何ビットの固定小数点数が必要であるかに関しては十分な知見が得られていない。本稿では,固定小数点数のビット数と丸め方法がCNNの分類性能に与える影響について調査する。(著者抄録)