文献
J-GLOBAL ID:202002288622702278   整理番号:20A1930047

深層ニューラルネットワークにおける転置畳込み層のためのFTConv FPGA加速【JST・京大機械翻訳】

FTConv FPGA Acceleration for Transposed Convolution Layers in Deep Neural Networks
著者 (3件):
資料名:
号: FPGA ’19  ページ: 189  発行年: 2019年 
JST資料番号: D0698C  資料種別: 会議録 (C)
記事区分: 原著論文  発行国: アメリカ合衆国 (USA)  言語: 英語 (EN)
抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
様々なコンピュータビジョンタスクにおける特徴マップをスケールアップするためにしばしば用いられる変換畳込みは,畳み込みの構造的逆過程である。任意の場合,畳み込みと転置畳込みの両方が,深いニューラルネットワークの推論における計算の大部分を説明する。畳み込みは広く研究されているが,トランスポーズ畳込みの加速に関する研究はほとんどない。本論文では,高速アルゴリズムFTConvを提案し,小カーネルとの畳み込みにも使用したWinogradアルゴリズムを用いた変換畳込みの計算を低減した。特に,カーネルをいくつかの一致クラスに分割した後に,変換畳込みを多重畳込みに変換することができる。したがって,修正Winogradeアルゴリズムを用いて多重畳込みを加速できる。各一致クラスの出力特徴要素をインタリービングすることによって,変換畳込みを得ることができた。また,FPGAに関する計算をさらに加速するために,4つのパイプライン段階でWinograd ALUを設計した。変換畳込みのメモリアクセスパターンに従ってオンチップバッファ再利用のためのスライディングウィンドウを注意深く設計することによって,著者らは,直接的方法と比較して,メモリ帯域幅を88.2%節約した。超解像のためのニューラルネットワークであるFSRCNN-sを用いてFTConvを評価した。変換畳込み層における乗算の数は,FSRCNN-sの直接計算で69%減少した。Please refer to this article’s citation page on the publisher website for specific rights information. Translated from English into Japanese by JST.【JST・京大機械翻訳】
シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。

準シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
, 【Automatic Indexing@JST】
著者キーワード (3件):
分類 (2件):
分類
JSTが定めた文献の分類名称とコードです
パターン認識  ,  人工知能 
タイトルに関連する用語 (4件):
タイトルに関連する用語
J-GLOBALで独自に切り出した文献タイトルの用語をもとにしたキーワードです

前のページに戻る