文献
J-GLOBAL ID:201602227630611951   整理番号:16A1352875

F CNN:畳込みニューラルネットワークを訓練するためのFPGAに基づくフレームワーク【Powered by NICT】

F-CNN: An FPGA-based framework for training Convolutional Neural Networks
著者 (8件):
資料名:
巻: 2016  号: ASAP  ページ: 107-114  発行年: 2016年 
JST資料番号: W2441A  資料種別: 会議録 (C)
記事区分: 原著論文  発行国: アメリカ合衆国 (USA)  言語: 英語 (EN)
抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
訓練畳込みニューラルネットワーク(CNN)のための新しい再構成可能なフレームワークを提案した。提案したフレームワークは,CNNにおける種々の層のための訓練サイクルをカバーするために実行時にストリーミングデータパスを再構成に基づいている。ストリーミングデータパスは,性能と資源利用における異なるトレードオフをサポートした処理系を生成するためにカスタマイズできる種々のパラメータ化されたモジュールを支援することができる。モジュールは,同じ入力と出力データレイアウトに従い,配置スケジューリングを単純化している。異なる層では,モジュールの例が異なる計算カーネル並行して,種々の層配置とデータ精度でカスタマイズすることができるを含んでいる。性能,資源と帯域幅に関連したモデルは,応用要求またはプラットフォーム制約を満たすための設計トレードオフの解析をガイドするためのデータパスのためのパラメータを導出することに用いることができる。で異なった層構成与えられた実装規約の推定,帯域幅とハードウェア資源に対する制約の下での性能を最大化するためのを可能にする。実験結果はMaxeler技術を標的とする提案したモジュール設計は32ビット浮動小数点演算のための62.06GFLOPSの性能を達成し,既存の加速器を上回ることを示した。LeNet5訓練に基づく更なる評価は,提案したフレームワークはCaffeとCaffeのGPU実装よりもエネルギー効率が約7.5倍のCPU実装よりも約4倍速く達成することを示した。Copyright 2016 The Institute of Electrical and Electronics Engineers, Inc. All Rights reserved. Translated from English into Japanese by JST【Powered by NICT】
シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。

準シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
, 【Automatic Indexing@JST】
分類 (2件):
分類
JSTが定めた文献の分類名称とコードです
図形・画像処理一般  ,  計算機網 
タイトルに関連する用語 (5件):
タイトルに関連する用語
J-GLOBALで独自に切り出した文献タイトルの用語をもとにしたキーワードです

前のページに戻る