文献
J-GLOBAL ID:202002221178847169   整理番号:20A2138979

スパイキングニューラルネットワークにおけるオンチップ学習のための従来型トランジスタベースアナログ集積回路の設計【JST・京大機械翻訳】

Design of a Conventional-Transistor-Based Analog Integrated Circuit for On-Chip Learning in a Spiking Neural Network
著者 (2件):
資料名:
号: ICONS 2020  ページ: 1-8  発行年: 2020年 
JST資料番号: D0698C  資料種別: 会議録 (C)
記事区分: 原著論文  発行国: アメリカ合衆国 (USA)  言語: 英語 (EN)
抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
スパイキングニューラルネットワーク(SNN)は,様々なNNアルゴリズムの中で特に興味深い。SNNは,従来のコンピュータと特殊化されたディジタル神経形態チップに関する生物学的に妥当なスパイク時間依存塑性(STDP)規則を使用する前に訓練されたが,アナログハードウェアは,そのような時間領域ベースの訓練のためにより好適である。さらに,アナログハードウェアのみを用いて完全メモリ計算インタネットを達成でき,それによってvon Neumannボトルネックを除去できる。したがって,本論文では,従来のシリコントランジスタとキャパシタに基づくニューロンとシナプスブロックを持つアナログハードウェアSNNを設計した。著者らのシナプスブロックは,体重更新のためのSTDP規則を示す。著者らのニューロン-ブロックは,スパイク生成とホモエスタシス特性のための機構を有する生物学的に妥当なLeaky Integrate Fire(LIF)モデルに従う。次に,完全なハードウェアのSPICEシミュレーションを通して,一般的なマシン学習(ML)データセット(Fisher Iris)に関するオンチップ学習を示した。アナログハードウエアSNNに関する以前の報告は,ここで使用される従来のシリコントランジスタと比較して,非常に難しい新しいデバイスの使用を含む。また,これらの報告は,SNNのフル回路レベル設計とシミュレーションを通して,反復学習を示さなかった。さらに,従来のトランジスタを使用するアナログSNNの他の既存の報告は,本論文と異なり,一般的に使用されているMLデータセットの訓練を示さない。Please refer to this article’s citation page on the publisher website for specific rights information. Translated from English into Japanese by JST.【JST・京大機械翻訳】
シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。

準シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
, 【Automatic Indexing@JST】
分類 (1件):
分類
JSTが定めた文献の分類名称とコードです
ニューロコンピュータ 

前のページに戻る