文献
J-GLOBAL ID:202002265264306499   整理番号:20A1898743

スケーラブルオンチップ学習のためのドメイン壁シナプスベースクロスバニューラルネットワークにおけるシナプスセル最適化とバックプロパゲーションアルゴリズム実装【JST・京大機械翻訳】

Synapse cell optimization and back-propagation algorithm implementation in a domain wall synapse based crossbar neural network for scalable on-chip learning
著者 (3件):
資料名:
巻: 31  号: 36  ページ: 364004 (10pp)  発行年: 2020年 
JST資料番号: W0108A  ISSN: 0957-4484  CODEN: NNOTER  資料種別: 逐次刊行物 (A)
記事区分: 原著論文  発行国: イギリス (GBR)  言語: 英語 (EN)
抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
スピン軌道トルク駆動ドメイン壁シナプスベースクロスバー完全接続ニューラルネットワーク(FCNN)におけるオンチップ学習は,従来の計算ユニットまたは他の非揮発性メモリデバイスに基づくクロスバーFCNNの訓練と比較して,速度とエネルギーに関して極めて効率的であることが示されている。しかしながら,ドメイン壁シナプスベースのFCNNにおけるオンチップ学習方式のスケーラビリティに関して問題がある。この方式はスケーラブルであり,実際のアプリケーションのための従来の計算ユニットに関するニューラルネットワークの訓練に関して競合しないであろう。本論文では,適切な閾値化ユニットを含めることにより,そのようなFCNNを訓練するために使用される標準勾配降下アルゴリズムにおける修正を提案した。これはクロスバーの各交差点でのシナプスセルの最適化につながり,システムをスケーラブルにする。データ分類のための広範囲の関数を近似するシステムのために,隠れ層を提示しなければならず,訓練のためのバックプロパゲーションアルゴリズム(多層FCNNのための勾配降下アルゴリズムの拡張)をハードウェア上で実行しなければならない。本論文では,余分のクロスバーを用いて,このアウトを行った。マイクロマグネティックシミュレーションとSPICE回路シミュレーションの組み合わせを通して,著者らは,異なる機械学習データセットのための隠れ層のないものと比較して,隠れ層を有するドメイン壁syanpseベースのFCNNのための高度に改良された精度を示した。Please refer to the publisher for the copyright holders. Translated from English into Japanese by JST.【JST・京大機械翻訳】
シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。

準シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
, 【Automatic Indexing@JST】
分類 (3件):
分類
JSTが定めた文献の分類名称とコードです
脳・神経系モデル  ,  トランジスタ  ,  ニューロコンピュータ 

前のページに戻る