文献
J-GLOBAL ID:202202259844437208   整理番号:22A0788996

FT-DeepNets:カーネルベース重複を持つフォールトトレラント畳込みニューラルネットワーク【JST・京大機械翻訳】

FT-DeepNets: Fault-Tolerant Convolutional Neural Networks with Kernel-based Duplication
著者 (5件):
資料名:
巻: 2022  号: WACV  ページ: 1878-1887  発行年: 2022年 
JST資料番号: W2441A  資料種別: 会議録 (C)
記事区分: 原著論文  発行国: アメリカ合衆国 (USA)  言語: 英語 (EN)
抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
深層ニューラルネットワーク(ディープネット)アプリケーションは自律車両(AV)のような安全クリティカルシステムにおいて重要な役割を果たす。AVは,その destination先に向かって安全に駆動し,障害物を回避し,車両が停止しなければならないとき,迅速に応答する。これらの深いネットアプリケーションにおけるソフトウェア計算またはハードウェアメモリにおける任意の過渡誤りは,潜在的に不正確な結果に導く可能性がある。したがって,任意の過渡誤差を評価し,軽減し,ロバストな結果を提供することは,安全クリティカルシステムにとって重要である。この主題に関する以前の研究は,誤差を検出し,次に,ネットワークを再実行することによって誤差から回復する。他の手法は,各モデルの利点を活用することによってシステムフォールトトレランスをブーストするためのアンサンブル学習ベースアプローチのような完全ネットワーク重複の程度に基づいた。しかし,深いニューラルネットワークにおける誤差を検出するのは困難であり,完全な冗長性の計算オーバヘッドは,実質的であった。最初に,深いネットにおける誤差タイプと位置の影響を研究した。次に,ニューロン間の重要度の次数を測定するために,複数のランキング法を用いてどの部分が重複すべきかの選択に焦点を当てた。計算およびメモリのための重複オーバヘッドは,アルゴリズム性能とロバスト性の間のトレードオフであった。より少ないシステムオーバヘッドでより高いロバスト性を達成するために,著者らは,臨界ニューロンからネットワークの一部を複製するだけの2つのエラー保護機構を提示する。最後に,著者らのアプローチの実用可能性を実証し,誤差の存在における深いネットの精度の改善を評価した。自動車OEMsによって使用されたNvidia GeForce RTX 2070Ti GPUとNvidia Xavier埋込みプラットフォームに関する実世界アプリケーションによる事例研究を用いて,これらの結果を実証した。Copyright 2022 The Institute of Electrical and Electronics Engineers, Inc. All rights reserved. Translated from English into Japanese by JST.【JST・京大機械翻訳】
シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。

準シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
, 【Automatic Indexing@JST】
分類 (1件):
分類
JSTが定めた文献の分類名称とコードです
図形・画像処理一般 
タイトルに関連する用語 (3件):
タイトルに関連する用語
J-GLOBALで独自に切り出した文献タイトルの用語をもとにしたキーワードです

前のページに戻る