プレプリント
J-GLOBAL ID:202202214741343180   整理番号:22P0280968

LAP:畳込みニューラルネットワークにおける概念ベース自己解釈と知識注入のための注意ベースモジュール【JST・京大機械翻訳】

LAP: An Attention-Based Module for Concept Based Self-Interpretation and Knowledge Injection in Convolutional Neural Networks
著者 (4件):
資料名:
発行年: 2022年01月27日  プレプリントサーバーでの情報更新日: 2023年10月24日
JST資料番号: O7000B  資料種別: プレプリント
記事区分: プレプリント  発行国: アメリカ合衆国 (USA)  言語: 英語 (EN)
抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
深い畳み込みニューラルネットワークの最先端の性能にもかかわらず,それらは,不調な状況においてバイアスと誤動作に影響を受けやすい。さらに,それらの推論の背後にある複雑な計算は,信頼を開発するのに,人間が避けられない。外部説明器法は,人間-理解可能な方法でネットワーク決定を解釈することを試みたが,それらの仮定と単純化のため,それらはフォールタリティーに陥っている。他方では,モデルの固有の自己解釈可能性は,前述の落下に対してよりロバストであるが,既に訓練されたモデルには適用できない。本研究では,自己解釈性と性能損失のない知識注入の可能性を達成する局所注意プール(LAP)と呼ばれる新しい注意ベースプール層を提案する。モジュールは,既に訓練されたものであっても,任意の畳込みニューラルネットワークに容易にプラグできる。専門家のアノテーションに依存しない意思決定における識別特徴を学習するための弱教師つき訓練方式を定義した。ImageNetを含む2つのデータセットに関するいくつかのLAP拡張モデルを評価することによって,著者らの主張を検証した。提案フレームワークは,一般的に使用されているホワイトボックス説明器法よりも,より有効な人間理解可能かつ忠実なモデル解釈を提供する。【JST・京大機械翻訳】
シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。

準シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
, 【Automatic Indexing@JST】
分類 (3件):
分類
JSTが定めた文献の分類名称とコードです
人工知能  ,  ニューロコンピュータ  ,  パターン認識 

前のページに戻る