抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
過去10年間は,多くの応用における深層学習モデルの増殖を目撃し,予測性能の未誘導レベルを達成した。残念なことに,深い学習モデルのブラックボックス特性は,それらがデータから学ぶことについて,未解決の疑問を提起した。ある応用シナリオは,深い学習モデルが動作している限界を評価する重要性を強調し,異なるドメインからの聴取を狙った,支援されたアプローチを用いて取り組んだ問題である。しかし,アプリケーションの焦点は,非専門家のユーザに多く置かれるので,人間がシステムやプロセスに精通するようなモデル,すなわち,それが失敗する仮想的な状況を理解することによって,このモデルを信頼するのに,him/herの手段を提供することが必須である。これは,本研究作業のための角石であり,深い学習モデルの敵対的解析を行う。提案したフレームワークは,それらの可能性を確実にすることによって,対物的用例を構築して,例えば,人間がコンピュータプログラムに頼ることなくそれらを作り出すことができる合理的確率があった。したがって,本研究は,利用可能な限界の貴重な監査運動として,あるモデルが制約され,それによって,実際の応用で使用されるモデルの能力と落とし穴のより大きな理解を可能にする。この目的のために,Generative Adversarial Network(GAN)と多目的ヒューリスティックスを用いて,監査されたモデルに対する妥当な攻撃,このモデルの混乱,生成されたカウンターファクトの強度と可能性の間の効率的取引を,効率的に提供する。その有用性を,人間の顔分類タスク内で示し,提案フレームワークの巨大な可能性を明らかにした。Copyright 2020 The Institute of Electrical and Electronics Engineers, Inc. All rights reserved. Translated from English into Japanese by JST.【JST・京大機械翻訳】