抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
説明可能な人工知能(XAI)は,高度に複雑で不透明な機械学習(ML)モデルに透明性をもたらす新興研究分野である。近年のブラックボックス分類器の決定を説明する多くの方法の開発にもかかわらず,これらのツールは可視化目的を超えてほとんど使用されていない。最近,研究者は,実際にモデルを改善するために実際に説明を採用し始めた。本論文では,MLモデルの様々な特性を改善するために,実際にXAIを適用する技術に関する包括的な概観を提供し,これらのアプローチを系統的に分類し,それぞれの強度と弱点を比較した。これらの方法に関する理論的展望を提供し,説明がモデル一般化能力や推論のような特性の改善をいかに助けることができるか,また,他のものの中で,どのような説明が役立つかを経験的に示す。さらに,これらの方法の潜在的空洞と欠点を論じた。XAIに基づくモデル改良は,複雑で容易に定量化できないモデル特性でさえ,有意な有益な効果を持つが,これらの方法は,用いたモデルやデータセット,あるいは使用した説明方法のような多数の因子に依存して,それらの成功を変化できるので,注意深く適用する必要があると結論した。【JST・京大機械翻訳】