抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
今日,機械学習(ML)モデルが特定の推論を行う理由の解釈は,そのような推論の精度と同様に重要である。決定木のようないくつかのMLモデルは,人間によって直接理解できる固有の解釈性を持っている。しかし,人工ニューラルネットワーク(ANN)のような他のものは,演繹機構を明らかにする外部法に依存している。SHapley加法(SHAP)はそのような外部方法の1つであり,ANNsを解釈するときバックグラウンドデータセットを必要とする。一般的に,背景データセットは訓練データセットからランダムにサンプリングされたインスタンスから成る。しかし,サンプリングサイズとそのSHAPへの影響は未調査のままである。MIMIC-IIIデータセットに関する著者らの経験的研究において,著者らは,ランダムサンプリングから得た異なる背景データセットを使用するとき,2つのコア説明-SHAP値および可変ランキングが変動することを示し,ユーザがSHAPからのワンショット解釈を要求できないことを示した。このような変動はバックグラウンドデータセットサイズの増加とともに減少する。また,SHAP変数ランキングの安定性評価におけるU型を知って,SHAPが適度に重要なものと比べて,最も重要で最も重要な変数をランク付けするのに信頼性が高いことを示した。全体として,我々の結果は,バックグラウンドデータがSHAP結果にどのように影響するかを考慮し,バックグラウンドサンプルサイズが増加するにつれてSHAP安定性を改善した。【JST・京大機械翻訳】