抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
今日,深いニューラルネットワークは,それらの高精度結果のために多くのドメインで使用されている。しかし,それらは「ブラックボックス」と考えられ,それらがヒトに対して説明できないことを意味する。他方,医療,経済,および自己駆動自動車のようないくつかのタスクにおいて,ユーザは,それらがこれらの結果を信用できるかどうか決定するために,モデルを解釈できる。本研究では,ALIMEと呼ばれる局所可読性のためのオートエンコーダベースアプローチの修正版を提示した。ALIME自体は,局所インタテーブルモデル診断説明(LIME)と呼ばれる有名な方法に触発されている。LIMEは,インスタンスの周りに新しいデータを生成し,局所線形解釈可能なモデルを訓練することによって,単一インスタンスレベル説明を生成する。ALIMEは,サンプル周辺の新しいデータを重み付けするためにオートエンコーダを使用する。それにもかかわらず,ALIMEは,LIMEのように局所的に訓練される解釈可能なモデルとして線形モデルを使用する。本研究は,解釈可能なモデルとして,線形モデルの代わりにディシジョンツリーを使用する新しいアプローチを提案する。異なるデータセットに対する安定性,局所忠実度および解釈可能性の場合の提案モデルを評価した。ALIMEと比較して,実験は安定性および局所忠実度に関して有意な結果を示し,解釈可能性に関する結果を改善した。【JST・京大機械翻訳】