抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
ニューラルネットワークの信頼性は,不確実性を表現する能力がなく,それらのスキルを説明するので,しばしば挑戦される。これは,気候変動応用のような高 sの意思決定におけるニューラルネットワークの使用の増加に問題を与える。Bayesニューラルネットワーク(BNN)を成功裏に実装することによる問題を取り上げ,そこでは,パラメータが決定論的ではなく,説明可能なAI(XAI)技術の新しい実装を適用する。BNNからの不確実性解析は,古典的ニューラルネットワークからの予測よりも実務者のニーズに適切な予測の包括的な概観を提供する。BNN法を用いて,予測のエントロピー(すなわち不確実性)を計算し,結果の確率が統計的に有意であるかどうかを決定した。信頼性を高めるため,著者らはまた,Layer-way Revance Projectation(LRP)とSHapley Additive ExPlanation(SHAP)値の2つのXAI技術を空間的に適用した。これらのXAI法は,BNNが適切かつ/または信頼できる範囲を明らかにした。2つの技法を用いて,LRPがニューラルネットワークパラメータを考慮するので,BNNスキルとその不確実性のより全体的な見解を与えるが,SHAPは出力の変化を考慮する。物理的理論からの直感との比較を用いてこれらの技術を検証した。説明の違いは,新しい物理理論誘導研究が必要とされる可能性のある領域を同定する。【JST・京大機械翻訳】