抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
自律車(AV)と事故は,人工知能(AI)の倫理を考慮する緊急の必要性に参加している。今までの議論を支配する疑問は,AVsが「利的または利実現的方法で振舞うことを望んでいるかどうかであった。イチリアリズムのような単一モラルシステムに関する自己駆動車のモデル化よりもむしろ,AIのためのプログラミングをアプローチする一つの可能な方法は,神経倫理における最近の研究を反映するであろう。AJOB Neurosci 5(4):3-20,2014a,Behav脳Sci 37(5):487-488,2014b)のエージェント-デ-コンシーケンス(ADC)モデル(DubljevicとRacine)は,AIでの実装にそれ自体を終える一方で,有望な記述的および規範的説明を提供する。。” (AJOB Neurosci 5(4):3-20,2014a,Behav Brain Sci 37(5):487-488,2014b)は有望な記述および規範的説明を提供する。ADCモデルは,エージェントの正または負の直感的評価にそれらを破ることによるモラル判断を説明し,与えられた状況における結果,および結果を説明した。これらの直感的評価は,モラル受容性の正または負の判断を生成する。例えば,もしエージェントが良好な意図を持ち,行動が良好な結果を持つならば,否定的(例えば,法律を破る)と判断された,ある状況におけるモラル受容性の全体的判断は緩和されるであろう。これは,AIにおいてまだ複製されていないヒトモラル判断のかなりの柔軟性と安定性を説明する。本論文は,ADCモデルを実行する利点と短所と,モデルがAIの倫理に関する将来の研究をいかに知らせるかを調べた。Copyright Springer Nature B.V. 2020 Translated from English into Japanese by JST.【JST・京大機械翻訳】