抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
強化学習(RL)は,自律エージェントにおける安全,倫理的,または法的行動の工学のためのツールとして有望性を示している。その使用は,通常,不安全または非倫理的選択を構成する状態行動対に罰を割り当てることに依存している。しかし,このアプローチにおける重要なステップであるにもかかわらず,プニッシュ選択のプロセスを一般化し,それを適用するための決定に関する議論は限られている。本論文では,既存のフレームワーク,すなわち(Neufeld et al., 2021) - 訓練の規範的監督者を利用するアプローチを採用した。この規範的監督者は,動的に状態および適用可能な規範システムを爆破可能なデノティック論理理論に利用し,これらの理論を定理証明者に送り,そして,エージェントに罰を割り当てるかどうかを決定するために導いた結論を使用する。多目的RL(MORL)を用いて,非倫理的目的による違反を回避する倫理的目的のバランスをとる。著者らは,著者らのアプローチがMORL技術の多重度のために機能し,それが割り当てられた罰の大きさに関係なく有効であることを示した。【JST・京大機械翻訳】