文献
J-GLOBAL ID:201902264672113811   整理番号:19A1961849

リスクを回避するロバストな敵対強化学習【JST・京大機械翻訳】

Risk Averse Robust Adversarial Reinforcement Learning
著者 (4件):
資料名:
巻: 2019  号: ICRA  ページ: 8522-8528  発行年: 2019年 
JST資料番号: W2441A  資料種別: 会議録 (C)
記事区分: 原著論文  発行国: アメリカ合衆国 (USA)  言語: 英語 (EN)
抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
深い強化学習は,コンピュータゲームとロボット制御タスクの解決において最近著しい進歩を遂げた。しかし,知られている問題は,政策が訓練環境に適合し,自動車事故のようなまれで壊滅的なイベントを避けることができないということである。強化学習アルゴリズムのロバスト性を改善するための古典的手法は,ランダム化された環境の集合上で訓練することであるが,このアプローチは一般的な状況に対してのみ保護する。最近,ロバストな敵強化学習(RARl)が開発され,訓練された敵によるランダムで系統的な摂動の効率的な応用が可能になった。RARlの限界は,期待される制御目的だけが最適化されることである。リスクの明示的モデリングまたは最適化はない。従って,エージェントは,期待される目的に対するそれらの影響を除いて,壊滅的イベント(すなわち,異常に大きな負の報酬を誘導する)の確率を考慮しない。本論文では,リスク回避プロタアゴニストとリスク探索敵を用いて,リスク回避型ロバスト敵強化学習(RARARL)を導入した。自己駆動車両制御装置に関する著者らのアプローチを試験した。価値関数の分散としてリスクをモデル化するために,政策ネットワークの集合を用いた。著者らは,リスク回避エージェントが,リスク探索敵を扱うためにより良く装備されていることを実験を通して示し,また,攻撃者なしで訓練されたエージェントと比較して,実質的に少ない衝突を経験した。補助材料はhttps://sites.google.com/view/rararlで利用可能である。Copyright 2019 The Institute of Electrical and Electronics Engineers, Inc. All rights reserved. Translated from English into Japanese by JST.【JST・京大機械翻訳】
シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。

準シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
, 【Automatic Indexing@JST】
分類 (1件):
分類
JSTが定めた文献の分類名称とコードです
図形・画像処理一般 
タイトルに関連する用語 (5件):
タイトルに関連する用語
J-GLOBALで独自に切り出した文献タイトルの用語をもとにしたキーワードです

前のページに戻る