プレプリント
J-GLOBAL ID:202202201909732107   整理番号:22P0301399

より良い人間自動車追従モデルのための両側深層強化学習アプローチ【JST・京大機械翻訳】

Bilateral Deep Reinforcement Learning Approach for Better-than-human Car Following Model
著者 (4件):
資料名:
発行年: 2022年03月03日  プレプリントサーバーでの情報更新日: 2022年10月03日
JST資料番号: O7000B  資料種別: プレプリント
記事区分: プレプリント  発行国: アメリカ合衆国 (USA)  言語: 英語 (EN)
抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
今後数十年間,自律車両(AV)はますます普及し,自動化と連結性を利用するより安全でより便利な旅行と潜在的にスマートな交通制御方法の新しい機会を提供している。自動車追従は自律運転における主要な機能である。強化学習に基づく自動車は,学習の目標と人間に匹敵する性能レベルの達成により近年注目されている。しかし,ほとんどの既存のRL法モデル自動車は,片側問題として追従し,車両のみを感知する。しかし,最近の文献は,WangとHorn[16]は,車両が先行する車両と車両背後の車両がより良いシステム安定性を示すことを示した。本論文では,このバイラテラル自動車追従を,RLを用いて学習でき,一方,効率最大化,ジャーク最小化,および安全報酬のような他の目標を学習し,人間の運転を凌駕する学習モデルに導くと仮定した。自動車追従制御のためのバイラテラル制御モデル(BCM)に基づく状態および報酬関数の両者にバイラテラル情報を統合することによって,自動車のための深い強化学習(DRL)フレームワークを提案し,導入した。さらに,分散マルチエージェント強化学習フレームワークを用いて,各エージェントに対する対応制御行動を生成した。著者らのシミュレーション結果は,著者らの学習された政策が,(a)車間ヘッドウェイ,(b)平均速度,(c)ジャーク,(d)時間対衝突(TTC),および(e)ストリング安定性に関して,人間の運転政策より良好であることを証明した。【JST・京大機械翻訳】
シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。

準シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
, 【Automatic Indexing@JST】
分類 (1件):
分類
JSTが定めた文献の分類名称とコードです
運転者 
タイトルに関連する用語 (3件):
タイトルに関連する用語
J-GLOBALで独自に切り出した文献タイトルの用語をもとにしたキーワードです

前のページに戻る