抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
生の視覚観察を行動に写像することを目的とする,深い視覚運動政策学習は,ロボット操作や自律運転のような制御タスクにおいて有望な結果を達成する。しかし,それは訓練環境との膨大な数のオンライン相互作用を必要とし,その実世界アプリケーションを制限する。視覚認識のための一般的な教師なし特徴学習と比較して,視覚運動制御タスクのための特徴予訓練は,あまり調査されていない。本研究では,時間長非発生YouTubeビデオを見ることにより,運転タスクに対するポリシー表現をプレトレインすることを目指した。特に,少量のラベル付きデータで逆動的モデルを訓練し,全てのYouTubeビデオフレームに対する行動ラベルを予測するためにそれを使用した。次に,擬似行動ラベルを持つビデオフレームから行動条件付け特徴を学習するために,新しい対照的な政策予訓練法を開発した。実験は,得られた行動条件付け特性が,下流強化学習と模倣学習タスクに対して実質的な改善を得て,以前の教師なし学習方法とImageNet事前訓練重みから事前訓練された重みを凌駕することを示した。コード,モデル重み,およびデータはhttps://metadriverse.github.io/ACOで利用可能である。【JST・京大機械翻訳】