文献
J-GLOBAL ID:202002264481905548   整理番号:20A2145021

学習前に学習するための学習:マニピュレーションのための視覚的プレトレーニング【JST・京大機械翻訳】

Learning to See before Learning to Act: Visual Pre-training for Manipulation
著者 (5件):
資料名:
巻: 2020  号: ICRA  ページ: 7286-7293  発行年: 2020年 
JST資料番号: W2441A  資料種別: 会議録 (C)
記事区分: 原著論文  発行国: アメリカ合衆国 (USA)  言語: 英語 (EN)
抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
視覚事前(例えば,物体を検出する能力)を有するDoesは,視覚ベースの操作(例えば,オブジェクトをピックアップする)を実行するための学習を促進する。移動学習の枠組みの下でこの問題を研究し,そこでは,モデルをまず受動ビジョンタスク(即ち,データ配布はエージェントの決定に依存しない)で訓練し,次に,アクティブマニピュレーションタスク(即ち,データ配布はエージェントの決定に依存する)を実行するように適応させた。視覚タスクに関する事前訓練は,オブジェクトを操作するための学習のための一般化とサンプル効率を著しく改善することを見出した。しかし,これらの利得の実現には,モデルの一部を転送する注意深い選択が必要である。重要な洞察は,標準ビジョンモデルの出力が操作で一般的に使用されるアフォーダンスマップと高度に相関するということである。したがって,著者らは,視覚ネットワークからアフォーダンス予測ネットワークへの直接移動モデルパラメータを調査して,ロボットがゼロロボット経験で特定のオブジェクトをピックアップできる,成功したゼロショット適応をもたらすことができることを示す。ほんの少量のロボット経験によって,より良い結果を達成するためにアフォーダンスモデルをさらに微調整することができた。吸引経験の10分または把持経験の1時間によって,著者らの方法は,新しい対象物を採取する際に~80%の成功率を達成した。Copyright 2020 The Institute of Electrical and Electronics Engineers, Inc. All rights reserved. Translated from English into Japanese by JST.【JST・京大機械翻訳】
シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。

準シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
, 【Automatic Indexing@JST】
分類 (2件):
分類
JSTが定めた文献の分類名称とコードです
パターン認識  ,  図形・画像処理一般 
タイトルに関連する用語 (3件):
タイトルに関連する用語
J-GLOBALで独自に切り出した文献タイトルの用語をもとにしたキーワードです

前のページに戻る