プレプリント
J-GLOBAL ID:202202219513541461   整理番号:22P0300447

視覚デモンストレーションからの逐次操作タスクの感覚運動プリミティブの学習【JST・京大機械翻訳】

Learning Sensorimotor Primitives of Sequential Manipulation Tasks from Visual Demonstrations
著者 (4件):
資料名:
発行年: 2022年03月07日  プレプリントサーバーでの情報更新日: 2022年03月07日
JST資料番号: O7000B  資料種別: プレプリント
記事区分: プレプリント  発行国: アメリカ合衆国 (USA)  言語: 英語 (EN)
抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
本研究は,人によって実行されるタスクの少数の視覚実証を入力として,いくつかの,連続的に実行される低レベルサブタスクから成る複雑なロボット操作タスクを実行する方法の学習を目的とする。サブタスクは,タスク空間においてサブゴーラル領域に達するまでロボットのエンドエフェクタを移動させ,行動を実行し,事前条件を満たしたとき,次のサブタスクをトリガする。このドメインにおけるほとんどの先行研究は,ボールをヒットするか,あるいは物体に到達し,それを把持するような低レベルタスクだけの学習に関心がある。本論文では,低レベルポリシーを学習するための新しいニューラルネットワークベースフレームワークと,次に,シーンにおける他のオブジェクトに対してそれを置くためのオブジェクトが,次のか,あるいは,それどこに位置するかを決定するような高レベルポリシーについて述べる。提案アプローチの重要な特徴は,ポリシーがタスク実証の生ビデオから直接学習され,データの手動アノテーションや後処理無しに学習することである。ロボットアームによるオブジェクトマニピュレーションタスクに関する経験的結果は,提案したネットワークがタスクを遂行するために実際の視覚実証から効率的に学習でき,一般的な模倣学習アルゴリズムより優れていることを示した。【JST・京大機械翻訳】
シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。

準シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
, 【Automatic Indexing@JST】
分類 (2件):
分類
JSTが定めた文献の分類名称とコードです
ロボットの運動・制御  ,  人工知能 

前のページに戻る