文献
J-GLOBAL ID:201802243141821129   整理番号:18A0077626

畳込み将来回帰を用いた第一者ヒトビデオからの学習ロボット活性【Powered by NICT】

Learning robot activities from first-person human videos using convolutional future regression
著者 (2件):
資料名:
巻: 2017  号: IROS  ページ: 1497-1504  発行年: 2017年 
JST資料番号: W2441A  資料種別: 会議録 (C)
記事区分: 原著論文  発行国: アメリカ合衆国 (USA)  言語: 英語 (EN)
抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
非標識ヒト例ビデオからの新しい活動のロボット学習を可能にする新しいアプローチを設計した。ヒトの観点(すなわち,一人称ビデオ)から同じ活性を実行するヒトのビデオを考慮すれば,我々の目的は,ロボットはその将来回帰ネットワークとして活性の時間構造を学習し,それ自身の運動遂行のためのそのようなモデルを移動させるために学習させることである。新しい深層学習モデルを提案した:訓練ビデオ中の人間の手の表現/推定のための最新の畳込み物体検出ネットワークを拡張し,新たに将来フレーム(例えば,1~2秒後)に相当する中間シーン表現を回帰(すなわち,予測)に完全に畳込みネットワークを用いたの概念を導入した。これらの組合せは,ヒトの手と物体の将来位置の直接予測,ロボットは操作ネットワークを用いた運動制御計画を推定を可能にした。を実験的に提案アプローチでは,ラベル付けされていないヒト相互作用ビデオはできることからロボット行動の学習をすることを確認し,開発したロボットは,そのカメラ入力に基づく直接リアルタイムで学んだ共同活動を実行できることを示した。Copyright 2018 The Institute of Electrical and Electronics Engineers, Inc. All Rights reserved. Translated from English into Japanese by JST【Powered by NICT】
シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。

準シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
, 【Automatic Indexing@JST】
分類 (1件):
分類
JSTが定めた文献の分類名称とコードです
人工知能 

前のページに戻る