文献
J-GLOBAL ID:201802260718661629   整理番号:18A1853807

多視点の視覚センサフィードバックを用いた深層学習による物体認識と掬い動作の生成

著者 (6件):
資料名:
巻: 36th  ページ: ROMBUNNO.2E2-03  発行年: 2018年09月04日 
JST資料番号: L4867A  資料種別: 会議録 (C)
記事区分: 短報  発行国: 日本 (JPN)  言語: 日本語 (JA)
抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
料理や家事などの家庭内のタスクをロボットが行うには,厳密な動作の設計を必要としないLearning from Demonstration(LfD)という手法が有効である。本研究では,バイラテラル遠隔操作システムにより,データを取得し深層学習により視覚情報とロボットの動作の対応付けを行うことで,動作を予測するシステムを提案する。さらに,複数の方向から視覚センサで画像を取得するシステムを新たに開発し,視点が動作の結果に及ぼす影響を調査する。(著者抄録)
シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。

準シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。

分類 (1件):
分類
JSTが定めた文献の分類名称とコードです
ロボットの運動・制御 
引用文献 (7件):
  • B. D. Argall, S. Chernova, M. Veloso, and B. Browning,“A survey of robot learning from demonstration,” Robotics and Autonomous Systems, vol. 57, no. 5, pp. 469483, 2009.
  • P.Yang, T. Ogata et al. ′′Repeatable folding task by humanoid robot worker using deep learning.′′ IEEE Robotics and Automation Letters 2.2, pp. 397-403, 2017.
  • R. Rahmatizadeh, P. Abolghasemi, L. B?l?n, and S. Levine, “Visionbased multi-task manipulation for inexpensive robots using end-to-end learning from demonstration,” arXiv preprint arXiv:1707.02920, 2017.
  • H. Ochi, W. Wan et al. ′′Deep Learning Scooping Motion using Bilateral Teleoperations′′, IEEE International Conference on Advanced Robotics and Mechatronics (ICARM), 2018.
  • Ko, Woori, et al. ′′Deep Learning-based Behavior Generation for Social Robots.′′ (2018).
もっと見る
タイトルに関連する用語 (5件):
タイトルに関連する用語
J-GLOBALで独自に切り出した文献タイトルの用語をもとにしたキーワードです

前のページに戻る