文献
J-GLOBAL ID:202102252483614780   整理番号:21A0671978

最初のMet:共ロボットランデブーのための視覚慣性人物位置決め【JST・京大機械翻訳】

When We First Met: Visual-Inertial Person Localization for Co-Robot Rendezvous
著者 (3件):
資料名:
巻: 2020  号: IROS  ページ: 10408-10415  発行年: 2020年 
JST資料番号: W2441A  資料種別: 会議録 (C)
記事区分: 原著論文  発行国: アメリカ合衆国 (USA)  言語: 英語 (EN)
抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
目標者の3D慣性測定の追加的センシングモダリティの支援により,ロボットを視覚的にターゲット者に位置決めすることを可能にする。このような技術の必要性は,ロボットが,最初に,または,自律的な車両が,前もって,人々の外観を知らなくても,クラウドの中でライダーでランデブーしなければならない場合,または,自律的な車両が,群衆に乗り合うとき,発生する可能性がある。人間の慣性情報を,スマートフォンのようなウェアラブルデバイスで測定することができ,ランデブーの間,自律システムと選択的に共有できる。ビデオ中の人の動きがウェアラブル慣性測定ユニット(IMU)で測定した動きに容易に整合できる視覚慣性特徴空間を学習する方法を提案した。関節特徴空間への2つのモダリティの変換は,関節特徴空間に近接する同じ人によって発生する慣性運動特性とビデオ運動特徴に力を与える三重項損失の利用を通して学習される。この手法を検証するために,ウェアラブルIMUデータと共に移動している人々の3,000以上のビデオセグメントのデータセットを構成した。提案手法は,IMUデータとビデオの5秒だけを用いて,様々な数の候補でテストデータで平均した80.7%の精度で,目標人を位置決めできることを示した。Copyright 2021 The Institute of Electrical and Electronics Engineers, Inc. All rights reserved. Translated from English into Japanese by JST.【JST・京大機械翻訳】
シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。

準シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
, 【Automatic Indexing@JST】
分類 (1件):
分類
JSTが定めた文献の分類名称とコードです
図形・画像処理一般 

前のページに戻る