抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
ビジョンからの距離推定は,ナビゲーション,マニピュレーション,および計画のようなロボットアプリケーションの無数にとって基本的である。特定の物体で注視する哺乳類の視覚システムによって触発されて,著者らは,τ制約とΦ制約と呼ぶ時間対接触,加速度,および距離に関する2つの新規制約条件を開発する。それらは,画像の小部分のみを用いて,有効かつ正確に深さを推定するためのアクティブ(移動)カメラを可能にする。制約は,範囲センシング,センサ融合,および視覚サーボに適用できる。2つの実験で提案した制約を成功裏に検証した。第一は,単眼カメラと慣性測定ユニット(IMU)による軌道推定タスクにおける制約の両方を適用する。提案手法では,一般的なVisual-Inerital Odometric法VINS-MonoおよびROVIOよりも,それぞれ25×および6.2×高速走行しながら30~70%少ない平均軌道誤差を達成した。第2の実験は,制約が推論コピーによるフィードバックのために使用されるとき,得られた閉ループシステムの固有値が適用した制御信号のスケーリングに不変であることを示した。これらの結果は,多数のロボット応用に対するロバストで効率的なアルゴリズムの基礎として,τとΦの制約の可能性を示す。【JST・京大機械翻訳】