プレプリント
J-GLOBAL ID:202202218537283815   整理番号:22P0292648

ロボット姿勢予測のためのトップダウンとボトムアップ情報の間の相互作用に基づく誘導視覚注意モデル【JST・京大機械翻訳】

Guided Visual Attention Model Based on Interactions Between Top-down and Bottom-up Information for Robot Pose Prediction
著者 (4件):
資料名:
発行年: 2022年02月21日  プレプリントサーバーでの情報更新日: 2022年10月24日
JST資料番号: O7000B  資料種別: プレプリント
記事区分: プレプリント  発行国: アメリカ合衆国 (USA)  言語: 英語 (EN)
抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
深いロボットビジョンモデルは,カメラ画像から物体を認識するのに広く用いられているが,訓練されていない位置で物体を検出するとき,貧弱な性能を示した。このような問題は大規模データセットによる訓練により軽減できるが,データセット収集コストは無視できない。既存の視覚注意モデルは,タスク関連画像領域を抽出するために学習するデータ効率的構造を採用することによって問題に取り組んだ。しかし,モデルは訓練後の注意目標を修正できないので,動的に変化するタスクに適用することは難しい。本論文では,新しい鍵-Query-Value定式化視覚注意モデルを提案した。本モデルは,Query表現,すなわちトップダウン注意の外部修正によって,注意目標を切り替えることができる。提案モデルをシミュレータと実世界環境上で実験した。このモデルを,シミュレータ実験で既存のエンドツーエンドロボットビジョンモデルと比較し,より高い性能とデータ効率を示した。実世界ロボット実験では,このモデルはスケーラビリティと拡張性とともに高精度を示した。【JST・京大機械翻訳】
シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。

準シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
, 【Automatic Indexing@JST】
分類 (4件):
分類
JSTが定めた文献の分類名称とコードです
視覚  ,  視覚モデル  ,  パターン認識  ,  ロボットの運動・制御 

前のページに戻る