文献
J-GLOBAL ID:202002282679046930   整理番号:20A0334631

OpenMPR:視覚障害者のためのマルチモーダルデータを用いた場所の認識【JST・京大機械翻訳】

OpenMPR: Recognize places using multimodal data for people with visual impairments
著者 (4件):
資料名:
巻: 30  号: 12  ページ: 124004 (11pp)  発行年: 2019年 
JST資料番号: C0354C  ISSN: 0957-0233  CODEN: MSTCEP  資料種別: 逐次刊行物 (A)
記事区分: 原著論文  発行国: イギリス (GBR)  言語: 英語 (EN)
抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
位置認識はナビゲーション支援において重要な役割を果たし,補助技術においても挑戦的な課題である。場所認識は,データベースと質問画像の間の様々な変化のために,誤った位置確認の傾向がある。視覚障害者のための着用可能な補助装置に照準を定めて,著者らはオープンソースの位置認識アルゴリズム(OpenMPR)を提案して,それは位置認識の挑戦的問題に取り組むためにマルチモーダルデータを利用した。従来の位置認識と比較して,提案したOpenMPRは複数の効果的記述子を活用するだけでなく,画像マッチングにおけるそれらの記述子に異なる重みを割り当てる。アルゴリズムにGNSSデータを組み込んで,円錐ベースのシーケンス検索をロバストな場所認識のために使用した。実験は,提案したアルゴリズムが実世界シナリオにおける場所認識問題を解決し,補助ナビゲーション性能に関して最先端のアルゴリズムを凌ぐことを示した。実世界試験データセットにおいて,オンラインOpenMPRは照明変化なしで100%の再生で88.7%の精度を達成し,照明変化により99.3%の再現で57.8%の精度を達成した。OpenMPRはhttps://github.com/chengricky/OpenMultiPRで利用可能である。Please refer to the publisher for the copyright holders. Translated from English into Japanese by JST.【JST・京大機械翻訳】
シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。

準シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
, 【Automatic Indexing@JST】
分類 (2件):
分類
JSTが定めた文献の分類名称とコードです
長さ,面積,断面,体積,容積,角度の計測法・機器  ,  図形・画像処理一般 
タイトルに関連する用語 (2件):
タイトルに関連する用語
J-GLOBALで独自に切り出した文献タイトルの用語をもとにしたキーワードです

前のページに戻る