文献
J-GLOBAL ID:202202219428168508   整理番号:22A0958771

OpenMPD:自律運転のためのオープンマルチモーダル知覚データセット【JST・京大機械翻訳】

OpenMPD: An Open Multimodal Perception Dataset for Autonomous Driving
著者 (8件):
資料名:
巻: 71  号:ページ: 2437-2447  発行年: 2022年 
JST資料番号: C0244A  ISSN: 0018-9545  CODEN: ITVTAB  資料種別: 逐次刊行物 (A)
記事区分: 原著論文  発行国: アメリカ合衆国 (USA)  言語: 英語 (EN)
抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
マルチモーダルセンサ融合技術は自律運転の開発を促進してきたが,複雑な環境における知覚は挑戦的な問題である。問題に取り組むために,著者らは,難しい用例で対象とするマルチモーダル知覚ベンチマークであるOpenマルチモーダル知覚データセット(OpenMPD)を提案した。既存のデータセットと比較して,OpenMPDは,過曝露または暗,混雑した環境,非構造化道路および交差点を有する都市域において,それらの複雑な交通場面に,より多くの焦点を合わせた。それは,360度視野のために6つのカメラと4つのLiDARを有する車両を通してマルチモーダルデータを得て,10Hzで20Hzとポイントクラウドで20秒の同期画像の180のクリップを収集した。特に,3D環境とセンサ融合をより良く理解するためにHi-Res点雲を提供するために128ビームLiDARを適用した。2D/3Dオブジェクト検出,3Dオブジェクトトラッキング,および2Dセマンティックセグメンテーションを含むアノテーションのために,クリップから15Kキーフレームを,同じ間隔でサンプリングした。さらに,アルゴリズムを評価し,OpenMPD上の2D/3D検出とセグメンテーションの広範な実験を行うために,すべてのタスクに対して4つのベンチマークを提供した。データおよびさらなる情報は,http://www.openmpd.com/で利用可能である。Copyright 2022 The Institute of Electrical and Electronics Engineers, Inc. All rights reserved. Translated from English into Japanese by JST.【JST・京大機械翻訳】
シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。

準シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
, 【Automatic Indexing@JST】
分類 (3件):
分類
JSTが定めた文献の分類名称とコードです
移動通信  ,  電気自動車  ,  無線通信一般 
タイトルに関連する用語 (4件):
タイトルに関連する用語
J-GLOBALで独自に切り出した文献タイトルの用語をもとにしたキーワードです

前のページに戻る