文献
J-GLOBAL ID:202202285816746112   整理番号:22A0630591

FusionLane:深層ニューラルネットワークを用いた車線マーキングセマンティックセグメンテーションのためのマルチセンサフュージョン【JST・京大機械翻訳】

FusionLane: Multi-Sensor Fusion for Lane Marking Semantic Segmentation Using Deep Neural Networks
著者 (6件):
資料名:
巻: 23  号:ページ: 1543-1553  発行年: 2022年 
JST資料番号: W1272A  ISSN: 1524-9050  CODEN: ITISFG  資料種別: 逐次刊行物 (A)
記事区分: 原著論文  発行国: アメリカ合衆国 (USA)  言語: 英語 (EN)
抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
車線マーキングの効果的意味セグメンテーションは,高精度車線レベルマップの構築に重要である。近年,画像の意味論的セグメンテーションのための多くの異なる方法が提案されてきた。これらの方法は,センサ自体による限界のために,カメラ画像の分析に主に集中し,従って,車線レベルマップ構築を妨げる車線マーキングの正確な三次元空間位置を得ることができなかった。本論文は,深層ニューラルネットワークを用いたLIDARとカメラ画像融合に基づく車線マーキング意味セグメンテーション法を提案した。このアプローチでは,セマンティックセグメンテーションの対象は,カメラで捉えられた画像の代わりに,LIDARポイントクラウドから変換された鳥のアイビューである。最初に,DeepLabV3+ネットワーク画像分割法を用いて,カメラによって捕捉された画像をセグメント化し,次に,セグメンテーション結果を,提案したネットワークの入力としてLIDARによって収集した点雲と併合した。長い短期メモリ(LSTM)構造をニューラルネットワークに追加して,時系列情報の利用を可能にすることにより車線マーキングの意味セグメンテーションにおけるネットワークを支援した。手動でラベル付けされ,拡張された14000以上の画像を含むデータセットに関する実験は,提案方法が鳥のアイビューLIDARポイントクラウドの正確な意味セグメンテーションを提供することを示した。その結果,高精度地図構築の自動化は,著しく改良することができた。このコードはhttps://github.com/rolandying/FusionLaneで利用可能である。Copyright 2022 The Institute of Electrical and Electronics Engineers, Inc. All rights reserved. Translated from English into Japanese by JST.【JST・京大機械翻訳】
シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。

準シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
, 【Automatic Indexing@JST】
分類 (2件):
分類
JSTが定めた文献の分類名称とコードです
パターン認識  ,  図形・画像処理一般 
タイトルに関連する用語 (3件):
タイトルに関連する用語
J-GLOBALで独自に切り出した文献タイトルの用語をもとにしたキーワードです

前のページに戻る