抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
都市シナリオにおける視覚ベース意味論的セグメンテーションを自律運転のための重要な機能である。深い畳込みニューラルネットワーク(DCNN)の最近の革新的結果は,信頼性のある分類器の出現を予見させるそのような視覚タスクを実行した。しかし,DCNNはクラスアノテーションを持つ十分な量の多様な画像を有し,そのために,原画像から多くのパラメータの学習が必要である必要である。ピクセルレベルアノテーションが必要であるので,これらのアノテーションである意味的セグメンテーションのための特に興味深いものである面倒な,人間労働により得た。本論文では,ピクセルレベルアノテーションを持つ現実的な合成画像を自動的に生成する仮想世界を用いることを提案した。は,そのようなデータは,意味的セグメンテーションのための特にできる有用性の問題に取り組む,DCNNパラダイムを用いた。この疑問に答えるために,筆者らはシンシアと命名した多様な都市画像自動生成されたクラスアノテーションの合成捕集を作成した。手動注釈間の公的に利用可能な実世界都市画像と組み合わせたシンシアを用いた。,訓練段階でシンシアを含めることは,意味的セグメンテーションタスクの性能を大幅に改善する方法を示すDCNNを用いた実験を行った。Copyright 2016 The Institute of Electrical and Electronics Engineers, Inc. All Rights reserved. Translated from English into Japanese by JST【Powered by NICT】