抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
本論文では,ロボットにより2次元カメラを移動させ,正確なカメラ追跡を証明し,初期オブジェクト境界ボックスを定義するために拡張現実ペン(ARP)を用いて,最小人間介入で大規模なラベル付けデータ集合を生成する,拡張現実半自動ラベリング(ARS)を提案した。人間から注釈されたデータを生成する負担を取り除くことによって,著者らは,コンピュータビジョンに適用される深い学習技術を作る。それは,典型的に非常に大きいデータセットを必要として,本当に自動化されて,信頼できる。ARSパイプラインを用いて,2つの新しいデータセットを効率的に作成した。1つは電気機械部品(工業的シナリオ)と他の2つの最新のオブジェクト検出器について,1回だけ(Yolo)と単一ショット検出器(SSD)のような畳込みニューラルネットワークに基づいている。10時間をわずかに超える1000フレームの従来の手動アノテーションに関して,ARSに基づく提案アプローチは,約450の利得因子で,約35000フレームの9つのシーケンスを1時間以内に注釈することを可能にした。さらに,物体検出の精度と再現性の両方が手動ラベリングに関して約15%増加した。すべてのソフトウェアは,新しい注釈付きデータセットに沿った公共リポジトリにおけるロボットオペレーティングシステム(ROS)パッケージとして利用可能である。この論文は,現代の深いニューラルネットワークのようなデータ駆動モデルを訓練するために使用可能なデータセットの生成のための簡単で効果的な解の欠如により動機付けされ,産業環境でアクセスできるようにした。具体的には,深い学習ロボット誘導ビジョンシステムは,システム再構成可能性が基本的な要件である実際の使用事例にとって,あまりにも高価で実用的でないような大量の人手でラベルされた画像を必要とする。一方,特に産業用ロボットの分野において,画像ラベリングのコストはほとんどゼロに低減でき,その結果,非常に高い性能(実験結果により実証されるように)の自己再構成システムの道を開くことができる。このアプローチの限界の一つは,パイプライン(ARPまたはグラフィカルインタフェイス)の予備段階における関心のある物体の検出のための手動法を用いることである。協調ロボットの分野に関連する実行可能な拡張は,ロボット自身を利用するために使用することができ,この予備的段階に対しても,ユーザにより手動で移動し,不正確さの源を除去することができた。Copyright 2020 The Institute of Electrical and Electronics Engineers, Inc. All rights reserved. Translated from English into Japanese by JST.【JST・京大機械翻訳】