抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
最近のかなりの進歩にもかかわらず,利用可能な最善のコンピュータビジョンアルゴリズムはまだヒト能力の背後にあるまで遅れ,いろいろな姿勢,照明,背景下で個々の離散物体を認識する。ディープネットワーク学習を改善するためのオブジェクト姿勢情報を利用した新しいアプローチを提案した。既存の大規模データセット,例えばImageNet,姿勢情報を持っていないが,著者らは,iLab20M,異なる照明,カメラ視点とターンテーブル回転の下でのショット704オブジェクトインスタンスの22m画像を持つ,新しく発表されたターンテーブルデータセットは,より制御された物体認識実験を実施するために利用する。新しい畳込みニューラルネットワークアーキテクチャ,直鎖フィードフォワードCNN(例えば,AlexNet)上に構築された,CNN(2W CNN)を対象姿勢により正則化された階層的層により増大する,を導入した。姿勢情報は,訓練中のフィードバック信号として用い,カテゴリー情報に加えてのみであるが,試験中に必要ではない。アプローチを検証するために,著者らはデータセットの一部を用いて両2W CNNとAlexNetを訓練し,2W CNNはカテゴリー予測における6%の性能向上を達成した。2W CNNは確率的勾配降下法(SGD)最適化手順の下でAlexNetに比べて固有の利点を持つことを数学的に示した。iLab20Mにpretrained2W CNNとAlexNet特徴を用いてImageNetに物体認識を微調整,結果はスクラッチからAlexNet訓練と比較して有意な改善を示した。さらに,微調整2W CNNの特徴はpretrained AlexNet特徴を微調整よりも優れた性能を示した。これらの結果は,iLab20Mにpretrained特徴は自然画像データセットに一般化し,2W CNNはAlexNetよりも物体認識のためのより良い特徴を学習することを示した。Copyright 2017 The Institute of Electrical and Electronics Engineers, Inc. All Rights reserved. Translated from English into Japanese by JST【Powered by NICT】