抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
本論文では,ビデオベース人物再認識のための空間-時間フュージョン特徴を自動的に学習する新しい深いエンドツーエンドネットワークを提案した。具体的には,提案したネットワークは,空間と入力画像系列の時間的特徴の両方を学ぶ一緒にCNNとRNNから構成されている。ネットワークが同一人物近くの例をプルと異なる人の事例を離れへの連接とソフトマックス損失を利用した同時に最適化した。筆者らのネットワークは,全体的および局所的展望からの相補的表現を学習するためにそれぞれ全身と部分体画像系列上で訓練される。それらを組み合わせることにより,人物再同定に有益であることを,より差別的な特徴を得た。PRID2011,i LIDS VISとMARSデータセット上で行った実験は,提案した方法が既存のアプローチと対照して,順調に機能することを示した。Copyright 2017 The Institute of Electrical and Electronics Engineers, Inc. All Rights reserved. Translated from English into Japanese by JST【Powered by NICT】