抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
深い畳込みニューラルネットワーク(CNN)は,視覚認識,畳込み層の活性化からの普遍的表現を学習する基本的な問題を果たすのための非常に効果的なことが証明されている。本論文では,変分オートエンコーダ(FV VAE)によるFisherベクトル符号化,深い生成モデルにおける畳込み層の局所活性化を量子化し,エンドツーエンド方式でのそれらを訓練することにより新しい深層アーキテクチャを提示した。FV符号化戦略深い生成モデルへ組み込むために,著者らは変分オートエンコーダモデル,標準的な確率的勾配法を用いて最適化直接できるニューラルネットワークにおける変分推論と学習を導入した。離散混合モデルを適合データ分布に簡潔にする従来の生成的モデル(例えば,Gauss混合モデル)によって特性化FVとは異なり,提案したFV VAEがより良い一般化のためのデータの特性を表現するためにもっと柔軟であった。ビデオ行動認識と細粒画像分類のコンテキストでの三の公共データ集合,すなわち,UCF101,ActivityNet,CUB-200 2011に実施した広範な実験。最新表現と比較した場合,優れた結果を報告した。最も注目すべきは,筆者らが提案したFV VAEはUCF101 94.2%に関する公表された最良の精度をこれまでを達成した。Copyright 2017 The Institute of Electrical and Electronics Engineers, Inc. All Rights reserved. Translated from English into Japanese by JST【Powered by NICT】