抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
深層ニューラルネットワークにおける注意メカニズムは予測出力を生成するために時間情報の最も重要な部品に焦点を当てた連続ヒト注目に触発されている。モデルにおける注意パラメータは,エンドツーエンド的に訓練された暗黙,明示的に注意モデルを監視するための人間の凝視追跡を組み込むために試験はほとんどされていない。本論文では,注意モデルは,明示的な人間の凝視ラベル,特にビデオ字幕のタスクから利益を得ることができるかどうかを調べた。VASと呼ばれる新しいデータセット,映画クリップから成ると人間の凝視追跡データと共に対応する多重記述文を収集した。文生成のための空間的および時間的注意を提供するために,視線追跡情報を活用できることを注視をコードする注意ネットワーク(GEAN)と命名したビデオ字幕モデルを提案した。アマゾン機械的Turkによる言語類似性計量とヒトの評価の評価を通して,筆者らは人間の凝視データにより誘導された空間上の留意点が実際に複数の字幕法の性能を改善することを実証した。さらに著者らは,提案した方法は,著者らのVASデータセットだけでなく,標準データセット(例えばLSMDC[24]とHollywood2[18])における凝視予測とビデオ字幕の両方のための最先端の性能を達成することを示した。Copyright 2017 The Institute of Electrical and Electronics Engineers, Inc. All Rights reserved. Translated from English into Japanese by JST【Powered by NICT】