抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
近年のディープニューラルネットワークモデルは,画像字幕タスク上で有望な結果を達成したが,それらは文脈におけるオブジェクトを記述するために対画像と文章字幕付きコーパスの利用可能性に大きく依存している。本研究では,対imagesentenceデータセットには存在しない新しい物体の記述を生成する課題に対処するために深い組成Captioner(DCC)を提案した。著者らの方法は,大きな物体認識データセットと外部テキストコーパスを活用することにより,意味論的に類似した概念間の知識を移すことによってこれを達成した。電流深字幕モデルは対画像文章コーパスに含まれるオブジェクトを記述し,それらが大きな物体認識データセット,すなわちImageNetと事前訓練されたという事実にもかかわらずだけである。とは対照的に,著者らのモデルは他のオブジェクトと新規物体およびそれらの相互作用を記述する文章を構成することができる。MSCOCOに対するその性能を評価する経験的にによる新規概念を記述するためのこのモデルの能力を実証し,対画像文章データは存在しない物体のImageNet画像上での定性的結果を示した。さらにこの手法を拡張ビデオクリップの中のオブジェクトの記述を生成する。著者らの結果は,DCCは文脈における新しい物体の記述を生成するための既存の画像とビデオ字幕アプローチに勝る明確な利点を持つことを示した。Copyright 2016 The Institute of Electrical and Electronics Engineers, Inc. All Rights reserved. Translated from English into Japanese by JST【Powered by NICT】