文献
J-GLOBAL ID:201602273026503055   整理番号:16A1384559

深部組成キャプション付け:対訓練データを用いない新しい記述オブジェクトカテゴリー【Powered by NICT】

Deep Compositional Captioning: Describing Novel Object Categories without Paired Training Data
著者 (6件):
資料名:
巻: 2016  号: CVPR  ページ: 1-10  発行年: 2016年 
JST資料番号: W2441A  資料種別: 会議録 (C)
記事区分: 原著論文  発行国: アメリカ合衆国 (USA)  言語: 英語 (EN)
抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
近年のディープニューラルネットワークモデルは,画像字幕タスク上で有望な結果を達成したが,それらは文脈におけるオブジェクトを記述するために対画像と文章字幕付きコーパスの利用可能性に大きく依存している。本研究では,対imagesentenceデータセットには存在しない新しい物体の記述を生成する課題に対処するために深い組成Captioner(DCC)を提案した。著者らの方法は,大きな物体認識データセットと外部テキストコーパスを活用することにより,意味論的に類似した概念間の知識を移すことによってこれを達成した。電流深字幕モデルは対画像文章コーパスに含まれるオブジェクトを記述し,それらが大きな物体認識データセット,すなわちImageNetと事前訓練されたという事実にもかかわらずだけである。とは対照的に,著者らのモデルは他のオブジェクトと新規物体およびそれらの相互作用を記述する文章を構成することができる。MSCOCOに対するその性能を評価する経験的にによる新規概念を記述するためのこのモデルの能力を実証し,対画像文章データは存在しない物体のImageNet画像上での定性的結果を示した。さらにこの手法を拡張ビデオクリップの中のオブジェクトの記述を生成する。著者らの結果は,DCCは文脈における新しい物体の記述を生成するための既存の画像とビデオ字幕アプローチに勝る明確な利点を持つことを示した。Copyright 2016 The Institute of Electrical and Electronics Engineers, Inc. All Rights reserved. Translated from English into Japanese by JST【Powered by NICT】
シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。

準シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
, 【Automatic Indexing@JST】
分類 (1件):
分類
JSTが定めた文献の分類名称とコードです
パターン認識 

前のページに戻る