抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
自動画像アノテーション法は,画像探索,検索,および組織化システムのために非常に有益である。,意味論的ギャップと呼ばれる,セマンティック概念と視覚的特徴の間の厳密な相関の欠如は,注釈システムのための大きな課題である。本論文では,著者らは内因性および外因性両方のソースから収集した文脈的キューを組み込んだ画像に,意味論的ギャップを埋めることが画像アノテーションモデルを提案した。本論文の主な焦点は,収集したニュース画像の大規模実世界データ集合である。標準画像アノテーションベンチマークデータセットとは異なり,著者らのデータセットは,データ収集後の人工グランドトルース記述を生成するための人の人間の注釈者必要とせず,著者らの画像は既に名の記者が書いた文脈的に意味のあるおよび実世界字幕を含むからである。この実世界データセットにおける画像記述の性質を十分に研究した。ニュース画像キャプションは映像コンテンツと画像のコンテキストの両方を記述した。補助情報源は,ニュース記事とメタデータ(例えば,キーワードとカテゴリ)の形でこのような画像をも得ることができる。提案したフレームワークは,異なるデータモダリティの利用可能なソースから文脈手がかりを抽出し,共通表現空間,すなわち,確率空間に変換する。予測されたアノテーションはニュース記事に適用した抽出枠組みによる文のような字幕に変換した。文脈駆動フレームワークは約20000項目の収集されたデータセットだけでなく,以前に利用可能な小さいニュース映像データセットに関する技術の状態よりも優れていた。Copyright 2016 The Institute of Electrical and Electronics Engineers, Inc. All Rights reserved. Translated from English into Japanese by JST【Powered by NICT】