文献
J-GLOBAL ID:201702225162863987   整理番号:17A1592718

大規模画像コーパスを用いたビデオの捕捉【JST・京大機械翻訳】

資料名:
巻: 32  号:ページ: 480-493  発行年: 2017年 
JST資料番号: W0182A  ISSN: 1000-9000  CODEN: JCTEEM  資料種別: 逐次刊行物 (A)
記事区分: 原著論文  発行国: 中国 (CHN)  言語: 英語 (EN)
抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
ビデオキャプションは,ビデオデータに対して複雑な高レベル意味記述(例えば,文章またはパラログ)を割り当てるタスクである。ビデオアノテーション,ビデオイベント検出および行動認識のような従来のビデオ解析技術と異なり,ビデオキャプションはより小さな意味ギャップを有する人間認識に非常に近い。しかしながら,上記のビデオデータの不足は,ビデオキャプションの開発を厳しく制限する。本論文において,著者らは,豊富な知識を有する自由な利用可能な画像コーパスによって,ビデオを記述するために,新規ビデオキャプション方式を提案した。著者らのアプローチの2つの重要な側面がある。1)効果的な統合戦略は,ビデオと画像を橋渡しし,2)訓練データを増加させる際に高い効率性を持っている。これらの目標を達成するために,著者らは,効率的インデックスを効率的に索引付けするために,洗練された視覚ハッシング技術を採用して,データと対応する意味論を進化するために高い拡張性を有する,関連するキャプションのための大規模画像を探索した。様々な実世界の視覚データセットに関する広範な実験結果は,最新の方法と比較して,異なるハッシング技術,例えば,LSH(局所感受性ハッシング),PCA-ITQ(原理成分分析反復量子化)および教師つき離散ハッシングによる著者らのアプローチの有効性を示した。著者らの手法の経験的計算コストは既存の方法のそれよりはるかに低く,すなわち,メモリ要求の1/256,およびDevlinらの方法の時間コストの1/64であることを指摘することは価値がある。Data from Wanfang. Translated by JST【JST・京大機械翻訳】
シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。

準シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
, 【Automatic Indexing@JST】
分類 (2件):
分類
JSTが定めた文献の分類名称とコードです
図形・画像処理一般  ,  パターン認識 
タイトルに関連する用語 (4件):
タイトルに関連する用語
J-GLOBALで独自に切り出した文献タイトルの用語をもとにしたキーワードです

前のページに戻る