抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
制約なしビデオにおけるイベント検出は二方法:テキストと視覚を用いたコンテンツベースのビデオ検索として考えられた。新しい事象を記述するテキストが与えられた時,目標はそれに応じて関連するビデオをランク付けすることである。課題である零典型,ビデオ例を新しいイベントに与えられたものでなかった。関連研究は,外部データ源の概念検出器のバンクを訓練した。これらの検出器は試験ビデオのための確信度スコア,ランク付けし検索することを予測した。とは対照的に,視覚およびテキスト表現が埋め込まれている関節空間を学習する。空間を予め定義された事象の確率としての新規事象を投げかける。また,事象とそれに関連したビデオ間の距離を測定するために学習する。著者らのモデルは,公的に利用可能なEventNetにエンドツーエンド訓練した。TRECVIDマルチメディアイベント検出データセットに適用した場合,それはかなりの縁による最新技術を上回った。Copyright 2017 The Institute of Electrical and Electronics Engineers, Inc. All Rights reserved. Translated from English into Japanese by JST【Powered by NICT】