プレプリント
J-GLOBAL ID:202202204209652667   整理番号:22P0200829

次に何が起こるのか?ビデオおよび言語の将来イベント予測【JST・京大機械翻訳】

What is More Likely to Happen Next? Video-and-Language Future Event Prediction
著者 (4件):
資料名:
発行年: 2020年10月15日  プレプリントサーバーでの情報更新日: 2020年10月15日
JST資料番号: O7000B  資料種別: プレプリント
記事区分: プレプリント  発行国: アメリカ合衆国 (USA)  言語: 英語 (EN)
抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
配列された対話を有するビデオを与えられた場合,人々は,次のように起こる可能性が高いことをしばしば推論することができる。このような予測を行うには,ビデオと対話の根底にある豊富な動力学の深い理解だけでなく,また,かなりの量の共通の知識も必要である。本研究では,AIモデルがそのようなマルチモーダルコモンセンスの次の事象予測を学習できるかどうかを探求した。この方向における研究をサポートするために,著者らは,ビデオおよび言語イベント予測(VLEP)という新しいデータセットを収集し,10,234の多様なTV ShowおよびYouTube Lifeスタイル Vlogビデオクリップからの28,726の将来のイベント予測例(それらの理論的根拠を有する)と命名した。非自明な挑戦的事例の収集を促進するために,著者らは,敵対的人間およびモデルインザループデータ収集手順を採用した。また,ビデオ,対話,およびコモンセンス知識からの情報を組み込んだ強いベースラインも提示する。実験は,各タイプの情報が,この挑戦的なタスクに対して有用であり,VLEP上の高い人間性能と比較して,著者らのモデルは,良い出発点を提供するが,将来の研究のために大きな部屋を提供することを示した。著者らのデータセットとコードは,https://github.com/jayleicn/VideoLanguageFuturePredで利用可能である。【JST・京大機械翻訳】
シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。

準シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
, 【Automatic Indexing@JST】
分類 (1件):
分類
JSTが定めた文献の分類名称とコードです
図形・画像処理一般 
タイトルに関連する用語 (5件):
タイトルに関連する用語
J-GLOBALで独自に切り出した文献タイトルの用語をもとにしたキーワードです

前のページに戻る