文献
J-GLOBAL ID:202202287633610291   整理番号:22A0456604

ビデオ質問応答のための行動中心関係変圧器ネットワーク【JST・京大機械翻訳】

Action-Centric Relation Transformer Network for Video Question Answering
著者 (6件):
資料名:
巻: 32  号:ページ: 63-74  発行年: 2022年 
JST資料番号: W0321A  ISSN: 1051-8215  CODEN: ITCTEM  資料種別: 逐次刊行物 (A)
記事区分: 原著論文  発行国: アメリカ合衆国 (USA)  言語: 英語 (EN)
抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
ビデオ質問回答(VideoQA)は,近年,一般的な研究題目として浮上している。より効果的な融合戦略とより良いイントラモーダル特徴作成の開発には,異常な努力が払われてきた。これらの問題をさらに探索するために,2つの重要な問題を同定した。(1)現在の作業は,ビデオ表現における関心の行動の導入をほとんど考慮しない。さらに,関心の行動が多くのデータセットにおいて,不十分なラベリングデータが存在する。しかし,ビデオQAにおける質問は,通常,行動中心である。(2)有用な時間的属性(例えば,状態遷移,行動計数)を提供できるフレーム対フレーム関係は,関連研究を欠いている。これらの観察に基づき,ビデオQAのための行動中心関係変圧器ネットワーク(ACRトランスフォーマ)を提案し,2つの重要な改善を行う。(1)行動認識問題を明示的に考察し,視覚特徴符号化技術,行動ベース符号化(ABE)を提示し,高い行動確率(フレームが行動を持つ確率)を持つフレームを強調する。(2)関係変圧器ネットワーク(Rトランスフォーマ)を用いて,時間フレーム間の相互作用をよりよく活用する。ビデオQAにおけるポピュラーなベンチマークデータセットに関する実験は,以前の最先端のモデルよりも明らかに著者らの優位性を確立する。コードはhttps://github.com/op-multimodal/ACRTransformerで見いだされた。Copyright 2022 The Institute of Electrical and Electronics Engineers, Inc. All rights reserved. Translated from English into Japanese by JST.【JST・京大機械翻訳】
シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。

準シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
, 【Automatic Indexing@JST】
分類 (3件):
分類
JSTが定めた文献の分類名称とコードです
パターン認識  ,  図形・画像処理一般  ,  テレビジョン一般 
タイトルに関連する用語 (4件):
タイトルに関連する用語
J-GLOBALで独自に切り出した文献タイトルの用語をもとにしたキーワードです

前のページに戻る