文献
J-GLOBAL ID:202202248978209080   整理番号:22A0788086

視覚質問応答のための質問指向クロスモーダル共注意ネットワーク【JST・京大機械翻訳】

Question-oriented cross-modal co-attention networks for visual question answering
著者 (3件):
資料名:
巻: 2022  号: ICCECE  ページ: 401-407  発行年: 2022年 
JST資料番号: W2441A  資料種別: 会議録 (C)
記事区分: 原著論文  発行国: アメリカ合衆国 (USA)  言語: 英語 (EN)
抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
テキストと画像情報を扱う視覚質問応答(VQA)タスクにおける既存の交差モード共注意モデルが焦点を欠いているという問題を目的として,質問指向交差モード共注意ネットワークを提案した。ネットワークは,マルチモーダル特徴抽出モジュール,質問指向交差モード共注意モジュール,特徴融合モジュール,および分類器から成る。抽出画像と質問特徴は,注意の層を通過した後に,加重注意特徴によってそれぞれ出力する。特徴の線形融合の後,質問に対する予測回答を得るために,ソフトMax分類器に供給した。最後に,計数モジュールと組み合わせて,モデルの計数能力を改善した。結果は,モデルが公開データセットVQA v2.0に関してよく機能して,試験_devと試験_stdに関して,それぞれ70.71%と70.78%の全体的分類精度を得て,それは大部分の先進モデルと比較していくつかの利点を示した。Copyright 2022 The Institute of Electrical and Electronics Engineers, Inc. All rights reserved. Translated from English into Japanese by JST.【JST・京大機械翻訳】
シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。

準シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
, 【Automatic Indexing@JST】
分類 (2件):
分類
JSTが定めた文献の分類名称とコードです
図形・画像処理一般  ,  パターン認識 
タイトルに関連する用語 (4件):
タイトルに関連する用語
J-GLOBALで独自に切り出した文献タイトルの用語をもとにしたキーワードです

前のページに戻る