抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
本稿では,物体検出モデルに基づく視覚表現を用いた解釈可能なVisual Question Answeringモデルに関する検討を行う.具体的に,質問応答において,回答に対する合理的な解釈を生成可能なVQAモデルを提案する.従来研究では,モデルの解釈性向上のために,高レベルの自然言語による解釈文を生成する手法が種々存在する.しかしながら,これらの多くは画像中の情報のみに着目し,解釈文を生成する.一方,本研究では,モデルが様々な情報を参照することで,解釈性の向上が可能になることに注目した.具体的に,物体検出モデルを活用することで,画像内の物体に含まれる情報を参照し,高精度な解釈の生成を行う.さらに,画像および質問により検索した外部知識を導入することで,より多くの情報の参照を行う.本文の最後では,一般に公開されているデータセットを用いた実験により提案手法の有効性を確認する.(著者抄録)