抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
解釈可能な視覚的質問応答(VQA)モデルの重要な側面は,画像における関連領域に対するそれらの応答を地上化する能力である。この能力による現在のアプローチは,VQAアーキテクチャの中で注意機構を訓練するために,教師つき学習と人間の注釈付けされた基礎に依存している。残念ながら,視覚的な接地に特異的な人間のアノテーションを得ることは困難で高価である。本研究では,利用可能な領域記述とオブジェクトアノテーションから自動的に得られる接地監視により,VQAアーキテクチャを効果的に訓練できることを示した。また,このマイニングされた監視で訓練された著者らのモデルは,マニュアル的に注釈付けされた接地に関してより高い相関を達成する視覚的な基礎を生成し,一方,最先端のVQA精度を達成することを示した。Copyright 2019 The Institute of Electrical and Electronics Engineers, Inc. All rights reserved. Translated from English into Japanese by JST.【JST・京大機械翻訳】