文献
J-GLOBAL ID:202002225406487737   整理番号:20A2462812

目標指向視覚対話のための応答駆動視覚状態推定器【JST・京大機械翻訳】

Answer-Driven Visual State Estimator for Goal-Oriented Visual Dialogue
著者 (6件):
資料名:
号: MM ’20  ページ: 4271-4279  発行年: 2020年 
JST資料番号: D0698C  資料種別: 会議録 (C)
記事区分: 原著論文  発行国: アメリカ合衆国 (USA)  言語: 英語 (EN)
抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
目標指向視覚対話は,2つのエージェント,QuessionerとOracleの間の多重ターン相互作用を含む。その中で,Oracleによって与えられた回答は,Quessionerの懸念に対するゴールデン応答を提供するので,大きな意義がある。回答に基づいて,質問者は目標視覚コンテンツに関するその信念を更新し,さらに別の質問を提起する。注目すべきことに,異なる回答は,異なる視覚信念と将来の質問に駆動する。しかしながら,既存の方法は,非常に長い質問の後,常に回答を無差にコード化し,その結果,回答の弱い利用をもたらす。本論文では,視覚状態に対する異なる回答の影響を課すために,Answer駆動Visual State Estimator(ADVSE)を提案した。最初に,質問関連注意を鋭くし,各ターンで回答ベース論理演算によりそれを調整することにより,視覚注意に対する回答駆動効果を捉えるために,Answer駆動集束注意(ADFA)を提案した。次に,集束注意に基づいて,著者らは,全体的情報と差異情報が質問-回答状態に関して融合条件付けである条件的視覚情報融合(CVIF)によって,視覚状態推定を得た。提案したADVSEを,大規模GuessWhat Hubbardデータセット上で質問発生器と推測者タスクの両方に対して評価し,両タスクについて最先端の性能を達成した。定性的結果は,ADVSEがエージェントを高度に効率的な質問を生成し,妥当な質問生成と推定プロセスの間に信頼できる視覚的注意を得ることを示す。Please refer to this article’s citation page on the publisher website for specific rights information. Translated from English into Japanese by JST.【JST・京大機械翻訳】
シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。

準シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
, 【Automatic Indexing@JST】
著者キーワード (3件):
分類 (5件):
分類
JSTが定めた文献の分類名称とコードです
人間機械系  ,  視覚  ,  ロボットの運動・制御  ,  人工知能  ,  食品の品質 
タイトルに関連する用語 (5件):
タイトルに関連する用語
J-GLOBALで独自に切り出した文献タイトルの用語をもとにしたキーワードです

前のページに戻る