文献
J-GLOBAL ID:202202269627474676   整理番号:22A0397029

ゼロショット分類のための視覚的説明可能なアクティブ学習に向けて【JST・京大機械翻訳】

Towards Visual Explainable Active Learning for Zero-Shot Classification
著者 (4件):
資料名:
巻: 28  号:ページ: 791-801  発行年: 2022年 
JST資料番号: W0715A  ISSN: 1077-2626  CODEN: ITVGEA  資料種別: 逐次刊行物 (A)
記事区分: 原著論文  発行国: アメリカ合衆国 (USA)  言語: 英語 (EN)
抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
ゼロショット分類は,訓練クラスとテストクラスが互いに素なとき,適用可能な問題を解決する有望なパラダイムである。これは,通常,専門家が,クラス属性行列を手動で指定して,どのクラスが属性を持つかを定義することにより,それらのドメイン知識を外部化する必要がある。適切なクラス属性マトリックスを設計することは,その後の手順の鍵であるが,この設計プロセスは,誘導なしで,退屈で試行錯誤である。本論文は,上記の問題を解決するために,セマンティックナビゲータと呼ばれる設計および実装による視覚説明可能なアクティブ学習アプローチを提案した。この手法は,各相互作用ループにおける4つの行動(ask,説明,推薦,応答)によるヒトAIチーム化を促進する。機械は,属性の思考プロセスにおいて人間を導くための対照的な疑問を問う。意味マップと呼ばれる新しい可視化は,機械の現状を説明する。したがって,解析者は,なぜ機械がオブジェクトを誤分類するかをよりよく理解することができる。さらに,この機械は,ラベリング負荷を緩和するために,各属性に対するクラスのラベルを推薦する。最後に,人間は,ラベルを対話的に修正することによって,モデルを操縦することができ,そして,機械は,その推薦を調整する。視覚説明可能な能動学習手法は,誘導なしの方法と比較して,対話型にゼロショット分類モデルの人間の効率を改善する。ゼロショット分類に対する標準ベンチマークを用いたユーザ研究の結果を正当化した。Copyright 2022 The Institute of Electrical and Electronics Engineers, Inc. All rights reserved. Translated from English into Japanese by JST.【JST・京大機械翻訳】
シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。

準シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
, 【Automatic Indexing@JST】
分類 (1件):
分類
JSTが定めた文献の分類名称とコードです
図形・画像処理一般 
タイトルに関連する用語 (5件):
タイトルに関連する用語
J-GLOBALで独自に切り出した文献タイトルの用語をもとにしたキーワードです

前のページに戻る