文献
J-GLOBAL ID:202202242560624346   整理番号:22A1104842

テキストランキングのための予訓練変圧器はいかに異なるか?【JST・京大機械翻訳】

How Different are Pre-trained Transformers for Text Ranking?
著者 (2件):
資料名:
巻: 13186  ページ: 207-214  発行年: 2022年 
JST資料番号: H0078D  ISSN: 0302-9743  資料種別: 会議録 (C)
記事区分: 原著論文  発行国: ドイツ (DEU)  言語: 英語 (EN)
抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
近年,大きな事前訓練変圧器は,従来の検索モデルおよびフィードバック手法よりも性能において大きな利得をもたらした。しかし,これらの結果は,主にMS Marco/TREC Deening Learning Trackセットアップに基づき,その非常に特別なセットアップと,なぜこれらのモデルがどのようによりよく働くかの理解は,最良に断片化される。最大利得が観察され,2つの主な質問を調べる,通過検索タスクに対する従来のBM25ランキングに対して,効果的なBERTベースクロスエンコーダを解析した。一方,何が類似しているか。どの程度,神経ランクが既に伝統的ランクの能力を包含しているか。同じ文書(優先順位付け精度)のより良いランキングにより,性能の利得を得た。一方,何れも異なる。それは,従来のシステム(優先順位付け)によって見逃される文書を効果的に検索する。著者らは,将来の改善のための研究を鼓舞するかもしれないBERTの強度と弱点を同定する関連性の概念における実質的な違いを発見した。著者らの結果は,(ウェル-アンダーストーツ)伝統的ランク者と比較して(ブラックボックス)神経ランク者の理解に寄与し,MS-Marcoベース試験収集の特定の実験設定を理解するのに役立つ。Copyright The Author(s), under exclusive license to Springer Nature Switzerland AG 2022 Translated from English into Japanese by JST.【JST・京大機械翻訳】
シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。

分類 (1件):
分類
JSTが定めた文献の分類名称とコードです
検索技術 
タイトルに関連する用語 (3件):
タイトルに関連する用語
J-GLOBALで独自に切り出した文献タイトルの用語をもとにしたキーワードです

前のページに戻る