プレプリント
J-GLOBAL ID:202202200361876974   整理番号:22P0303525

即発ベースコントラスト学習とエネルギーベース学習による改良型ユニバーサル文埋込み【JST・京大機械翻訳】

Improved Universal Sentence Embeddings with Prompt-based Contrastive Learning and Energy-based Learning
著者 (3件):
資料名:
発行年: 2022年03月14日  プレプリントサーバーでの情報更新日: 2022年10月09日
JST資料番号: O7000B  資料種別: プレプリント
記事区分: プレプリント  発行国: アメリカ合衆国 (USA)  言語: 英語 (EN)
抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
コントラスト学習は,事前訓練言語モデル(PLM)の強化において有効であり,優れた普遍的文章埋込みを誘導することを示した。しかし,既存のコントラスト法は,まだ2つの制限がある。最初に,以前の研究は,ドメインシフト設定の下で貧弱な性能を獲得し,その結果,実際に文章表現の応用を妨げる。この低性能を,数百万のパラメータを持つPLMの過パラメータ化に属性した。それを軽減するために,著者らはPromCSE(Sentence Embedding for Sentence Embeddings)を提案し第二に,コントラスト学習の一般的に使用されるNT-Xent損失関数は,教師つき学習設定におけるハードネガティブを完全に利用しない。この目的のために,NT-Xent損失とエネルギーベース学習パラダイム間の接続によって触発された,ペアワイズ識別力を高めるために,エネルギーベースHinge損失を統合することを提案する。7つの標準セマンティックテキスト類似性(STS)タスクとドメインシフトSTSタスクに関する経験的結果は,現在の最先端の文章埋込みモデルと比較して,著者らの方法の有効性を示した。著者らのコードは,https://github.com/YJiangcm/PromCSEで公的に利用可能である。【JST・京大機械翻訳】
シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。

分類 (1件):
分類
JSTが定めた文献の分類名称とコードです
人工知能 
タイトルに関連する用語 (5件):
タイトルに関連する用語
J-GLOBALで独自に切り出した文献タイトルの用語をもとにしたキーワードです

前のページに戻る