抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
コントラスト学習は,事前訓練言語モデル(PLM)の強化において有効であり,優れた普遍的文章埋込みを誘導することを示した。しかし,既存のコントラスト法は,まだ2つの制限がある。最初に,以前の研究は,ドメインシフト設定の下で貧弱な性能を獲得し,その結果,実際に文章表現の応用を妨げる。この低性能を,数百万のパラメータを持つPLMの過パラメータ化に属性した。それを軽減するために,著者らはPromCSE(Sentence Embedding for Sentence Embeddings)を提案し第二に,コントラスト学習の一般的に使用されるNT-Xent損失関数は,教師つき学習設定におけるハードネガティブを完全に利用しない。この目的のために,NT-Xent損失とエネルギーベース学習パラダイム間の接続によって触発された,ペアワイズ識別力を高めるために,エネルギーベースHinge損失を統合することを提案する。7つの標準セマンティックテキスト類似性(STS)タスクとドメインシフトSTSタスクに関する経験的結果は,現在の最先端の文章埋込みモデルと比較して,著者らの方法の有効性を示した。著者らのコードは,https://github.com/YJiangcm/PromCSEで公的に利用可能である。【JST・京大機械翻訳】