抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
文章埋込み方法の多くの成功した応用があった。しかし,監視信号に依存して得られた文章埋込みにおいてどの特性が捉えられるかはよく理解されていない。本論文では,類似したアーキテクチャとタスクを有する2種類の文埋込み法,すなわち,自然言語推論タスクに関する1つの微調整前訓練言語モデル,および定義文からの単語予測タスクに関する他の微調整前訓練言語モデルに焦点を当て,それらの特性を研究する。特に,2つの視点から分割されたSTSデータセットを用いて,意味テキスト類似性(STS)タスクに関するそれらの性能を比較した。1)文章ソースと2)文章ペアの表面類似性,2)下流とプロービングタスクに関するそれらの性能を比較した。さらに,著者らは2つの方法を結合することを試みて,2つの方式を結合することが,教師なしSTSタスクと下流タスクに関してそれぞれの方法より実質的により良い性能をもたらすことを実証した。【JST・京大機械翻訳】