抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
多数のニューラル言語モデル(NLM)を生成するために多様なコーパス上で訓練されたNLPコミュニティにおいて,様々な文脈化された言語モデルが提案されている。しかしながら,異なるNLMは,テキスト表現として使用されたとき,下流NLPアプリケーションにおける異なるレベルの性能を報告している。独立に訓練された文脈語埋込みモデルを取り上げ,入力源NLMの補完的強度を保存する文章埋込みを学習する文章レベルメタ埋込み学習法を提案した。提案手法は教師なしであり,特定の下流タスクに連結せず,それは文章表現を必要とする異なるタスクに応用可能な原理で学習メタ埋込みを行う。具体的には,まず,個々のNLMにより得られたトークンレベル埋込みを投影し,トークンレベルメタ埋込みに対するソース埋込みの寄与を示す注意重みを学習した。次に,トークンレベルメタ埋込みから文章レベルメタ埋込みを生成する平均と最大プールを適用した。意味的テキスト類似性ベンチマークに関する実験結果は,提案教師なし文章レベルメタ埋込み法が,以前に提案した文章レベルメタ埋込み法ならびに教師つきベースラインより優れていることを示した。【JST・京大機械翻訳】