抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
言語のためのよく発達したカットエッジ表現学習にもかかわらず,ほとんどの言語表現モデルは,通常言語単位の特定のレベルに焦点を合わせており,それは,統一された方法で言語オブジェクトの複数層を扱う際に直面するとき,大きな不便性を引き起こす。したがって,本研究は,タスク非依存評価を通して,一様ベクトル空間における言語単位の異なったレベルの埋込みを,普遍的表現学習を導入し,探索する。学習されたベクトル空間の幾何学的特性を調べるために,単語,語句,文,および複数の表現モデルによる実験に関して,類似性データセットを構築するアプローチを提示する。次に,適切な訓練設定を組み込んだよく事前訓練された変換機モデルが,普遍的表現を効果的に得られることを経験的に検証した。特に,NLIとPDBデータセット上の微調整ALBERの実装は,異なる言語レベルで類推タスクに関して最も高い精度を達成する。保険FAQタスクに関する更なる実験は,実世界アプリケーションにおける普遍的表現モデルの有効性を示した。【JST・京大機械翻訳】