抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
最近の研究では,変圧器ベース多言語マスク言語モデルである多言語BERT(mBERT)がゼロショット交差言語転送が可能であり,その表現の幾つかの側面が交差言語的に共有されていることを示した。この重複をより良く理解するために,ニューラルネットワークの内部表現における構文ツリーを多言語設定に発見する最近の研究を拡張した。mBERT表現の部分空間は英語以外の言語における構文木距離を回復させ,これらの部分空間は言語間でほぼ共有されることを示した。これらの結果によって動機づけられて,著者らは,証拠mBERTが構文依存ラベルの表現を学習する教師なし解析方法を提示し,それは,普遍的依存性分類学と大きく一致するクラスタの形式において,意味的依存性ラベルの表現を学習する。この証拠は,明示的な監視なしでも,多言語マスク言語モデルが,ある言語的普遍性を学習することを示唆する。【JST・京大機械翻訳】