抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
BERTのような事前訓練言語モデルは,多くの自然言語処理タスクに取り組むのに成功した。しかし,これらのモデル(例えば,バイト対符号化-BPE)で一般的に使用される教師なしサブワードトークン化法は,形態学的に豊富な言語を扱うのに準最適である。形態学的分析装置であっても,標準BERTアーキテクチャへのモルフィメのナイーブ配列決定は,形態学的組成性捕捉と単語関連構文規則性の表現において非効率である。形態学的分析装置を利用し,形態学的組成を明確に表現する単純だが効果的な2段階BERTアーキテクチャを提案することにより,これらの課題に取り組んだ。BERTの成功にもかかわらず,その評価の大部分は高資源言語で行われており,低資源言語へのその適用性を硬化している。提案モデルアーキテクチャKinyaBERTを命名する,低資源形態学的に豊富なKinyarwanda言語に関する提案手法を評価した。実験結果のロバストな集合は,KinyaBERTが,F1スコアにおいて,F1スコアで2%,機械翻訳GLUEベンチマークの平均スコアで4.3%で,固体ベースラインより優れていることを明らかにした。KinyaBERT微調整には,より良い収束があり,翻訳ノイズの存在下でさえ,複数のタスクに関してよりロバストな結果を達成する。【JST・京大機械翻訳】