抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
現行の事前訓練言語モデル(PLM)は,典型的には静的データで訓練され,実世界シナリオでは,様々な情報源のストリーミングデータが連続的に成長する可能性がある。これは,PLMが生涯ですべての情報源から情報を統合する必要がある。この目標は,既存のすべてのデータで徹底的予訓練によって達成できるが,そのようなプロセスは計算的に高価であることが知られている。この目的のために,新しいデータのための効率的な寿命予訓練を狙って,ELLEを提案した。特に,ELLEは,(1)機能保存モデル拡張から成り,これは,知識獲得の効率を改善するために,既存のPLMの幅と深さを柔軟に拡張する。および(2)事前訓練ドメインは,事前訓練中に学習された多用途知識を解き,下流タスクに対する適切な知識を刺激する。BERTとGPT上の5つのドメインからのストリーミングデータによるELLEを実験した。結果は,事前訓練効率と下流性能の両方において,様々な寿命学習基準に対するELLEの優位性を示した。コードはhttps://github.com/thunlp/ELLEで公開されている。【JST・京大機械翻訳】