抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
成長している研究は,構成的に一般化するNLPモデルの不安定性を実証し,他のアプローチの中で,特殊化されたアーキテクチャ,訓練方式,およびデータ増強を通してそれを軽減することを試みた。本研究では,様々なアプローチ:多様な構造のインスタンスに関する訓練を研究した。構造化出力を持つラベル付きインスタンスプールからインスタンスのそのような集合をサブサンプリングするためのモデル診断アルゴリズムを提案した。構成テンプレート分割と様々な複雑性の5つの意味構文解析データセットの伝統的IID分割の両方について評価して,著者らは,著者らのアルゴリズムを使用する構造的に多様な訓練が,10のデータセット分割型ペアの9つにおいて,以前のアルゴリズムより同等かより良い一般化に導くことを示した。一般的に,ランダム列車セットと比較して,サンプル効率の一貫性を一貫して改善する構造多様性を見出した。さらに,構造的に多様なサンプリングは,IIDテストセットよりも非常に挑戦的な包括的なテストセットを生成することを示した。最後に,多様な列車集合からの一般化改善のための2つの説明を提供した。1)出力サブ構造の被覆率の改善,2)これらのサブ構造間の偽相関の低減。【JST・京大機械翻訳】