抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
事前訓練変換機モデルは,広範囲のNLPタスクにおいて成功を達成したが,長い入力シーケンスを扱うとき,非効率であった。既存の研究は,長いシーケンスを分割し,続いて階層的符号化または事後凝集により,この課題を克服することを試みた。階層的符号化のための同期機構を提案した。本手法は,まず,元の入力シーケンスにおけるそれらの役割によって,セグメントとグループを横断してアンカートークンを同定する。次に,内部変換層内で,アンカー埋込みを,自己注意モジュールを介してそれらのグループ内で同期した。提案アプローチは,新しいタスクに適応できる十分な柔軟性を持つ一般的なフレームワークであり,タスク特有のアンカー定義で強化するのが容易である。異なるタイプの長い入力テキスト,Narrative QA要約設定,およびHotpotQAからの野生マルチホップ推論による2つの代表的タスクに関する実験は,著者らのアプローチが効率を維持しながらセグメント間のグローバル情報交換を改良できることを示した。【JST・京大機械翻訳】