抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
膨大な量の文書が溢れる現代において,与えられたクエリに着目した要約を生成するクエリ指向文書要約の重要性が高くなると予想される.深層モデルに基づく生成型の自動要約手法では,長期的な情報の記憶が可能となるLong-Short Term Memory(LSTM)は欠かせない.しかし翻訳タスクにおいて,60トークンよりも長い文書をLSTMでエンコードした場合に翻訳の品質が低下するとKoehnら(2017)は報告している.要約タスクにおいても,長文のエンコードが失敗することは,要約結果の品質を大きく低下させる要因として問題であると考えられる.そこで我々は,原文の単語単位のベクトルに加え,原文の文単位のベクトルを導入した要約生成手法を提案する.単語単位の注意機構と文単位の注意機構を組み合わせて学習させることで,文単位の重要度と文間の関係性を考慮した要約生成を目指す.これによりトークン数の多い原文が入力された場合でも,提案手法は頑健に働くことが期待される.最新のクエリ指向要約モデルと,そのモデルを提案手法で拡張したモデルの評価実験から,原文のトークン数が大きいデータセットにおいても,提案手法によってROUGEが改善されることを確認した.(著者抄録)