文献
J-GLOBAL ID:201902244842833573   整理番号:19A2685445

文エンコーダによるクエリ指向要約モデルの強化

Query-focused Summarization Enhanced with Sentence Attention Mechanism
著者 (4件):
資料名:
巻: 12  号:ページ: 66-79 (WEB ONLY)  発行年: 2019年10月23日 
JST資料番号: U0476A  ISSN: 1882-7799  資料種別: 逐次刊行物 (A)
記事区分: 原著論文  発行国: 日本 (JPN)  言語: 日本語 (JA)
抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
膨大な量の文書が溢れる現代において,与えられたクエリに着目した要約を生成するクエリ指向文書要約の重要性が高くなると予想される.深層モデルに基づく生成型の自動要約手法では,長期的な情報の記憶が可能となるLong-Short Term Memory(LSTM)は欠かせない.しかし翻訳タスクにおいて,60トークンよりも長い文書をLSTMでエンコードした場合に翻訳の品質が低下するとKoehnら(2017)は報告している.要約タスクにおいても,長文のエンコードが失敗することは,要約結果の品質を大きく低下させる要因として問題であると考えられる.そこで我々は,原文の単語単位のベクトルに加え,原文の文単位のベクトルを導入した要約生成手法を提案する.単語単位の注意機構と文単位の注意機構を組み合わせて学習させることで,文単位の重要度と文間の関係性を考慮した要約生成を目指す.これによりトークン数の多い原文が入力された場合でも,提案手法は頑健に働くことが期待される.最新のクエリ指向要約モデルと,そのモデルを提案手法で拡張したモデルの評価実験から,原文のトークン数が大きいデータセットにおいても,提案手法によってROUGEが改善されることを確認した.(著者抄録)
シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。

準シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。

分類 (1件):
分類
JSTが定めた文献の分類名称とコードです
その他の情報処理 
引用文献 (31件):
  • Koehn, P. and Knowles, R.: Six Challenges for Neural Machine Translation, Proc. 1st Workshop on Neural Machine Translation, pp.28-39, Association for Computational Linguistics (online), DOI: 10.18653/v1/W17-3204 (2017).
  • Rush, A.M., Chopra, S. and Weston, J.: A Neural Attention Model for Abstractive Sentence Summarization, Proc. 2015 Conference on Empirical Methods in Natural Language Processing, pp.379-389, Association for Computational Linguistics (online), DOI: 10.18653/v1/D15-1044 (2015).
  • Sutskever, I., Vinyals, O. and Le, Q.V.: Sequence to sequence learning with neural networks, Advances in Neural Information Pprocessing Systems, pp.3104-3112 (2014).
  • Bahdanau, D., Cho, K. and Bengio, Y.: Neural Machine Translation by Jointly Learning to Align and Translate, CoRR, Vol.abs/1409.0473 (2014) (online), available from <http://arxiv.org/abs/1409.0473>.
  • Nema, P., Khapra, M.M., Laha, A. and Ravindran, B.: Diversity driven attention model for query-based abstractive summarization, Proc. 55th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp.1063-1072, Association for Computational Linguistics (online), DOI: 10.18653/v1/P17-1098 (2017).
もっと見る
タイトルに関連する用語 (5件):
タイトルに関連する用語
J-GLOBALで独自に切り出した文献タイトルの用語をもとにしたキーワードです

前のページに戻る