抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
シーケンスツーシーケンスニューラルネットワークは,最近,抽象的要約において,特に,下流データセットに関する微調整大規模事前訓練言語モデルを通して,大きな成功を達成した。これらのモデルは,典型的な要約を生成するためにビーム探索で典型的に解読される。しかし,探索空間は非常に大きく,露光バイアスでそのような復号化は最適ではない。本論文では,一連の要約候補で再ランク付けを行う2段階モデルを直接訓練できることを示した。エキスパートSummaRankerは,より良い候補を選択し,ベースモデルの性能を一貫して改善するように学習する。ベースPEGASUSにより,ROUGEスコアをCNN-DailyMail(47.16ROUGE-1),XSum(48.12ROUGE-1)で1.31%,およびReddit TIFU(29.83ROUGE-1)で9.34%で,新しい最新技術に達した。著者らのコードとチェックポイントはhttps://github.com/ntunlp/SummaRerankerで利用可能である。【JST・京大機械翻訳】