抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
大規模ニューラル言語モデルは,質問応答および他の自然言語および情報処理タスクに対する最先端の性能に着実に貢献している。これらのモデルは訓練に高価である。そのような事前訓練モデルが,スクラッチから再訓練を必要とせずに,明示的言語情報の追加から利益を得ることができるかどうかを評価する。異種グラフ変圧器で符号化された記号知識を持つ事前訓練変圧器ベースニューラル言語モデルを拡張し,微調整する言語情報質問回答手法を提案した。トークンと仮想頂点を接続する依存性と構成図形構造の形式における構文情報の追加によるアプローチを説明した。ベースラインとしてのBERTによる比較経験的性能評価とStanford Quession Answering Datasetは,提案した方法の競争力を実証した。結論として,予備的実験のさらなる結果の見地から,このアプローチが意味論と実用的を含むさらなる言語情報に拡張可能であることを論じた。【JST・京大機械翻訳】