抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
事前訓練された言語モデルの異なる成分を分析するBERTology作業の数の増加により,事前訓練および微調整言語モデルにおけるディスコース情報の徹底的な分析を通して,この研究ラインを拡張した。三つの次元に沿った事前作業を超えて移動し,まず,任意に長い文書からディスコース構造を推論する新しい手法について述べた。第二に,BERTとBARTモデルにおいて,どのように正確に固有なディスコースが捉えられるかを探索するための新しいタイプの解析を提案した。最後に,生成された構造が,モデル内および間のそれらの分布と同様に,様々な基準線に対してどのように類似しているかを評価した。【JST・京大機械翻訳】