プレプリント
J-GLOBAL ID:202202216581300902   整理番号:22P0328711

事前訓練および微調整言語モデルにおける大規模談話構造の理解に向けて【JST・京大機械翻訳】

Towards Understanding Large-Scale Discourse Structures in Pre-Trained and Fine-Tuned Language Models
著者 (2件):
資料名:
発行年: 2022年04月08日  プレプリントサーバーでの情報更新日: 2022年04月08日
JST資料番号: O7000B  資料種別: プレプリント
記事区分: プレプリント  発行国: アメリカ合衆国 (USA)  言語: 英語 (EN)
抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
事前訓練された言語モデルの異なる成分を分析するBERTology作業の数の増加により,事前訓練および微調整言語モデルにおけるディスコース情報の徹底的な分析を通して,この研究ラインを拡張した。三つの次元に沿った事前作業を超えて移動し,まず,任意に長い文書からディスコース構造を推論する新しい手法について述べた。第二に,BERTとBARTモデルにおいて,どのように正確に固有なディスコースが捉えられるかを探索するための新しいタイプの解析を提案した。最後に,生成された構造が,モデル内および間のそれらの分布と同様に,様々な基準線に対してどのように類似しているかを評価した。【JST・京大機械翻訳】
シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。

準シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
, 【Automatic Indexing@JST】
分類 (1件):
分類
JSTが定めた文献の分類名称とコードです
経営工学一般 

前のページに戻る