プレプリント
J-GLOBAL ID:202202217508196184   整理番号:22P0307065

プレトレーニング目的は言語モデルが言語学的性質について何を学ぶか?【JST・京大機械翻訳】

How does the pre-training objective affect what large language models learn about linguistic properties?
著者 (2件):
資料名:
発行年: 2022年03月19日  プレプリントサーバーでの情報更新日: 2022年03月19日
JST資料番号: O7000B  資料種別: プレプリント
記事区分: プレプリント  発行国: アメリカ合衆国 (USA)  言語: 英語 (EN)
抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
マスクされた言語モデリング(MLM)のようないくつかの事前訓練目的を,より良い言語表現を学習する目的で,言語モデル(例えばBERT)を事前訓練するために提案した。しかしながら,知る限りでは,今までの以前の研究は,異なる事前訓練目的が,どのBERTが言語学特性について学習するのかを調査した。著者らは,MLMのような言語学的に動機づけられた目的が,入力とラベル間の関連性を推測するために,人間にとって直感的で困難でない他の非言語的動機づけ目的と比較して,より良い言語知識を獲得するために,BERTを助けるべきであると仮定した。この目的のために,著者らは,2つの言語的に動機づけられた目的と3つの非言語的に動機づけられたものによって,BERTをプレトレインした。次に,得られたモデルの表現に符号化された言語特性を探索した。2つの異なる種類の目的によって学習された表現間のプロービング性能にわずかな違いがあるという強い証拠を見出した。これらの驚くべき結果は,言語学的にインフォームされた事前訓練の支配的なナラティブに疑問を投げかける。【JST・京大機械翻訳】
シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。

準シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
, 【Automatic Indexing@JST】
分類 (2件):
分類
JSTが定めた文献の分類名称とコードです
自然語処理  ,  パターン認識 
タイトルに関連する用語 (4件):
タイトルに関連する用語
J-GLOBALで独自に切り出した文献タイトルの用語をもとにしたキーワードです

前のページに戻る