文献
J-GLOBAL ID:202202260027017607   整理番号:22A0977859

文書レベル感情分類のための事前訓練言語モデルへのユーザアイデンティティの推測【JST・京大機械翻訳】

Injecting User Identity Into Pretrained Language Models for Document-Level Sentiment Classification
著者 (3件):
資料名:
巻: 10  ページ: 30157-30167  発行年: 2022年 
JST資料番号: W2422A  ISSN: 2169-3536  資料種別: 逐次刊行物 (A)
記事区分: 原著論文  発行国: アメリカ合衆国 (USA)  言語: 英語 (EN)
抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
本論文は,主に文書レベル感情分類のための事前訓練言語モデルとユーザアイデンティティ情報の組合せを研究した。近年,BERTのような事前訓練言語モデル(PLM)は,文書レベル感情分類を含む多くのNLPアプリケーションに関する最新の結果を達成した。一方,作業の収集は,より良いテキストモデリングのためのユーザアイデンティティのような付加的情報を導入する。しかし,それらのほとんどは,従来のモデルへのユーザアイデンティティを注入し,一方,事前訓練言語モデルとユーザアイデンティティの組合せを,より良い性能のために研究するために,ほとんど研究がなされていない。この問題に取り組むために,本論文では,ユーザアイデンティティとPLMを統一し,ユーザ強化プレ訓練言語モデル(U-PLM)を定式化することを提案する。特に,2つの単純だが効果的な試み,すなわち埋込みベースと注意ベースの個人化,を事前訓練された言語モデルの異なる部分にユーザアイデンティティを注入し,異なる視点から個人化を提供する。2つのバックボーンPLMを有する3つのデータセットにおける実験は,著者らの提案方法が,精度に関して3%,2.8%,および2.2%の絶対改善で,最良の最先端のベースライン法より優れていることを示した。さらに,この方法はプラグインモジュールとユーザアイデンティティを符号化し,ほとんどの自動符号化事前訓練言語モデルと完全に互換性がある。Copyright 2022 The Institute of Electrical and Electronics Engineers, Inc. All rights reserved. Translated from English into Japanese by JST.【JST・京大機械翻訳】
シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。

準シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
, 【Automatic Indexing@JST】
分類 (2件):
分類
JSTが定めた文献の分類名称とコードです
自然語処理  ,  パターン認識 

前のページに戻る