文献
J-GLOBAL ID:202202271818687367   整理番号:22A0980349

感情分析のためのBERT:予訓練および微調整代替【JST・京大機械翻訳】

BERT for Sentiment Analysis: Pre-trained and Fine-Tuned Alternatives
著者 (2件):
資料名:
巻: 13208  ページ: 209-218  発行年: 2022年 
JST資料番号: H0078D  ISSN: 0302-9743  資料種別: 会議録 (C)
記事区分: 原著論文  発行国: ドイツ (DEU)  言語: 英語 (EN)
抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
BERTは,複雑なテキストパターンを捕捉することができる大きな言語モデルによる転送学習を可能にすることにより,NLP分野を革命し,NLPアプリケーションの表現数に対する最先端技術に達する。テキスト分類タスクに対して,BERTは既に広く探索されてきた。しかし,BERT出力層によって提供される異なる埋込みと多言語モデルの代わりに言語仕様の使用をいかに良好に対処するかのような側面は,特にブラジルのポルトガル語に対して,文献において十分に研究されていない。この論文の目的は,感情解析タスクに焦点を絞って,BERT出力層で生成された特徴を集約するための異なる戦略に関する広範な実験的研究を行うことである。実験には,ブラジルポルトガルコーパスと多言語版で訓練されたBERTモデル,多重集約戦略,および事前定義訓練,検証,および試験分割によるオープンソースデータセットを,結果の再現性を容易にするために,含んだ。BERTは,TF-IDFと比較して,大多数の症例に対して最も高いROC-AUC値を達成した。それにもかかわらず,TF-IDFは予測性能と計算コストの間の良好なトレードオフを示す。Copyright Springer Nature Switzerland AG 2022 Translated from English into Japanese by JST.【JST・京大機械翻訳】
シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。

準シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
, 【Automatic Indexing@JST】
分類 (2件):
分類
JSTが定めた文献の分類名称とコードです
自然語処理  ,  人工知能 
タイトルに関連する用語 (5件):
タイトルに関連する用語
J-GLOBALで独自に切り出した文献タイトルの用語をもとにしたキーワードです

前のページに戻る