文献
J-GLOBAL ID:202102239355529399   整理番号:21A0462791

テキスト分類のための深層学習における単語埋込みに関する比較研究【JST・京大機械翻訳】

A Comparative Study on Word Embeddings in Deep Learning for Text Classification
著者 (3件):
資料名:
号: NLPIR 2020  ページ: 37-46  発行年: 2020年 
JST資料番号: D0698C  資料種別: 会議録 (C)
記事区分: 原著論文  発行国: アメリカ合衆国 (USA)  言語: 英語 (EN)
抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
Word埋込みは,シーケンスラベリングやテキスト分類のような下流言語タスクにおける入力特徴を提供するための深いモデルの重要な構成要素として作用する。過去10年間,この目的のために,主に古典的および文脈ベースの単語埋込みのカテゴリーに陥る,多くの単語埋込み法が提案されてきた。本論文では,テキスト分類の目的で,古典的および文脈的単語埋込みの両方を系統的に調べるための制御実験を行った。単語表現からシーケンスを符号化するために,著者らは下流ネットワークアーキテクチャにおいて2つの符号器,すなわちCNNとBiLSTMを適用した。異なるデータセットに対する単語埋込みの影響を検討するために,単一ラベルとマルチラベル分類タスクの両方を含む平均サンプル長を変えて4つのベンチマーク分類データセットを選択した。信頼区間による評価結果は,下流エンコーダとしてのCNNが,特に文書文脈不感データセットに対して,ほとんどの状況でBiLSTMより優れていることを示した。本研究は,文書分類データセットのためのBiLSTM上のCNNの選択を推薦し,シーケンスの文脈は文章データセットとしてクラスメンバーシップの表示ではない。単語埋込みのために,複数の古典的埋込みの連結またはそれらのサイズの増加は,いくつかの場合のわずかな改善にもかかわらず,性能において統計的に有意な差をもたらさない。コンテキストベースの埋込みのために,ELMoとBERTの両方を研究した。結果は,特に長い文書データセットに対して,BERTがELMoを全体的に凌駕することを示した。古典的埋込みと比較して,両者は短いデータセットに対して改善された性能を達成し,一方,改善は長いデータセットでは観測されない。Please refer to this article’s citation page on the publisher website for specific rights information. Translated from English into Japanese by JST.【JST・京大機械翻訳】
シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。

準シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
, 【Automatic Indexing@JST】
分類 (2件):
分類
JSTが定めた文献の分類名称とコードです
自然語処理  ,  人工知能 
タイトルに関連する用語 (5件):
タイトルに関連する用語
J-GLOBALで独自に切り出した文献タイトルの用語をもとにしたキーワードです

前のページに戻る