文献
J-GLOBAL ID:202202214695621320   整理番号:22A0991796

BERT語の埋め込みと注意の機構を融合する中国語テキスト分類【JST・京大機械翻訳】

Chinese Text Classification Based on BERT and Attention
著者 (2件):
資料名:
巻: 43  号:ページ: 22-26  発行年: 2022年 
JST資料番号: C2136A  ISSN: 1000-1220  CODEN: XWJXEH  資料種別: 逐次刊行物 (A)
記事区分: 原著論文  発行国: 中国 (CHN)  言語: 中国語 (ZH)
抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
テキスト分類は自然言語処理の重要な分野である。近年、深さ学習の方法はテキスト分類タスクに広く応用されている。大規模なデータを扱う場合,分類の精度と処理効率の両方を考慮に入れるために,本論文では,埋め込み層としてBERT訓練単語ベクトルを用いて,入力文の単語ベクトルをさらに最適化し,次に,二層のGRUネットワークを主体ネットワークとして,テキストの文脈特徴を十分に抽出して,最後に,注意力機構を用いた。テキスト分類のために,目標語句を強調した。実験は,BERTが埋込み層として入力されるとき,効果的に単語ベクトルを最適化できることを示した。同時に、テキストが提案したBBGAモデルは高効率の処理能力を持ち、THUCNewsデータセットを処理する時、94.34%の精度に達し、TextCNNより5.20%高く、BERT_RNNより1.01%高い。Data from Wanfang. Translated by JST.【JST・京大機械翻訳】
シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。

準シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
, 【Automatic Indexing@JST】
分類 (1件):
分類
JSTが定めた文献の分類名称とコードです
計算機網 

前のページに戻る