文献
J-GLOBAL ID:202102283334944921   整理番号:21A0310830

ENT-BERT:BERTと実体情報を組み合わせた実体関係分類モデル【JST・京大機械翻訳】

ENT-BERT:Entity Relation Classification Model Combining BERT and Entity Information
著者 (2件):
資料名:
巻: 41  号: 12  ページ: 2557-2562  発行年: 2020年 
JST資料番号: C2136A  ISSN: 1000-1220  CODEN: XWJXEH  資料種別: 逐次刊行物 (A)
記事区分: 原著論文  発行国: 中国 (CHN)  言語: 中国語 (ZH)
抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
現在、関係抽出と分類タスクにおいて、畳み込みニューラルネットワークと循環ニューラルネットワークと注意力メカニズムとを結びつけた深さ学習技術を通じて、従来は主流と最適な解決法である。最近提案されたBERT(BidirectionalEncoderRepresentationsfromTransformers)モデルは自然言語処理方向における多項タスクの中で最も良い効果を達成した。特に、テキスト分類タスクに対して、モデルから得られた文ベクトルと全連結層を結合するだけで、分類効果が大幅に向上できる。実体関係分類タスクに対して、テキスト分類タスクと最も主要な違いは、それがより実体情報を突き出す必要があるため、本論文では、実体関係分類モデルENT-BERTを提案し、このモデルはまずBERTを通じて文ベクトルと字ベクトルを獲得する。次に,エンティティのベクトルを平均して実体ベクトルを得て,次に,文章ベクトルと実体ベクトルを注意力機構によって結合して,最後に,実体関係の分類を,全体の連結層とsoftmax関数によって確定して,実体関係の分類を実現した。実験結果は,このモデルが効果的に実体情報を突き出して,中英文データセットでより良い効果を得ることを示した。Data from Wanfang. Translated by JST.【JST・京大機械翻訳】
シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。

準シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
, 【Automatic Indexing@JST】
分類 (2件):
分類
JSTが定めた文献の分類名称とコードです
パターン認識  ,  計算機網 
タイトルに関連する用語 (2件):
タイトルに関連する用語
J-GLOBALで独自に切り出した文献タイトルの用語をもとにしたキーワードです

前のページに戻る