文献
J-GLOBAL ID:202002288600200146   整理番号:20A2282892

強化学習による選択的データ強化暗黙談話関係認識に向けて【JST・京大機械翻訳】

Towards Selective Data Enhanced Implicit Discourse Relation Recognition via Reinforcement Learning
著者 (6件):
資料名:
巻: 2020  号: IJCNN  ページ: 1-8  発行年: 2020年 
JST資料番号: W2441A  資料種別: 会議録 (C)
記事区分: 原著論文  発行国: アメリカ合衆国 (USA)  言語: 英語 (EN)
抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
NLPにおける基本的タスクとして,暗黙的会話関係の認識は,何年も困難な問題である。最も重要な理由の一つは,限られた量の注釈データである。一方では,ほとんどの既存の方法は,データを拡大するためにマルチタスク方式を使用する。外部データセットはしばしば訓練プロセスに導入され,雑音の多いデータの負の転送につながる可能性がある。他方,選択データに関するいくつかの以前の研究は,発見的方法による規則の設計に主に焦点を合わせる。良好な試料のすべての側面をカバーすることは難しい。もう一つの欠点は,データ選択が,特定のディスコース関係分類器で特殊化されたので,他の認識モデルに良く適合できないことである。本論文では,強化学習に基づく新しい選択的データ強化モデル(SDE)を提案した。著者らのモデルは2つの部分から成る一般的フレームワークである。1)分散関係分類器を設計し,マルチレベル表現モジュールと関係認識モジュールを含む関係を同定した。2)擬似ラベル付きデータセレクタを設計して,ディスコース関係分類装置を強化することができるデータを抽出した。分類器とセレクタの両方を最適化するために,共同学習を交互に行う。本モデルはデータを選択的に拡張できる。そして,分類装置部分は,他の複雑なネットワークによって置換することができた。議論間の相互作用信号をさらに利用するために,BERTに基づくマルチレベル表現も提示する。実験は,著者らのモデルが最先端の方法より良い性能を達成することを示した。Copyright 2020 The Institute of Electrical and Electronics Engineers, Inc. All rights reserved. Translated from English into Japanese by JST.【JST・京大機械翻訳】
シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。

準シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
, 【Automatic Indexing@JST】
分類 (1件):
分類
JSTが定めた文献の分類名称とコードです
図形・画像処理一般 
タイトルに関連する用語 (3件):
タイトルに関連する用語
J-GLOBALで独自に切り出した文献タイトルの用語をもとにしたキーワードです

前のページに戻る