プレプリント
J-GLOBAL ID:202202209251150517   整理番号:22P0295111

PromDA:低リソースNLUタスクのための迅速ベースデータ増強【JST・京大機械翻訳】

PromDA: Prompt-based Data Augmentation for Low-Resource NLU Tasks
著者 (7件):
資料名:
発行年: 2022年02月25日  プレプリントサーバーでの情報更新日: 2022年03月17日
JST資料番号: O7000B  資料種別: プレプリント
記事区分: プレプリント  発行国: アメリカ合衆国 (USA)  言語: 英語 (EN)
抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
本論文では,低資源自然言語理解(NLU)タスクに対するデータ認証に焦点を当てた。冷凍前訓練言語モデル(PLM)における小規模ソフトPrompt(即ち,訓練可能ベクトルの集合)のみを訓練するPromptベースのD}ata Augmentationモデル(PromDA)を提案した。これは,非ラベルドメインデータを収集し,生成された合成データの品質を維持するためのヒト努力を回避する。さらに,PromDAは2つの異なる視点により合成データを生成し,NLUモデルを用いて低品質データをフィルタリングする。4つのベンチマークに関する実験は,PromDAによって作り出された合成データが,非ラベルのドメイン内データを使用する最先端の半教師つきモデルを含む,いくつかの競合基準モデルを一貫して凌駕するNLUモデルの性能をうまく高めることを示した。PromDAからの合成データも非標識ドメインデータに相補的である。NLUモデルは,訓練のために併用するとき,さらに改良することができた。【JST・京大機械翻訳】
シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。

準シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
, 【Automatic Indexing@JST】
分類 (2件):
分類
JSTが定めた文献の分類名称とコードです
人工知能  ,  パターン認識 
タイトルに関連する用語 (3件):
タイトルに関連する用語
J-GLOBALで独自に切り出した文献タイトルの用語をもとにしたキーワードです

前のページに戻る