抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
多くのNLPの実際的成功は訓練データのアベイラビリティに依存する。しかし,実世界シナリオでは,多くのアプリケーションドメインが制限され,特異的であるため,訓練データはしばしば不足している。本研究では,この問題を扱うための異なる方法を比較し,特定の領域に対して利用可能な少量のラベル付き訓練データのみが存在するとき,NLPアプリケーションを構築するためのガイドラインを提供した。事前訓練された言語モデルによる転送学習は,タスクを横断する他の方法よりも性能が優れているが,代替は,はるかに少ない計算努力を必要とし,従って,金銭的および環境的コストを大幅に削減する。175Kまで訓練できるモデルを含むいくつかのそのような代替案の性能トレードオフを調べ,単一GPUを必要としない。【JST・京大機械翻訳】