プレプリント
J-GLOBAL ID:202202201749357797   整理番号:22P0297398

E-LANG:スーパーおよびスウィフト言語モデルのエネルギーベースジョイント推論【JST・京大機械翻訳】

E-LANG: Energy-Based Joint Inferencing of Super and Swift Language Models
著者 (3件):
資料名:
発行年: 2022年03月01日  プレプリントサーバーでの情報更新日: 2022年03月01日
JST資料番号: O7000B  資料種別: プレプリント
記事区分: プレプリント  発行国: アメリカ合衆国 (USA)  言語: 英語 (EN)
抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
巨大で高能力の言語モデルの構築は,過去数年の動向である。それらの大きな性能にもかかわらず,それらは高い計算コストを生じている。一般的な解決策は,モデル圧縮の適用,あるいは軽量アーキテクチャの選択であり,しばしば,各望ましい計算予算に対する別々の固定サイズモデルを必要とし,重圧縮の場合の性能を失う可能性がある。本論文では,大きな正確なスーパーモデルと軽量Swiftモデルの間の推論を配布するE-LANGと呼ばれる効果的な動的推論手法を提案した。この目的のために,意思決定モジュールは,潜在空間における表現のエネルギー特性に基づくSuperまたはSwiftモデルに入力を課す。この方法は,容易に採用可能で,構造診断である。このように,それは,建築操作,モジュールの再組立,または再訓練の必要のないブラックボックス事前訓練モデルに適用することができる。符号器のみのバックボーンと分類タスクにのみ適用可能な既存の方法とは異なり,この方法は符号器デコーダ構造や翻訳のようなシーケンスツーシーケンスタスクに対しても機能する。E-LANG性能を,GLUE,SuperGLUEおよびWMT上のT5およびBERTバックボーンによる一連の実験を通して検証した。特に,GLUEで3.3×,SuperGLUEで2.9×の平均計算速度を持つT5-11Bを凌駕した。また,3.2×少ない計算でGLUE上でBERTベースのSOTAを達成した。コードとデモは補足材料で利用可能である。【JST・京大機械翻訳】
シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。

準シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
, 【Automatic Indexing@JST】
分類 (1件):
分類
JSTが定めた文献の分類名称とコードです
人工知能 
タイトルに関連する用語 (2件):
タイトルに関連する用語
J-GLOBALで独自に切り出した文献タイトルの用語をもとにしたキーワードです

前のページに戻る