抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
長いテキストから成る自然言語処理(NLP)の多くの実世界アプリケーションで,より長い入力シーケンスを扱うことができるモデルの精度を測定するNLPベンチマークの上昇があった。しかし,これらのベンチマークは,入力サイズまたはモデルサイズが変化するとき,精度,速度,および電力消費の間のトレードオフを考慮しない。本研究では,SCROLLSベンチマークから4つのデータセットについて,2つの広く使用された長配列モデル,すなわち,Longformor-Encoder-Decoder(LED)とBig Bird-during 微調整と推論について,この精度対効率トレードオフの系統的研究を行った。このトレードオフがハイパーパラメータ設定でどのように異なるかを研究するために,固定資源予算の下で,4つのシーケンス長さ(1024,2048,3072,4096)と2つのモデルサイズ(ベースと大きい)のモデルを比較した。LEDは,Big Birdより低いエネルギーコストで,一貫してより良い精度を達成することを見出した。要約のために,著者らは,モデルサイズの増加が,より高い正確さのためにシーケンス長さを増やすよりエネルギー効率が良いことを見つけた。しかし,これは推論速度の大きな低下のコストになる。質問回答に対して,固定資源予算の下で可能な大きな訓練バッチサイズにより,より小さなモデルがより効率的で正確であることを見出した。【JST・京大機械翻訳】