プレプリント
J-GLOBAL ID:202202202663880809   整理番号:22P0309890

効率的なBERTプレトレーニングのためのトークン落下【JST・京大機械翻訳】

Token Dropping for Efficient BERT Pretraining
著者 (7件):
資料名:
発行年: 2022年03月24日  プレプリントサーバーでの情報更新日: 2022年03月24日
JST資料番号: O7000B  資料種別: プレプリント
記事区分: プレプリント  発行国: アメリカ合衆国 (USA)  言語: 英語 (EN)
抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
変圧器ベースのモデルは,与えられたシーケンスにおいて各トークンに対して同じ量の計算を一般的に割り当てる。下流タスクでその性能を劣化せずに,BERTのような変圧器モデルの予訓練を加速する簡単で効果的な「トークンドロップ」法を開発した。要するに,モデル内の中間層から出発する重要でないトークンを落下し,このモデルを重要なトークンに絞った。落下トークンは,その後,モデルの最後の層によってピックアップされ,そのモデルは,まだ完全な長さのシーケンスを生成する。既に構築したマスク付き言語モデリング(MLM)損失を利用して,実用的に計算オーバヘッドを持たないユニポータントトークンを同定した。著者らの実験では,この簡単なアプローチは,標準下流タスクで同様の全体的微調整性能を達成しながら,BERTの予訓練コストを25%削減する。【JST・京大機械翻訳】
シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。

準シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
, 【Automatic Indexing@JST】
分類 (2件):
分類
JSTが定めた文献の分類名称とコードです
パターン認識  ,  自然語処理 
タイトルに関連する用語 (3件):
タイトルに関連する用語
J-GLOBALで独自に切り出した文献タイトルの用語をもとにしたキーワードです

前のページに戻る