プレプリント
J-GLOBAL ID:202202212745616056   整理番号:22P0290552

Meta知識蒸留【JST・京大機械翻訳】

Meta Knowledge Distillation
著者 (4件):
資料名:
発行年: 2022年02月16日  プレプリントサーバーでの情報更新日: 2022年02月16日
JST資料番号: O7000B  資料種別: プレプリント
記事区分: プレプリント  発行国: アメリカ合衆国 (USA)  言語: 英語 (EN)
抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
最近の研究は,知識蒸留(KD)が2つの劣化問題,教師-スチューデントギャップ,および強いデータ増強との不和合性に悩まし,先進的な増強で訓練された最新のモデル訓練に適用できないことを指摘している。しかしながら,著者らは,キーファクタ,すなわち,教師と学生モデルの両方の確率を発生させるためのソフトマックス関数における温度が,以前の方法でほとんど見落とされることを観察した。適切に調整した温度によって,KDの劣化問題は,かなり軽減することができた。しかし,貧弱な転送性を示すナイーブグリッド探索に頼る代わりに,学習可能なメタ温度パラメータによる蒸留をメタ学習するためのMeta知識蒸留(MKD)を提案した。メタパラメータは学習目的の勾配に従って訓練中に適応的に調整される。MKDは,異なるデータセットスケール,異なる教師/スチューデントアーキテクチャ,および異なるタイプのデータ増強に対してロバストであることを検証した。MKDを用いて,訓練データとしてImageNet-1Kのみを使用する比較手法の中で,一般的ViTアーキテクチャを用いて最良の性能を達成し,小から大モデルまでの範囲とした。ViT-Lを用いて,訓練の600の時代で86.5%を達成し,1,650の時代に訓練するMAEより0.6%良い。【JST・京大機械翻訳】
シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。

準シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
, 【Automatic Indexing@JST】
分類 (1件):
分類
JSTが定めた文献の分類名称とコードです
人工知能 
タイトルに関連する用語 (1件):
タイトルに関連する用語
J-GLOBALで独自に切り出した文献タイトルの用語をもとにしたキーワードです

前のページに戻る