文献
J-GLOBAL ID:202202262245948714   整理番号:22A1175368

データフリーモデル圧縮のための二重弁別器敵対蒸留【JST・京大機械翻訳】

Dual discriminator adversarial distillation for data-free model compression
著者 (7件):
資料名:
巻: 13  号:ページ: 1213-1230  発行年: 2022年 
JST資料番号: W4478A  ISSN: 1868-8071  資料種別: 逐次刊行物 (A)
記事区分: 原著論文  発行国: ドイツ (DEU)  言語: 英語 (EN)
抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
知識蒸留は,コンピュータビジョンタスクのためのエッジデバイスにうまく適用可能な携帯可能かつ効率的なニューラルネットワークを生成するために広く使用されている。しかし,ほとんど全てのトップパーフォーマンス知識蒸留法は,通常,巨大なサイズを持ち,しばしば利用できない,元の訓練データにアクセスする必要がある。この問題に取り組むために,本論文では,任意の訓練データまたはメタデータを必要とせずにニューラルネットワークを蒸留するために,二重識別器敵対蒸留(DDAD)と名付けた新しいデータフリーアプローチを提案した。特異的であるために,著者らは,元の訓練データを模倣する,二重識別器敵対蒸留を通してサンプルを作成するために,発電機を使用した。発電機は,既存のバッチ正規化層における事前訓練教師の固有統計を使用するだけでなく,学生モデルからの最大の不一致も得る。次に,生成したサンプルを用いて,教師の監視の下でコンパクトな学生ネットワークを訓練した。提案方法は,元の訓練データを使用することなく,その教師ネットワークを密接に近似する効率的な学生ネットワークを得る。分類タスクに対するCIFAR,Caltech101およびImageNetデータセットに対する提案アプローチの有効性を実証するために,広範な実験を行った。さらに,この方法を,CamVid,NYUv2,都市景観およびVOC2012のようないくつかの公開データセット上で意味セグメンテーションタスクに拡張した。知る限りでは,これは,ImageNet,都市景観およびVOC2012のような大規模データセットに関する生成モデルベースデータフリー知識蒸留に関する最初の研究である。実験は,著者らの方法がデータフリー知識蒸留のためにすべてのベースラインより優れていることを示した。Copyright The Author(s), under exclusive licence to Springer-Verlag GmbH Germany, part of Springer Nature 2021 Translated from English into Japanese by JST.【JST・京大機械翻訳】
シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。

準シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
, 【Automatic Indexing@JST】
分類 (1件):
分類
JSTが定めた文献の分類名称とコードです
蒸留,蒸発 
タイトルに関連する用語 (4件):
タイトルに関連する用語
J-GLOBALで独自に切り出した文献タイトルの用語をもとにしたキーワードです

前のページに戻る