文献
J-GLOBAL ID:202202221464944213   整理番号:22A0398290

データ表現不変性を利用した深層ニューラルネットワーク自己蒸留【JST・京大機械翻訳】

Deep Neural Network Self-Distillation Exploiting Data Representation Invariance
著者 (2件):
資料名:
巻: 33  号:ページ: 257-269  発行年: 2022年 
JST資料番号: T0881A  ISSN: 2162-237X  CODEN: ITNNEP  資料種別: 逐次刊行物 (A)
記事区分: 原著論文  発行国: アメリカ合衆国 (USA)  言語: 英語 (EN)
抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
高精度で小さなネットワークを収穫するために,ほとんどの既存の方法は,主に低ランク分解や剪定のような圧縮技術を利用して,訓練された大規模モデルを小さなネットワークに圧縮し,強力な大規模モデル(教師)から小さなネットワーク(直感的)への移動知識を圧縮する。高性能の小さいモデルの生成の成功にもかかわらず,付随する支援モデルの依存性は訓練プロセスを複雑にし,メモリと時間コストを増加させる。本論文では,支援モデルを通して直接,高精度モデルを得るための,エレガント自己蒸留(SD)機構を提案した。人間の視覚システムにおける不変認識に触発されて,同じ入力の異なった歪インスタンスは,類似の高レベルデータ表現を持つべきである。従って,同じ試料の異なる歪バージョン間のデータ表現不変性を学習できる。特に,SDに基づく著者らの学習アルゴリズムにおいて,単一ネットワークは,大域的特徴一貫性とKullback Lagrangle Leibler発散を学習するために,最大平均不一致計量を利用して,異なる歪分枝を横切る後部クラス確率一貫性を制約した。MNIST,CIFAR-10/100,およびImageNetデータセットに関する広範な実験は,提案した方法が,AlexNet,VGGNet,ResNet,Wide ResNet,および高密度Netのような様々なネットワークアーキテクチャの一般化誤差を効果的に低減でき,また,既存のモデル蒸留法よりも,ほとんど余分な訓練努力を凌駕することを実証した。”結論]は,AlexNet,VGGNet,ResNet,Wide ResNet,および高密度Netのような様々なネットワークアーキテクチャの一般化誤差を効果的に削減できる。Copyright 2022 The Institute of Electrical and Electronics Engineers, Inc. All rights reserved. Translated from English into Japanese by JST.【JST・京大機械翻訳】
シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。

準シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
, 【Automatic Indexing@JST】
分類 (2件):
分類
JSTが定めた文献の分類名称とコードです
パターン認識  ,  人工知能 
タイトルに関連する用語 (5件):
タイトルに関連する用語
J-GLOBALで独自に切り出した文献タイトルの用語をもとにしたキーワードです

前のページに戻る