抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
しばしば,1つのニューラルネットワークからもう1つのニューラルネットワークへの表現知識を転送することを望む。用例は,大きなネットワークをより小さなものに蒸留し,1つの感覚様式から2番目まで知識を転送するか,あるいは単一推定子にモデルの収集を集合させる。これらの問題に対する標準アプローチである知識蒸留は,教師と学生ネットワークの確率的出力間のKL発散を最小化する。この目的が教師ネットワークの重要な構造知識を無視することを示した。これは,データの教師の表現におけるより多くの情報を捉えるために,学生を訓練する代替目的を動機づける。この目的を対照学習として定式化した。実験は,著者らの新しい目的が,単一モデル圧縮,アンサンブル蒸留,および交差モード移動を含む,様々な知識移転タスクにおける知識蒸留と他の切断エッジ蒸留器より優れていることを実証した。提案手法は,多くの転送タスクにおいて新しい最先端技術を設定し,時には知識蒸留と組み合わせた場合,教師ネットワークを凌駕する。コード:http://github.com/HobbitLong/RepDistiller。【JST・京大機械翻訳】