抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
近年,機械学習の中でも畳み込みニューラル・ネットワーク(CNN)が高い認識精度を示すことから,大きな注目を集めている。CNNは深層ニューラル・ネットワークであり,規模が大きくパラメータ数も多いことが問題としてあげられる。そのため,個々のパラメータに着目したデータ圧縮手法など,ネットワーク規模を縮小する研究が行われている。しかしながら,CNN特有の重み(カーネル)構造の類似性に着目したデータ圧縮手法は報告されていない。そこで我々は,CNN計算におけるカーネルの構造的意味を持つ最小の単位である2次元カーネルの類似性に着目し,クラスタリングと近似を行うことによりCNN計算の省メモリ化を行う手法を提案している。我々の過去の報告では,少ないカーネル数のCNNに対して少ないクラスタ数でクラスタリングを行った際の提案手法の有効性を示したが,本報告では,より大規模なCNNに対して様々なクラスタ数でクラスタリングを行った際の結果を示す。VGG-16の全カーネルに対して本手法を適用した結果,最大で85.6%のカーネルデータを削減しても認識精度を80%以上に保つことができた。本提案手法はPruningや量子化と直交した技術であり,これらを併用することでさらなるデータ圧縮が可能である。(著者抄録)