抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
畳み込みニューラルネットワークは,通常,中間表現の分解能を徐々に低減する,ストライド畳込みまたはプール層のような,いくつかのダウンサンプリング演算子を含む。これは,全体のアーキテクチャの計算量を縮小しながら,いくつかのシフト不変性を提供する。そのような層の臨界超パラメータは,それらのストライドである:ダウンサンプリングの整数因子。ストライドは微分できないので,最良の構成を見つけるのは,交差確認または離散最適化(例えばアーキテクチャ探索)を必要とし,探索空間がダウンサンプリング層数とともに指数関数的に増大するので,急速に禁止される。したがって,勾配降下によるこの探索空間の探索は,より低い計算コストでより良い構成を見つけることができる。本研究では,学習可能なストライドを有する最初のダウンサンプリング層であるDiffStideを導入した。この層は,Fourier領域におけるクロッピングマスクのサイズを学習し,異なる方法で再サイジングを効果的に行う。オーディオと画像分類に関する実験は,著者らの解法の普遍性と有効性を示し,著者らは,標準ダウンサンプリング層へのドロップイン置換としてDiffStideを使用し,それらを凌駕する。特に,ResNet-18アーキテクチャに著者らの層を導入すると,訓練が不良なランダムストライド構成から始まる場合でも,CIFAR100,およびImageNetに一貫した高性能を保つことができることを示す。さらに,学習可能な変数としてのストライドの定式化により,アーキテクチャの計算の複雑さを制御する正則化項を導入することができる。ここでは,この正則化が画像Netに対する効率に対する精度のトレードオフを可能にすることを示した。【JST・京大機械翻訳】