プレプリント
J-GLOBAL ID:202202206398578688   整理番号:22P0284265

畳込みニューラルネットワークにおけるストライドの学習【JST・京大機械翻訳】

Learning strides in convolutional neural networks
著者 (4件):
資料名:
発行年: 2022年02月03日  プレプリントサーバーでの情報更新日: 2022年02月03日
JST資料番号: O7000B  資料種別: プレプリント
記事区分: プレプリント  発行国: アメリカ合衆国 (USA)  言語: 英語 (EN)
抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
畳み込みニューラルネットワークは,通常,中間表現の分解能を徐々に低減する,ストライド畳込みまたはプール層のような,いくつかのダウンサンプリング演算子を含む。これは,全体のアーキテクチャの計算量を縮小しながら,いくつかのシフト不変性を提供する。そのような層の臨界超パラメータは,それらのストライドである:ダウンサンプリングの整数因子。ストライドは微分できないので,最良の構成を見つけるのは,交差確認または離散最適化(例えばアーキテクチャ探索)を必要とし,探索空間がダウンサンプリング層数とともに指数関数的に増大するので,急速に禁止される。したがって,勾配降下によるこの探索空間の探索は,より低い計算コストでより良い構成を見つけることができる。本研究では,学習可能なストライドを有する最初のダウンサンプリング層であるDiffStideを導入した。この層は,Fourier領域におけるクロッピングマスクのサイズを学習し,異なる方法で再サイジングを効果的に行う。オーディオと画像分類に関する実験は,著者らの解法の普遍性と有効性を示し,著者らは,標準ダウンサンプリング層へのドロップイン置換としてDiffStideを使用し,それらを凌駕する。特に,ResNet-18アーキテクチャに著者らの層を導入すると,訓練が不良なランダムストライド構成から始まる場合でも,CIFAR100,およびImageNetに一貫した高性能を保つことができることを示す。さらに,学習可能な変数としてのストライドの定式化により,アーキテクチャの計算の複雑さを制御する正則化項を導入することができる。ここでは,この正則化が画像Netに対する効率に対する精度のトレードオフを可能にすることを示した。【JST・京大機械翻訳】
シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。

準シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
, 【Automatic Indexing@JST】
分類 (3件):
分類
JSTが定めた文献の分類名称とコードです
図形・画像処理一般  ,  人工知能  ,  パターン認識 
タイトルに関連する用語 (2件):
タイトルに関連する用語
J-GLOBALで独自に切り出した文献タイトルの用語をもとにしたキーワードです

前のページに戻る