文献
J-GLOBAL ID:202202264542687085   整理番号:22A1102139

非凸正則化を用いたスパースニューラルネットワークの学習【JST・京大機械翻訳】

Learning Sparse Neural Networks Using Non-Convex Regularization
著者 (3件):
資料名:
巻:号:ページ: 287-299  発行年: 2022年 
JST資料番号: W2473A  ISSN: 2471-285X  資料種別: 逐次刊行物 (A)
記事区分: 原著論文  発行国: アメリカ合衆国 (USA)  言語: 英語 (EN)
抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
深層ニューラルネットワーク(DNN)は,近年,主に視覚認識で工学の様々な分野で顕著な成功を達成した計算パラダイムである。DNNは多数の重みパラメータ(および深さ増加)の存在に成功し,実装のための巨大な計算およびメモリコストにつながった。これらの制限因子は,資源制約装置(IoTデバイスのような)上のそのようなアルゴリズムのスケーラビリティを妨げる。一般的に,DNNはパラメータ化i.e.で,パラメータは非常に冗長であり,性能の著しい損失なしに構造的に除去できる。これらの問題を解決するために,構造化スパース性を導入するために,冗長なニューロン/フィルタを完全に取り除くために,スパースグループラッソの付加的効果とともに非凸Tl_1正則化器を使用することを提案した。ネットワークを近位勾配法を用いて訓練し,平滑と非平滑項の組み合わせで関数の最適化に有用である。提案した正則化器は,非常にコンパクトなネットワークと同様に競合性能を達成するために管理する。手法の効率を説明するいくつかのベンチマークデータセットについて詳細な実験を行った。ImageNetデータセット上で,本手法は,精度の低下なしに,畳み込み層のパラメータの50%以上とAlexnetの完全に接続された層の85%のパラメータを除去する。Copyright 2022 The Institute of Electrical and Electronics Engineers, Inc. All rights reserved. Translated from English into Japanese by JST.【JST・京大機械翻訳】
シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。

準シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
, 【Automatic Indexing@JST】
分類 (2件):
分類
JSTが定めた文献の分類名称とコードです
人工知能  ,  パターン認識 
タイトルに関連する用語 (3件):
タイトルに関連する用語
J-GLOBALで独自に切り出した文献タイトルの用語をもとにしたキーワードです

前のページに戻る