プレプリント
J-GLOBAL ID:202202206362713988   整理番号:22P0213488

MNIST-1Dによる深層学習のスケーリングダウン【JST機械翻訳】

Scaling Down Deep Learning with MNIST-1D
著者 (2件):
資料名:
発行年: 2020年11月29日  プレプリントサーバーでの情報更新日: 2024年06月03日
JST資料番号: O7000B  資料種別: プレプリント
記事区分: プレプリント  発行国: アメリカ合衆国 (USA)  言語: 英語 (EN)
抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
商業および政治的関連性に関して深層学習モデルが取り上げられているが,その訓練および運用に関する主要な側面については十分に理解されていない。これは,大量の時間,金,および電気を必要とする多くの深層学習プロジェクトの科学に興味を呼び起こした。しかし,この研究のどれくらいが本当にスケールで発生する必要があるか?本論文では,MNIST-1D:古典的深層学習ベンチマークに対するミニマリスト,手続き生成,低メモリ,低計算代替案を提案した。MNIST-1Dの次元は40だけであり,そのデフォルト訓練集合サイズは4000だけであるが,MNIST-1Dは,種々の深いアーキテクチャの誘導バイアスを研究して,宝くじ切符を発見して,深い二重降下を観察して,活性化関数を調整して,自己監督学習におけるギロチン正則化を実証するために使用することができた。これらのすべての実験はGPU上で,またはCPU上でも数分以内に行われることができ,高速プロトタイピング,教育的使用例,および低予算での最先端の研究を可能にする。【JST機械翻訳】
シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。

準シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
, 【Automatic Indexing@JST】
分類 (1件):
分類
JSTが定めた文献の分類名称とコードです
人工知能 
タイトルに関連する用語 (3件):
タイトルに関連する用語
J-GLOBALで独自に切り出した文献タイトルの用語をもとにしたキーワードです

前のページに戻る