プレプリント
J-GLOBAL ID:202202208226908948   整理番号:22P0300661

スーパーネットワークを通した進化的ニューラルカスケード探索【JST・京大機械翻訳】

Evolutionary Neural Cascade Search across Supernetworks
著者 (3件):
資料名:
発行年: 2022年03月08日  プレプリントサーバーでの情報更新日: 2022年04月28日
JST資料番号: O7000B  資料種別: プレプリント
記事区分: プレプリント  発行国: アメリカ合衆国 (USA)  言語: 英語 (EN)
※このプレプリント論文は学術誌に掲載済みです。なお、学術誌掲載の際には一部内容が変更されている可能性があります。
抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
現代のニューラルネットワークで優れた性能を達成するために,正しいネットワークアーキテクチャは重要である。ニューラルアーキテクチャ検索(NAS)は,タスク特有のネットワークアーキテクチャの自動発見に関係する。最新のNAS手法は,サブネットワークが候補ニューラルネットワークアーキテクチャを符号化するスーパーネットワークを利用する。これらのサブネットワークを同時に訓練し,スクラッチから各ネットワークを訓練する必要性を除去し,それによってNASの効率を高めた。ニューラルアーキテクチャ転送(NAT)と呼ばれる最近の方法は,画像Net上で事前訓練されたスーパーネットワークの高品質サブネットワークを見つけるための多目的進化アルゴリズムを用いることにより,コンピュータビジョンタスクに対するNASの効率をさらに改善する。NATで構築して,ENCAS-Evolutional Neural Cascade検索を導入した。ENCASは,異なるニューラルネットワークアーキテクチャのカスケードのトレードオフフロントを達成するために,多重事前訓練スーパーネットワークを探索するために使用でき,FLOP数を最小化する間,精度を最大化する。一般的コンピュータビジョンベンチマーク(CIFAR-10,CIFAR-100,ImageNet)上でENCASをテストし,以前の最先端のNASモデルに対して1.5GFLOPsまでのパレート優位性を達成した。さらに,ENCASを518の公的に利用可能なImageNet分類器のプールに適用することは,すべての計算体制においてPareto優位をもたらし,88.6%から89.0%まで最大精度を増加して,362から296GFLOPsまでの計算努力の18%の減少を伴った。著者らのコードはhttps://github.com/AwesomeLemon/ENCASで利用可能である。【JST・京大機械翻訳】
シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。

準シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
, 【Automatic Indexing@JST】
分類 (2件):
分類
JSTが定めた文献の分類名称とコードです
人工知能  ,  ニューロコンピュータ 
タイトルに関連する用語 (2件):
タイトルに関連する用語
J-GLOBALで独自に切り出した文献タイトルの用語をもとにしたキーワードです

前のページに戻る