文献
J-GLOBAL ID:202002256417153589   整理番号:20A0266560

部分的ネットワーク共有を用いた深部畳込みニューラルネットワークにおける増分学習【JST・京大機械翻訳】

Incremental Learning in Deep Convolutional Neural Networks Using Partial Network Sharing
著者 (3件):
資料名:
巻:ページ: 4615-4628  発行年: 2020年 
JST資料番号: W2422A  ISSN: 2169-3536  資料種別: 逐次刊行物 (A)
記事区分: 原著論文  発行国: アメリカ合衆国 (USA)  言語: 英語 (EN)
抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
深部畳込みニューラルネットワーク(DCNN)に基づく教師つき学習は,大規模画像分類のための広く実施されているアプローチである。しかし,これらの大規模ネットワークを再訓練することにより,以前に見られていないデータは,高い計算時間とエネルギー要件を必要とする。また,以前に見られた訓練サンプルは再訓練時に利用できない。著者らは,ベースネットワークの部分を共有しながら,新しいタスクを学習するために,効率的な訓練方法論と増分的に成長するDCNNを提案した。著者らの提案方法論は,以前に学習されたタスクを忘れないが,伝達学習技術によって触発される。クラスの新しい集合を学習するための更新ネットワークは,ネットワークの後期層に含まれる新たに追加された畳込みカーネルの追加により,以前に学習された畳込み層(ベースネットワークの初期部分から共有される)を用いて形成される。著者らは,キャリブレーションによって,一つの方法を用いて,古い作業における性能損失なしで,もう一つの後に,新しい作業(古い作業と同様の特徴を有するクラスを含む)を学習することを可能にした。いくつかの認識応用に関する提案方式を評価した。著者らのアプローチによって達成された分類精度は,通常の増分学習手法(ネットワークが新しい訓練サンプルのみで更新される)に匹敵するが,エネルギー効率,記憶要件の削減,メモリアクセスと訓練時間を達成する。Copyright 2020 The Institute of Electrical and Electronics Engineers, Inc. All rights reserved. Translated from English into Japanese by JST.【JST・京大機械翻訳】
シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。

準シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
, 【Automatic Indexing@JST】
分類 (1件):
分類
JSTが定めた文献の分類名称とコードです
パターン認識 
タイトルに関連する用語 (5件):
タイトルに関連する用語
J-GLOBALで独自に切り出した文献タイトルの用語をもとにしたキーワードです

前のページに戻る