プレプリント
J-GLOBAL ID:202202208313336080   整理番号:22P0043271

部分的ネットワーク共有を用いた深層畳込みニューラルネットワークにおける増分学習【JST・京大機械翻訳】

Incremental Learning in Deep Convolutional Neural Networks Using Partial Network Sharing
著者 (3件):
資料名:
発行年: 2017年12月07日  プレプリントサーバーでの情報更新日: 2019年05月02日
JST資料番号: O7000B  資料種別: プレプリント
記事区分: プレプリント  発行国: アメリカ合衆国 (USA)  言語: 英語 (EN)
※このプレプリント論文は学術誌に掲載済みです。なお、学術誌掲載の際には一部内容が変更されている可能性があります。
抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
深い畳み込みニューラルネットワーク(DCNN)ベースの教師つき学習は,大規模画像分類のための広く実践されたアプローチである。しかし,これらの大きなネットワークを再訓練して,新しい,以前には,データ要求は,高い計算時間とエネルギー要求を要求する。また,以前に見られた訓練試料は再訓練時に利用できない。ベースネットワークの一部を共有しながら,新しいタスクを学習するために,効率的な訓練方法論とインクリメンタルに成長するDCNNを提案した。提案手法は,以前に学習されたタスクを忘れないが,転送学習技法によってヒントを得た。ネットワークの新しい集合を学習するための更新されたネットワークを,ネットワークの後期層に含まれている少数の新しく加えられた畳込みカーネルの付加によって,以前に学習された畳込み層(ベースネットワークの初期部分から共有)を用いて形成した。著者らは,古いタスクにおけるいかなる性能損失なしでも,ネットワークが新しいタスクを学習するのを可能にする,「のクローンと分岐の技術を採用した。いくつかの認識アプリケーションで提案方式を評価した。著者らのアプローチによって達成された分類精度は,通常の増分学習アプローチ(ネットワーク共有なしでネットワークが新しい訓練サンプルだけによって更新される)と同程度であり,一方,エネルギー効率,記憶要求の低減,メモリアクセスおよび訓練時間を達成した。【JST・京大機械翻訳】
シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。

準シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
, 【Automatic Indexing@JST】
分類 (2件):
分類
JSTが定めた文献の分類名称とコードです
人工知能  ,  パターン認識 
タイトルに関連する用語 (4件):
タイトルに関連する用語
J-GLOBALで独自に切り出した文献タイトルの用語をもとにしたキーワードです

前のページに戻る