プレプリント
J-GLOBAL ID:202202201428282493   整理番号:22P0023725

識別と比較可能な1クラス分類器によるExemplarフリークラスインクリメンタル学習【JST・京大機械翻訳】

Exemplar-free Class Incremental Learning via Discriminative and Comparable One-class Classifiers
著者 (6件):
資料名:
発行年: 2022年01月05日  プレプリントサーバーでの情報更新日: 2022年01月05日
JST資料番号: O7000B  資料種別: プレプリント
記事区分: プレプリント  発行国: アメリカ合衆国 (USA)  言語: 英語 (EN)
抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
例のないクラスインクリメンタル学習は,古いサンプルを保持することなく,新しいクラス知識を漸増的に学習するための分類モデルを必要とする。最近,各カテゴリに対して独立に1クラス分類器(OCC)を訓練する並列1クラス分類器(POC)に基づくフレームワークは,それが自然に壊滅的忘却を避けることができるので,広範な注目を引きつけている。しかし,POCは,異なるOOCに対する独立した訓練戦略により,弱い識別可能性と比較性に悩まされる。この課題に応えるために,増分学習(DisCOIL)のための識別可能および比較可能な1クラス分類器という新しいフレームワークを提案した。DisCOILはPOCの基本原理に従うが,訓練されたVAEはクラスに属する入力サンプルの確率を同定するだけでなく,新しいタスクの学習を支援するクラスの擬似サンプルを生成することができるので,他の良く確立された1クラス分類器(例えば,深いSVDD)の代わりに変分オートエンコーダ(VAE)を採用する。この利点により,DisCOILは旧クラスVAEと対比して新しいクラスVAEを訓練し,新しいクラスVAEを新しいクラスサンプルで再構成するが,古いクラス偽サンプルでは悪くなり,その結果,比較可能性を強化する。さらに,DisCOILは識別可能性を確保するためにヒンジ再構成損失を導入する。MNIST,CIFAR10,およびTiny-ImageNet上でこの方法を広範囲に評価した。実験結果は,DisCOILが最先端の性能を達成することを示した。【JST・京大機械翻訳】
シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。

準シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
, 【Automatic Indexing@JST】
分類 (2件):
分類
JSTが定めた文献の分類名称とコードです
人工知能  ,  ニューロコンピュータ 
タイトルに関連する用語 (4件):
タイトルに関連する用語
J-GLOBALで独自に切り出した文献タイトルの用語をもとにしたキーワードです

前のページに戻る