プレプリント
J-GLOBAL ID:202202213423612230   整理番号:22P0345452

より少ないこと,より良いこと:生涯群衆計数のための領域増分自己蒸留学習ベンチマーク【JST・京大機械翻訳】

Forget Less, Count Better: A Domain-Incremental Self-Distillation Learning Benchmark for Lifelong Crowd Counting
著者 (7件):
資料名:
発行年: 2022年05月06日  プレプリントサーバーでの情報更新日: 2023年01月29日
JST資料番号: O7000B  資料種別: プレプリント
記事区分: プレプリント  発行国: アメリカ合衆国 (USA)  言語: 英語 (EN)
※このプレプリント論文は学術誌に掲載済みです。なお、学術誌掲載の際には一部内容が変更されている可能性があります。
抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
クロード計数は,公共安全とパンデミック制御において重要な応用を持つ。ロバストで実用的なクラウド計数システムは,1つのドメインのみをフィッティングする代わりに,実世界シナリオで新しい入力領域データで連続的に学習できる。複数領域を扱うとき,オフラインの方法にはいくつかの欠点がある。(1)モデルは,壊滅的忘却と呼ばれる様々なドメインからの固有データ分布の不一致により,新しいドメインからの訓練画像後に,古いドメイン間で限られた性能(劇的に低下)を達成するであろう。(2)ドメインシフトのため,特定のドメインにおけるよく訓練されたモデルは,他の非意味ドメインの間で不完全な性能を達成する。(3)それは,新しいものが利用できるとき,異なるドメインのために訓練または単に訓練のためのすべてのデータを混合するか,または単に訓練のためのすべてのデータを混合するのに,直線的に増加する貯蔵オーバヘッドに導いた。これらの問題を克服するために,著者らは,生涯クロード計数と呼ばれる増分ドメイン訓練設定における新しい群衆計数タスクを調査した。その目標は,破滅的忘却を軽減し,増分領域によって更新された単一モデルを用いて一般化能力を改善することである。特に,著者らは,新しいデータが到着するときの忘却を緩和するためのより良い群衆計数のための以前の意味ある知識を持続的に活用するのを助ける,生涯群衆計数のためのベンチマークとして自己蒸留学習フレームワークを提案する。さらに,新しい定量的計量,正規化後方移動(nBwT)を開発し,生涯学習プロセスにおけるモデルの忘却度を評価した。広範な実験結果は,提案したベンチマークの優位性が,低い壊滅的忘却度および強い一般化能力を達成することを実証した。【JST・京大機械翻訳】
シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。

準シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
, 【Automatic Indexing@JST】
分類 (2件):
分類
JSTが定めた文献の分類名称とコードです
図形・画像処理一般  ,  パターン認識 
タイトルに関連する用語 (5件):
タイトルに関連する用語
J-GLOBALで独自に切り出した文献タイトルの用語をもとにしたキーワードです

前のページに戻る