プレプリント
J-GLOBAL ID:202202218795741267   整理番号:22P0278304

CNNにおけるデータ効率的トレーニングとBias低減による赤外線画像に関する背景不変分類【JST・京大機械翻訳】

Background Invariant Classification on Infrared Imagery by Data Efficient Training and Reducing Bias in CNNs
著者 (3件):
資料名:
発行年: 2022年01月22日  プレプリントサーバーでの情報更新日: 2022年02月09日
JST資料番号: O7000B  資料種別: プレプリント
記事区分: プレプリント  発行国: アメリカ合衆国 (USA)  言語: 英語 (EN)
抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
畳み込みニューラルネットワークは画像中のオブジェクトを非常に正確に分類できるが,ネットワークの注意が常にシーンの意味的に重要な領域ではないことはよく知られている。ネットワークはしばしば背景テクスチャを学習し,対象の対象とは関連しない。次に,これはネットワークを,その性能に負に影響するバックグラウンドの変化および変化に敏感にする。著者らは,赤外線画像とRGBデータの両方に関するCNNにおけるこのバイアスを減らすために,分割訓練と呼ばれる新しい2段階訓練手順を提案する。分割訓練手続きは,2つのステップを持つ:MSE損失を用いて,背景のない画像を用いて訓練されたとき,同じネットワークの活性化にマッチする背景を持つ画像上のネットワークの層を最初に訓練する。次に,これらの層を凍結して,対象物を分類するために交差エントロピー損失によってネットワークの残りを訓練した。著者らの訓練方法は,単純なCNNアーキテクチャと多くのハードウェア資源を使用するVGGと高密度ネットのような深いCNNの両方における従来の訓練手順より優れていて,より高い精度を有するバックグラウンドより形状および構造に関してより多くの焦点を合わせた人間の視覚を模倣するように学習する。【JST・京大機械翻訳】
シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。

準シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
, 【Automatic Indexing@JST】
分類 (1件):
分類
JSTが定めた文献の分類名称とコードです
図形・画像処理一般 

前のページに戻る