文献
J-GLOBAL ID:202102238820704854   整理番号:21A0231056

小データセットにおける深層学習ベース茶疾患検出のための転移学習と微調整【JST・京大機械翻訳】

Transfer Learning and Fine-Tuning for Deep Learning-Based Tea Diseases Detection on Small Datasets
著者 (5件):
資料名:
巻: 2020  号: ICRAMET  ページ: 206-211  発行年: 2020年 
JST資料番号: W2441A  資料種別: 会議録 (C)
記事区分: 原著論文  発行国: アメリカ合衆国 (USA)  言語: 英語 (EN)
抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
深層学習システムを訓練するために大量のデータが必要であることはよく知られている。しかし,データ収集は,それが不可能であれば,非常に高価である。限られたデータ問題を克服するために,1つは大きなデータセットで訓練されたモデルを使用し,限られたデータセットを持つターゲット領域にそれらを適用する。本論文では,画像Netデータに関する事前訓練モデルを使用し,茶葉疾患を検出するために,これらのデータに再訓練した。それらの事前訓練モデルは,深い畳み込みニューラルネットワーク(DCNN)アーキテクチャ:VGGNet,ResNet,およびX知覚を使用する。ImageNetの差分タスクを緩和するために,事前訓練モデルのいくつかの部分を新しい構造で置き換えることにより,事前訓練モデルに微調整を適用した。種々の再訓練と微調整スキーマを用いて性能を評価した。バニラ事前訓練モデルを,ベースラインとして使用し,一方,追加構造に関するモデルの再訓練,事前訓練モデルの部分的再訓練,および事前訓練モデルを評価者として初期化で使用する全ネットワークを完全に再訓練する他の技術を使用した。著者らの実験は,著者らのデータだけに転送学習を適用することが,画像Netに対する著者らのタスクにおける差異のために有効でないかもしれないことを示した。事前訓練したDCNNモデルへの微調整の適用は効果的であることが分かった。それは,転送学習のみまたは部分微調整の使用よりも一貫して優れている。それはまた,事前訓練モデルを使用することなく,スクラッチからモデルを訓練するより良い。Copyright 2021 The Institute of Electrical and Electronics Engineers, Inc. All rights reserved. Translated from English into Japanese by JST.【JST・京大機械翻訳】
シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。

準シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
, 【Automatic Indexing@JST】
分類 (2件):
分類
JSTが定めた文献の分類名称とコードです
図形・画像処理一般  ,  パターン認識 

前のページに戻る