抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
今日,深層ニューラルネットワーク(DNN)は,分類,クラスタリングおよび回帰のような様々な分野で多くの成果を持つ。しかし,主要な欠点がある:それらは常にデータセットによって影響を受ける。データセットの良品質と量は伴うので,DNNははるかに優れた性能を持つことができた。この証拠は,良好なモデルが,よく組織化されたデータセットによってサポートされるべきであることを示した。この点で,DNNは,モデル訓練に用いたデータセットの質と量にも大きく影響される。一般的に,多くのDNNモデルは,データセットが問題の全ての側面を表すという仮定に基づいて,大きな性能を達成する。しかしながら,実際の状況に適用するためには,データセットは,各特定のアプリケーションのために修正または追加する必要がある。特に,既によく組織化されたデータセットに新しいクラスを追加することは難しい。既存のデータセットに完全に新しいクラスのデータを追加することは,まだ困難な課題である。本論文では,特にその量が既存データセットと比較して非常に小さい場合,データセットに新しいクラスのデータを加えるための簡単で効果的な方法を示した。第1に,著者らは,新しいクラスのデータが,そのようにデータセットに入るならば,性能がどのように影響を受けるかを実験した。次に,新しいデータの少量に関するモデルの性能を改良するために,著者らは,新しく追加したデータとオリジナルデータのバランスをとるために,アップサンプリング方法を使用した。アップサンプリング法は,データのバランスをとるためのインフレーション法の一つである。アップサンプリング法は,より少ない情報が忘れないように,異なる量のオブジェクトでデータのバランスを維持する。MNIST(手書きデータセット)とMSCOCO(画像キャプテーションデータセット)に関する著者らの実験を記述し,解析し,著者らのアップサンプリング手法がモデルの性能を改善できる方法を説明した。Copyright 2020 The Institute of Electrical and Electronics Engineers, Inc. All rights reserved. Translated from English into Japanese by JST.【JST・京大機械翻訳】