文献
J-GLOBAL ID:202002271242822036   整理番号:20A2259651

深層ニューラルネットワークのためのデータ増強の有効性改善へのアプローチ【JST・京大機械翻訳】

An Approach to Improving the Effectiveness of Data Augmentation for Deep Neural Networks
著者 (3件):
資料名:
巻: 2020  号: COMPSAC  ページ: 1290-1295  発行年: 2020年 
JST資料番号: W2441A  資料種別: 会議録 (C)
記事区分: 原著論文  発行国: アメリカ合衆国 (USA)  言語: 英語 (EN)
抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
今日,深層ニューラルネットワーク(DNN)は,分類,クラスタリングおよび回帰のような様々な分野で多くの成果を持つ。しかし,主要な欠点がある:それらは常にデータセットによって影響を受ける。データセットの良品質と量は伴うので,DNNははるかに優れた性能を持つことができた。この証拠は,良好なモデルが,よく組織化されたデータセットによってサポートされるべきであることを示した。この点で,DNNは,モデル訓練に用いたデータセットの質と量にも大きく影響される。一般的に,多くのDNNモデルは,データセットが問題の全ての側面を表すという仮定に基づいて,大きな性能を達成する。しかしながら,実際の状況に適用するためには,データセットは,各特定のアプリケーションのために修正または追加する必要がある。特に,既によく組織化されたデータセットに新しいクラスを追加することは難しい。既存のデータセットに完全に新しいクラスのデータを追加することは,まだ困難な課題である。本論文では,特にその量が既存データセットと比較して非常に小さい場合,データセットに新しいクラスのデータを加えるための簡単で効果的な方法を示した。第1に,著者らは,新しいクラスのデータが,そのようにデータセットに入るならば,性能がどのように影響を受けるかを実験した。次に,新しいデータの少量に関するモデルの性能を改良するために,著者らは,新しく追加したデータとオリジナルデータのバランスをとるために,アップサンプリング方法を使用した。アップサンプリング法は,データのバランスをとるためのインフレーション法の一つである。アップサンプリング法は,より少ない情報が忘れないように,異なる量のオブジェクトでデータのバランスを維持する。MNIST(手書きデータセット)とMSCOCO(画像キャプテーションデータセット)に関する著者らの実験を記述し,解析し,著者らのアップサンプリング手法がモデルの性能を改善できる方法を説明した。Copyright 2020 The Institute of Electrical and Electronics Engineers, Inc. All rights reserved. Translated from English into Japanese by JST.【JST・京大機械翻訳】
シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。

準シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
, 【Automatic Indexing@JST】
分類 (1件):
分類
JSTが定めた文献の分類名称とコードです
図形・画像処理一般 
タイトルに関連する用語 (3件):
タイトルに関連する用語
J-GLOBALで独自に切り出した文献タイトルの用語をもとにしたキーワードです

前のページに戻る