抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
K近傍(K-nearestNeighbor,KNN)法の予測結果は,データサンプルが不均衡であるときに,サンプル数に偏った。KNN不均衡サンプル分類最適化(KSID)を,少数のオーバーサンプリング法(SMOTE)に基づいて提案した。プロセスは次のとおりである。まず第一に,SMOTE方式を使用して,不均衡な訓練集合を平衡化し,論理的回帰モデルを訓練した。次に,訓練集合を論理的回帰モデルによって予測して,正サンプルと予測するデータを得て,SMOTE方式を使用して,この正サンプルを平衡化し,KNNモデルを訓練した。最後に,テスト集合を,この結合論理回帰方式のKNNモデル予測に適用し,そして,最終予測結果を得た。KSIDと論理的回帰,KNN,およびサポートベクトルマシン(SVM)ディシジョンツリーを,6つの不均衡データセットに関して比較して,結果は,KSID方式が,精度,再現率,適合率,およびF1値において,他の3つの方法より優れていることを示した。SMOTEを導入することによって,KSID法は,KNNモデルがサンプル不均衡データセットに遭遇するとき,分類偏向の問題を生じて,KNN方式の最適化と応用の更なる研究のための参照を提供した。Data from Wanfang. Translated by JST.【JST・京大機械翻訳】