文献
J-GLOBAL ID:201802243081568607   整理番号:18A1040147

最適化カーネル相互情報による高次元教師付き特徴選択【JST・京大機械翻訳】

High-dimensional supervised feature selection via optimized kernel mutual information
著者 (4件):
資料名:
巻: 108  ページ: 81-95  発行年: 2018年 
JST資料番号: W0178A  ISSN: 0957-4174  資料種別: 逐次刊行物 (A)
記事区分: 原著論文  発行国: オランダ (NLD)  言語: 英語 (EN)
抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
特徴選択は,データの次元を減らし,学習アルゴリズムの効率を改善するために,パターン認識のために非常に重要である。新しいアプローチに関する最近の研究は,主に精度の改善と計算時間の短縮に焦点を合わせている。本論文は,最適化カーネル相互情報(OKMI)アプローチに基づく柔軟な特徴選択法を提示した。相互情報(MI)は,決定木においてランク変数にうまく適用されてきた。その目的は,クラスラベルを実験データの分布と接続することである。MIの使用は無関係な特徴を除去し,冗長な特徴を減少させる。しかし,データ分布が集中しない場合,MIは通常ロバスト性が低い。この問題を克服するために,MIとカーネル関数を組み合わせたOKMIアプローチを用いることを提案した。この手法は,特徴ベクトルとクラスラベルベクトルに対するカーネルを定義することにより,非線形モデルによる特徴選択に使用できる。目的方程式を最適化することにより,MIとカーネル学習の両方を組み合わせた新しい特徴選択アルゴリズムを開発し,様々なカーネル選択法の間の関係を検討した。種々のデータセットに適用した新しい手法を他の方法と比較するために実験を行い,各ケースにおいて,OKMIアプローチは特徴分類精度と計算時間に関して他の方法よりも優れている。OKMI方法は,分布の確率における計算複雑性の問題を解決して,非常に低い計算コストで最適な特徴を見つけることによって,この問題を避ける。結果として,提案したアルゴリズムを用いたOKMI法は,エキスパートシステムにおける広範囲の実際の応用に対して有効でロバストである。Copyright 2018 Elsevier B.V., Amsterdam. All rights reserved. Translated from English into Japanese by JST.【JST・京大機械翻訳】
シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。

準シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
, 【Automatic Indexing@JST】
分類 (2件):
分類
JSTが定めた文献の分類名称とコードです
パターン認識  ,  人工知能 
タイトルに関連する用語 (5件):
タイトルに関連する用語
J-GLOBALで独自に切り出した文献タイトルの用語をもとにしたキーワードです

前のページに戻る