文献
J-GLOBAL ID:200902292247183577   整理番号:08A1059414

大規模SVM学習のための2段式逐次ワーキングセット選択手法

著者 (5件):
資料名:
巻:号:ページ: 61-66  発行年: 2008年06月27日 
JST資料番号: L5754A  ISSN: 1883-1060  資料種別: 逐次刊行物 (A)
記事区分: 原著論文  発行国: 日本 (JPN)  言語: 日本語 (JA)
抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
サポートベクトルマシン(SVM)の学習を行なうためには2次計画問題を解く必要があり,SVMのスケーラビリティ問題に対しdecomosition手法が最も良く使用される。decompositionの基本的な考え方は,訓練データの集合をアクティブ・ワーキングセット(WS)と非アクティブWSの2つに分け,各訓練用サンプルに対する重み係数の更新をアクティブWSに限定し,非アクティブWSの重み係数は一時的に固定したままにする.本稿では,iSVMと呼ぶ,大規模なSVM学習に適した,2段式の逐次ワーキングセット選択手法を提案した.本手法では,まず各クラスから1個ずつ選んだサンプルからなる最小のWSを構成し,SVM学習の初期解を得る.その後,WSに訓練サンプルを1個ずつ追加しながらSVMの解を更新していく.WSに追加するサンプルの選び方が,学習過程の前半と後半で異なっている.前半ではランダムサンプリングで得た一定個数のサンプル集合の中から最も効果がありそうな1個をWS追加用に選び出す.後半では追加対象として適切かどうかのチェックを残った訓練サンプルのすべてに対して行う.また本稿では,iSVMの学習時間は訓練用サンプルの数に比例,もしくは,サポートベクトル数の3乗に比例することを示した.さらに,大規模なベンチマークデータを使って,訓練サンプルの数に比べサポートベクトルの数が少ない判別問題で特にiSVMが高速に動作することを示した.
シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。

分類 (1件):
分類
JSTが定めた文献の分類名称とコードです
人工知能 
引用文献 (18件):
  • C. Cortes and V. Vapnik, “Support vector networks”, Machine Learning, vol.20, pp. 273-297, 1995
  • C. Cristianini and J. Shawe-Taylor, “An Introduction to Support Vector Machines”, Cambridge University Press, 2000
  • C. J. C. Burges, “A tutorial on support vector machines for pattern recognition”, Data Mining and Knowledge Discovery, vol.2, no.2, pp. 121-167, 1998.
  • R. Fan, P. Chen, and C. Lin, “Working Set Selection Using Second Order Information for Training Support Vector Machines”. J. Mach. Learn. Res.6, 1889-1918, 2005.
  • I. W. Tsang, J. T. Kwok, and P.-M. Cheung, “Core vector machines: Fast SVM training on very large datasets”, in J. Mach. Learn. Res., vol.6, pp. 363-392, 2005.
もっと見る

前のページに戻る