抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
サポートベクトルマシン(SVM)の学習を行なうためには2次計画問題を解く必要があり,SVMのスケーラビリティ問題に対しdecomosition手法が最も良く使用される。decompositionの基本的な考え方は,訓練データの集合をアクティブ・ワーキングセット(WS)と非アクティブWSの2つに分け,各訓練用サンプルに対する重み係数の更新をアクティブWSに限定し,非アクティブWSの重み係数は一時的に固定したままにする.本稿では,iSVMと呼ぶ,大規模なSVM学習に適した,2段式の逐次ワーキングセット選択手法を提案した.本手法では,まず各クラスから1個ずつ選んだサンプルからなる最小のWSを構成し,SVM学習の初期解を得る.その後,WSに訓練サンプルを1個ずつ追加しながらSVMの解を更新していく.WSに追加するサンプルの選び方が,学習過程の前半と後半で異なっている.前半ではランダムサンプリングで得た一定個数のサンプル集合の中から最も効果がありそうな1個をWS追加用に選び出す.後半では追加対象として適切かどうかのチェックを残った訓練サンプルのすべてに対して行う.また本稿では,iSVMの学習時間は訓練用サンプルの数に比例,もしくは,サポートベクトル数の3乗に比例することを示した.さらに,大規模なベンチマークデータを使って,訓練サンプルの数に比べサポートベクトルの数が少ない判別問題で特にiSVMが高速に動作することを示した.