文献
J-GLOBAL ID:202002218182425030   整理番号:20A0206166

大規模データに関する高速訓練のための極値ベクトルマシン【JST・京大機械翻訳】

Extreme vector machine for fast training on large data
著者 (5件):
資料名:
巻: 11  号:ページ: 33-53  発行年: 2020年 
JST資料番号: W4478A  ISSN: 1868-8071  資料種別: 逐次刊行物 (A)
記事区分: 原著論文  発行国: ドイツ (DEU)  言語: 英語 (EN)
抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
非常にしばしば,異なるタイプの損失関数をSVMまたはその変種において採用して,実用的要求を満たした。大規模データセットのために対応するSVMをスケールアップする方法は,実際にますます重要になっている。本論文では,極端なベクトルマシン(EVM)を提案し,大規模データセット上で異なるが典型的な損失関数を持つSVMの高速訓練を実現した。EVMは,特徴空間における訓練データの極端なベクトルによって表現される凸包の高速近似で始まり,次に,極端なベクトル集合上で対応するSVM最適化を完了する。ヒンジ損失関数を採用するとき,EVMは分類のための近似的極値点サポートベクトルマシン(AESVM)と同じである。二乗ヒンジ損失関数,最小二乗損失関数およびHuber損失関数を採用したとき,EVMは,分類または回帰のために,それぞれ,L2-EVM,LS-EVMおよびHubh-EVMの3つのバージョンに対応した。最も関連する機械AESVMとは対照的に,その理論的利点の保持により,EVMは,実用的要求を満たすための広範囲の損失関数への適用性において独特である。SVMの他の最先端の高速訓練アルゴリズムCVMとFastKDEと比較して,EVMは実際に最小二乗損失関数の限界を緩和して,実験的に訓練時間,ロバスト性能力とサポートベクトルの数においてその優位性を示した。Copyright 2019 Springer-Verlag GmbH Germany, part of Springer Nature Translated from English into Japanese by JST.【JST・京大機械翻訳】
シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。

準シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
, 【Automatic Indexing@JST】
分類 (3件):
分類
JSTが定めた文献の分類名称とコードです
数値計算  ,  その他のオペレーションズリサーチの手法  ,  人工知能 
タイトルに関連する用語 (5件):
タイトルに関連する用語
J-GLOBALで独自に切り出した文献タイトルの用語をもとにしたキーワードです

前のページに戻る