文献
J-GLOBAL ID:202002283512986461   整理番号:20A0194355

非計量教師付き学習におけるコア集合モデルのスパース化【JST・京大機械翻訳】

Sparsification of core set models in non-metric supervised learning
著者 (4件):
資料名:
巻: 129  ページ: 1-7  発行年: 2020年 
JST資料番号: H0913A  ISSN: 0167-8655  資料種別: 逐次刊行物 (A)
記事区分: 短報  発行国: オランダ (NLD)  言語: 英語 (EN)
抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
正の半正定カーネルを用いた教師つき学習は,広い魅力を獲得し,様々な機械学習アプローチにつながる。正の半正定カーネルとHilbert空間への制約は,それぞれの学習方法の数学的導出を単純化するために一般的であるが,より最近の研究は,非計量的で,したがって,非正半正定値,データ表現が,しばしばより効果的であることを示す。この挑戦は,複数のアプローチによって扱われ,そして,最近,いわゆる不定形学習のための専用アルゴリズムが提案されている。このラインに沿って,Krein空間サポートベクトルマシン(KSVM)と変種は,非スパース決定関数を有するが,不確定な学習問題のための非常に効率的な分類器である。この非常に密な決定関数は,サンプル拡張の費用がかかるため,実用化を妨げる。この問題に焦点を合わせ,Krein空間SVMアプローチにより得られたモデルをスパース化するための2つのポスト処理技術を提供した。特に,Krein空間アプローチを用いた場合には,psdカーネルに対して効率的であるが,同じ高密度決定関数に悩まされる,非有限コアベクトルマシンと非有限コアベクトル回帰マシンを考察した。著者らは,異なるレベルのスパース性の影響を評価し,大規模問題に対処するためにNystromアプローチを採用した。実験は,著者らのアルゴリズムが非スパースKrein空間サポートベクトルマシンと同様に効率的であるが,より大きなスケールの問題も処理できるように,実質的により低いコストを有することを示した。Copyright 2020 Elsevier B.V., Amsterdam. All rights reserved. Translated from English into Japanese by JST.【JST・京大機械翻訳】
シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。

準シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
, 【Automatic Indexing@JST】
分類 (2件):
分類
JSTが定めた文献の分類名称とコードです
人工知能  ,  図形・画像処理一般 
タイトルに関連する用語 (5件):
タイトルに関連する用語
J-GLOBALで独自に切り出した文献タイトルの用語をもとにしたキーワードです

前のページに戻る