文献
J-GLOBAL ID:201702265186064833   整理番号:17A1670009

改良ELMに基づく再帰的最小二乗時系列差分強化学習アルゴリズムとその応用【JST・京大機械翻訳】

Recursive least-squares TD (λ) learning algorithm based on improved extreme learning machine
著者 (3件):
資料名:
巻: 68  号:ページ: 916-924  発行年: 2017年 
JST資料番号: E0215B  ISSN: 0438-1157  CODEN: HUKHAI  資料種別: 逐次刊行物 (A)
記事区分: 原著論文  発行国: 中国 (CHN)  言語: 中国語 (ZH)
抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
本論文では,改良型限界学習機械に基づく再帰的最小二乗時系列差分強化学習アルゴリズムを提案し,精度関数と計算時間に対する値関数近似アルゴリズムの要求を満たした。まず第一に,再帰的最小二乗差分時間強化学習アルゴリズムにおいて,再帰的最小二乗法を用いて,再帰的最小二乗差分時間強化学習アルゴリズムを導入し,アルゴリズムの複雑さと計算量を減らした。第二に,LSTD(0)アルゴリズムの収束速度が遅くなるということを考慮して,サンプルの利用率を増加させることによって,収束速度を改良するアルゴリズムを提案して,同じ数の軌道を経験した後に,実際の値に収束することができた。一方,ほとんどの強化学習問題の値関数は単調であるが,従来のELM法は,通常,両側の抑制特性を持つSigmoid活性化関数を用いて,計算コストを増加させる。従来のシグモイド関数の代わりに,片側抑制特性を有するSoftplus活性化関数を提案し,計算速度を減少させ,計算速度を改善するために,計算速度を増加させるために,計算速度を増加させるために,計算速度を減少させることができた。従来の動径基底関数に基づく最小二乗強化学習アルゴリズムと限界学習機械に基づく最小二乗TDアルゴリズムの比較実験により,提案したアルゴリズムが計算精度を効果的に改善することを示した。さらに,いくつかの条件の下では,精度は他の2つのアルゴリズムよりも高かった。Data from Wanfang. Translated by JST【JST・京大機械翻訳】
シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。

準シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
, 【Automatic Indexing@JST】
分類 (2件):
分類
JSTが定めた文献の分類名称とコードです
数値計算  ,  人工知能 

前のページに戻る