抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
最近の研究は,進化的アルゴリズム(EA)における自己調整パラメータのための単純な成功ベースの規則が,離散問題に関して最良の固定パラメータを適合または凌ぐことができることを示した。自己調整子孫集団サイズλと組み合わせた(1λ)EAにおける非炎は,マルチモーダルCliff問題に関する一般的EAを凌駕する。しかしながら,自己調整を支配する成功率が十分小さいならば,これは,このだけでは,わずかしか保持されないことを示した。さもなければ,1Max上でさえ,自己調整(1λ)EAは,頻繁な成功が子孫個体群サイズを動かす容易な傾斜で停滞する。著者らは,自己調整が,容易な傾斜の不在で意図されることを示す。成功が発見するのが容易で,自己調整(1λ)EAが成功率sの選択に関してロバストである,どこでもハード関数を定義する。評価の数に一般的な適応レベル上限を与え,dが非最適適応値の数であり,p_minが非最適探索点から改善を見つける最小確率である,発生の予想数は,ほとんどのO(d+log(1/p_min))であることを示した。著者らは,あらゆるどこでもハード関数リードOnesと,調整可能な困難を有するあらゆるどこのハード関数の新しいクラス1MaxBlockの含意について議論する。【JST・京大機械翻訳】