抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
本研究では,強化学習(RL)を用いた手続きコンテンツ生成(PCG)に焦点を当てた。PCGは,機械学習によるPCGの例の一つであるRLモデルを用いて,定義された評価関数に対して調整されたゲームコンテンツの生成と定義される。コンピュータビジョンや自然言語プロセスのような他の生成コンテンツ領域と比較して,変分オートエンコーダ,PixelCNN,および生成敵ネットワークのような生成モデルは,新しいゲームの開発の間,ゲーム領域への応用に対するいくつかの困難性を示し,訓練に用いられるコンテンツデータは典型的には十分ではない。したがって,RLはPCGのための方法として使用されると考えられる。特に,ターンベースのRPGのステージは,それが離散的セクションから成るので,著者らの研究目標として選ばれて,そのパラメータは密接に関連していた。したがって,望ましい段階を作り出すことは挑戦的であり,主要な目標は設計した評価関数によって導かれる様々な段階を作り出すことである。2つのRLモデル,Deep Q-NetworkとDeep Deteristic Polically Gradientをそれぞれ選択し,生成したステージを設計した関数によりそれぞれ0.78と0.85と評価した。確率的ノイズ対策の応用によって,多様な段階を首尾よく得て,それらの多様性をパラメータmseと異なる数の有効な戦略によって評価した。Copyright 2019 The Institute of Electrical and Electronics Engineers, Inc. All rights reserved. Translated from English into Japanese by JST.【JST・京大機械翻訳】