抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
強化学習に基づく対話政策学習は,高コストのため,スクラッチから対話エージェントを訓練するために,実際のユーザに適用するのが難しい。ユーザシミュレータは,対話エージェントのためのランダムユーザ目標を訓練するのに,実際のユーザのための手頃な代替として考慮されてきた。しかし,このランダムサンプリング法は,人間の学習の法則を無視し,学習された対話政策を非効率的で不安定にする。自動カリキュラム学習のための対話ポリシーを実現するために,従来のランダムサンプリング法を教師ポリシーモデルと置換する,新しいフレームワーク,自動Curriculum LearningベースDeep Q-Network(ACL-DQN)を提案した。教師モデルは有意義な規則カリキュラムを整理し,事前知識の必要なしに対話エージェントの学習進展と過剰反復ペナルティを監視することにより自動的に調整する。対話エージェントの学習進捗は,対話エージェントの能力およびサンプル効率のためのサンプル目標の困難さの間の関係を反映する。過剰反復ペナルティは,サンプル多様性を保証した。実験は,ACL-DQNが統計的に有意なマージンで対話タスクの有効性と安定性を著しく改善することを示した。さらに,このフレームワークは,異なるカリキュラムスケジュールによるエクイッピングによってさらに改良することができ,このフレームワークが強力な一般化可能性を有することを示した。【JST・京大機械翻訳】