プレプリント
J-GLOBAL ID:202202217889988944   整理番号:22P0282857

オフポリシー強化学習による逐次探索【JST・京大機械翻訳】

Sequential Search with Off-Policy Reinforcement Learning
著者 (9件):
資料名:
発行年: 2022年02月01日  プレプリントサーバーでの情報更新日: 2022年02月01日
JST資料番号: O7000B  資料種別: プレプリント
記事区分: プレプリント  発行国: アメリカ合衆国 (USA)  言語: 英語 (EN)
※このプレプリント論文は学術誌に掲載済みです。なお、学術誌掲載の際には一部内容が変更されている可能性があります。
抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
近年,時系列推薦(SR)において,時系列的ユーザ行動を理解し,ユーザとアイテム間の相互作用を時間にわたって理解し,モデル化することを目指している。驚くべきことに,巨大な成功逐次推薦が達成されているにもかかわらず,歴史的クエリセッションに関する行動に加えて,ユーザの電流と過去の検索クエリを考慮した双子学習タスクである逐次探索(SS)に関する研究はほとんどない。SS学習タスクは,そのはるかに大きなオンラインサービス要求と交通量のため,ほとんどのEコミュニティ企業に対して,対応SRタスクよりもさらに重要である。この目的のために,短期ユーザ-項目相互作用におけるすべての特徴のRNN学習フレームワークと長期相互作用から選択されたアイテムのみの特徴を利用する注意モデルから成る,高度にスケーラブルなハイブリッド学習モデルを提案した。新しい最適化ステップとして,著者らは,フライに関する greedy欲なナップサック問題を解決することによって,訓練バッチ内の単一RNNパスにおける複数の短いユーザシーケンスを当てはめた。さらに,マルチセッション個人化検索ランキングにおけるオフポリシー強化学習の使用を検討した。特に,ペアワイズ分類誤差に関してユーザの長期報酬を効率的に捉えるペアワイズDeep Decistic Plgent Gradient Modelを設計した。広範なアブレーション実験は,各コンポーネントが,様々なオフラインおよびオンラインメトリックスにおいて,最先端の基準線をもたらす,著しい改善を示した。【JST・京大機械翻訳】
シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。

準シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
, 【Automatic Indexing@JST】
分類 (1件):
分類
JSTが定めた文献の分類名称とコードです
人工知能 
タイトルに関連する用語 (3件):
タイトルに関連する用語
J-GLOBALで独自に切り出した文献タイトルの用語をもとにしたキーワードです

前のページに戻る