プレプリント
J-GLOBAL ID:202202220728381021   整理番号:21P0068072

StackRec:反復積層による非常に深い逐次レコメンダーモデルの効率的訓練【JST・京大機械翻訳】

StackRec: Efficient Training of Very Deep Sequential Recommender Models by Iterative Stacking
著者 (7件):
資料名:
発行年: 2020年12月14日  プレプリントサーバーでの情報更新日: 2021年05月12日
JST資料番号: O7000B  資料種別: プレプリント
記事区分: プレプリント  発行国: アメリカ合衆国 (USA)  言語: 英語 (EN)
※このプレプリント論文は学術誌に掲載済みです。なお、学術誌掲載の際には一部内容が変更されている可能性があります。
抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
深層学習は逐次推薦(SR)タスクに対して大きな進歩をもたらした。高度なネットワークアーキテクチャで,逐次推薦モデルは,例えば実世界推薦データセット上で100層まで,多くの隠れ層によって積み重ねることができる。深いネットワークのような訓練は,計算的に非常に高価であり,特に,数十億のユーザ-アイテム相互作用がある状況において,非常に長い時間を要するので,難しい。このような課題に対処するために,反復層積層による深いSRモデルのための単純だが非常に効果的で効率的な訓練フレームワークであるStackRecを提示した。特に,良く訓練された深いSRモデルにおける隠れ層/ブロックは非常に類似した分布を持つ重要な洞察を初めて提供した。これによって強調して,事前訓練層/ブロック上の積層操作を提案し,より浅いモデルから深いモデルへの知識を転送し,次に,反復積層を行い,はるかに深いが,より容易からトレインのSRモデルを得た。実世界データセットを持つ3つの実用的シナリオにおいて,4つの最先端のSRモデルでそれを瞬時にすることによって,StackRecの性能を検証した。大規模な実験は,StackRecが,スクラッチから訓練されたSRモデルと比較して,同等の性能だけでなく,訓練時間における実質的な加速を達成することを示した。コードはhttps://github.com/wangjiachun0426/StackRecで利用可能である。【JST・京大機械翻訳】
シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。

準シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
, 【Automatic Indexing@JST】
分類 (2件):
分類
JSTが定めた文献の分類名称とコードです
人工知能  ,  ニューロコンピュータ 
タイトルに関連する用語 (3件):
タイトルに関連する用語
J-GLOBALで独自に切り出した文献タイトルの用語をもとにしたキーワードです

前のページに戻る