抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
ラベルなしテキストから広範囲な自己教師付き事前訓練を利用する言語モデルは,最近,様々な言語理解タスクにおける最先端の性能を著しく前進させることが示されている。しかし,これらの最近のモデルがテキストベースの推薦を行うのに利用できるかどうかは,まだ不明である。本研究では,テキストベースアイテム推薦のためのカタログ専門化言語モデルを学習するためのBERTベースアプローチであるRecoBERTを導入した。アイテム類似性ラベルを必要としないアイテムのペア間の類似性をスコアリングするための新しい訓練と推論手続きを提案した。訓練と推論技術の両方を設計して,テキストカタログの非ラベル構造を利用して,それらの間の不一致を最小にした。推論中に4つのスコアを組み込むことにより,RecoBERTはテキストベースアイテム対アイテム類似性を他の手法よりも正確に推論できる。さらに,専門ワインレビューに基づく類似性を用いて,ワイン推奨のための新しい言語理解課題を紹介した。追加の貢献として,著者らは,ヒトワイン専門家によって熟練した注釈付推薦データセットを発行した。最後に,RecoBERTを評価し,ワインとファッション推奨タスクに関する様々な最先端のNLPモデルと比較した。【JST・京大機械翻訳】