抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
ビデオをそのようなモーメントに縮小する目的で,視覚コンテンツを一般市民に対して魅力的または興味深い手がかりを同定するために,高光検出モデルは通常訓練される。しかし,ビデオセグメントまたは画像のこの「交差」は主観的である。このように,そのようなハイライトモデルは個々のユーザに対する限られた関連性の結果を提供する。一方,ユーザ当たり1つのモデルを訓練することは,非効率であり,典型的には利用できない大量の個人情報を必要とする。これらの限界を克服するために,特定のユーザの興味を条件づけることができる大域的ランキングモデルを提示する。ユーザ当たり1つのモデルを訓練するよりも,本モデルは,その入力により個人化され,その予測を効果的に適応させ,少数のユーザ固有の例のみを与える。このモデルを訓練するために,ユーザとGIFの大規模データセットを作成し,それらの興味の正確な表示を与えた。著者らの実験は,ユーザ履歴を用いることが予測精度をかなり改善することを示した。850ビデオのテストセットにおいて,著者らのモデルは,一般的ハイライト検出器に関して,8%の想起を改善した。さらに,著者らの方法は,1つの単一人特異的用例だけによって,ユーザ診断基準線より正確であることを証明した。Please refer to this article’s citation page on the publisher website for specific rights information. Translated from English into Japanese by JST.【JST・京大機械翻訳】