抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
本論文は,ビデオから個々の行動とグループ活動を認識することを試みる。この挑戦的な問題に対する既存の解決策は,個々のアクターの位置に基づく空間および時間関係を明示的にモデル化する一方で,グループ活動認識に関連する情報を学習し,選択的に抽出できるアクター変換モデルを提案した。著者らは,2D姿勢ネットワークと3D CNNからそれぞれ特徴によって表現される豊富なアクター特異的静的および動的表現を有する変圧器を供給した。これらの表現を結合し,相補的な利点を示す異なる方法を実験的に調べた。実験は,変換するのに重要で,どのように変換すべきかを示した。さらに,アクター変換機は,グループ活動認識のための2つの公的に利用可能なベンチマークに関して最先端の結果を達成して,かなりのマージンによって以前の最良出版結果を凌駕した。Copyright 2020 The Institute of Electrical and Electronics Engineers, Inc. All rights reserved. Translated from English into Japanese by JST.【JST・京大機械翻訳】