文献
J-GLOBAL ID:202002270901633681   整理番号:20A0454939

行動認識のためのカスケードマルチヘッド注意ネットワーク【JST・京大機械翻訳】

Cascade multi-head attention networks for action recognition
著者 (6件):
資料名:
巻: 192  ページ: Null  発行年: 2020年 
JST資料番号: W0185A  ISSN: 1077-3142  資料種別: 逐次刊行物 (A)
記事区分: 原著論文  発行国: オランダ (NLD)  言語: 英語 (EN)
抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
長期的な時間的情報はビデオ行動理解のための重要な手がかりを与える。これまでの研究は,長期的な時間的モデリングのための局所的な時間的特徴を統合するために,再帰ネットワーク,メモリユニット,セグメントモデル,自己注意メカニズムなどの逐次モデルに常に依存している。メモリユニットによる時間的パターン(または関係)を記録する再帰またはメモリネットワークは,機械翻訳における長期情報を捉えることが困難であることが証明されている。自己注意機構は,前者より直接的で効率的な注意重みを持つすべての局所情報を直接集約する。しかしながら,自己注意からの注意重みは,信頼できない注意をもたらす可能性がある局所情報とグローバル情報の間の関係を無視する。この目的のために,著者らは新しい注意ネットワークアーキテクチャを提案する。それは,2レベルの注意,すなわちマルチヘッド局所自己注意と関係ベースのグローバルな注意によってビデオ表現を構築するカスケードマルチヘッド注意ネットワーク(CATNet)と呼ばれる。バックボーンネットワークにより生成されるセグメント特徴から出発して,CATNetは,最初に各セグメントに対する複数の注意重みを学習し,自己注意様式における局所特徴の重要性を捉える。局所的注意重みによって,CATNETは,局所的特徴をいくつかのグローバル表現に統合して,次に,関連方法によってグローバル情報のために第2のレベル注意を学んだ。Kineics,HMDB51,およびUCF101に関する広範な実験は,著者らのCATNetが大きなマージンを有するベースラインネットワークをブーストすることを示した。RGB情報のみで,これらの3つのデータセット上でそれぞれ75.8%,75.2%,および96.0%を達成し,それらは芸術の状態に匹敵するか,または優れている。Copyright 2020 Elsevier B.V., Amsterdam. All rights reserved. Translated from English into Japanese by JST.【JST・京大機械翻訳】
シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。

準シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
, 【Automatic Indexing@JST】
分類 (2件):
分類
JSTが定めた文献の分類名称とコードです
パターン認識  ,  図形・画像処理一般 
タイトルに関連する用語 (4件):
タイトルに関連する用語
J-GLOBALで独自に切り出した文献タイトルの用語をもとにしたキーワードです

前のページに戻る