プレプリント
J-GLOBAL ID:202202213967841836   整理番号:22P0186485

モーメントから行動を局所化するための学習【JST・京大機械翻訳】

Learning to Localize Actions from Moments
著者 (6件):
資料名:
発行年: 2020年08月31日  プレプリントサーバーでの情報更新日: 2020年08月31日
JST資料番号: O7000B  資料種別: プレプリント
記事区分: プレプリント  発行国: アメリカ合衆国 (USA)  言語: 英語 (EN)
抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
動作モーメントの知識(すなわち,それぞれが行動インスタンスを含むトリミングビデオクリップ)によって,人間は,非トリミングビデオにおいて時間的に行動を日常的に局所化することができた。それにもかかわらず,ほとんどの実用的方法は,時間アノテーション(行動カテゴリーと時間境界)でラベル付けされるすべての訓練ビデオを必要とし,高価なラベリング努力と新しいカテゴリーに適用できないにもかかわらず,完全に監督された方法でモデルを開発する。本論文では,大規模行動カテゴリーに対する行動局所化を学習するための移動学習型の新しい設計を導入したが,小集合の行動クラスからの非トリミングビデオの関心と時間アノテーションのカテゴリーからのみ動作モーメントだけを学習した。特に,そのような設計を1段階行動局所化フレームワークに統合するAction Heraldネットワーク(AherNet)を提示した。技術的に,重み伝達関数は,行動モーメントの分類と前景ビデオセグメント間の変換と,合成文脈モーメントまたは非トリミングビデオにおける行動局所化の間の変換を構築するために一意的に考案される。各モーメントのコンテキストは,非トリミングビデオにおける背景のそれらから生成された特徴を識別するための敵対的メカニズムを通して学習される。活性Net v1.3の分割とTHUMOS14から活性Net v1.3までの学習について,広範な実験を行った。著者らのAherNetは,最も完全に監督された行動位置確認法と比較して,優位性を示した。より注目すべきことに,AherNetを訓練し,動的-600における動作モーメントと活動Net v1.3における200クラスからの時間アノテーションのレバレッジに関する600カテゴリから行動を局所化した。ソースコードとデータは,ウルル{https://github.com/FuchenUSTC/AherNet}で利用可能である。【JST・京大機械翻訳】
シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。

準シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
, 【Automatic Indexing@JST】
分類 (2件):
分類
JSTが定めた文献の分類名称とコードです
パターン認識  ,  図形・画像処理一般 
タイトルに関連する用語 (4件):
タイトルに関連する用語
J-GLOBALで独自に切り出した文献タイトルの用語をもとにしたキーワードです

前のページに戻る