プレプリント
J-GLOBAL ID:202202201567870260   整理番号:22P0310259

時間的行動位置決めタスクのための教師なしプレトレーニング【JST・京大機械翻訳】

Unsupervised Pre-training for Temporal Action Localization Tasks
著者 (6件):
資料名:
発行年: 2022年03月25日  プレプリントサーバーでの情報更新日: 2022年03月25日
JST資料番号: O7000B  資料種別: プレプリント
記事区分: プレプリント  発行国: アメリカ合衆国 (USA)  言語: 英語 (EN)
抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
教師なしビデオ表現学習は,近年顕著な成果を遂げた。しかし,ほとんどの既存の方法を設計して,ビデオ分類のために最適化した。これらの事前訓練モデルは,ビデオレベル分類とクリップレベル局所化の間の固有の不一致により,時間的位置決めタスクに対して準最適である。このギャップを橋渡しするために,著者らは,時間的行動局所化タスク(UP-TAL)のための教師なし事前訓練特徴符号器に対する擬似行動局所化(PAL)として協調した自己教師付きプレテキストタスクを提案する最初の試みを行った。具体的には,まず,1つのビデオから擬似行動として複数のクリップを含み,次に,それらを他の2つのビデオの異なる時間位置にペーストする,時間領域をランダムに選択する。プレテキストタスクは,2つの合成ビデオから過去の擬似行動領域の特徴を整列させ,それらの間の一致を最大化することである。既存の教師なしビデオ表現学習手法と比較して,このPALは,時間的に高密度でスケール意識的な方法で,時間的等変コントラスト学習パラダイムを導入することによって,下流TALタスクにより良く適応する。大規模な実験は,PALが既存のTAL法の性能を著しく向上するために大規模ラベルなしビデオデータを利用することができることを示した。著者らのコードとモデルは,https://github.com/zhang can/UP TALで公的に利用できる。【JST・京大機械翻訳】
シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。

準シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
, 【Automatic Indexing@JST】
分類 (2件):
分類
JSTが定めた文献の分類名称とコードです
図形・画像処理一般  ,  人工知能 
タイトルに関連する用語 (3件):
タイトルに関連する用語
J-GLOBALで独自に切り出した文献タイトルの用語をもとにしたキーワードです

前のページに戻る