文献
J-GLOBAL ID:202002212605258504   整理番号:20A1187636

TKD:アクティブ知覚のための時間的知識蒸留【JST・京大機械翻訳】

TKD: Temporal Knowledge Distillation for Active Perception
著者 (2件):
資料名:
巻: 2020  号: WACV  ページ: 942-951  発行年: 2020年 
JST資料番号: W2441A  資料種別: 会議録 (C)
記事区分: 原著論文  発行国: アメリカ合衆国 (USA)  言語: 英語 (EN)
抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
深いニューラルネットワークベースの方法は,オブジェクト検出と分類タスクにおいて優れた性能を達成することが証明されている。深い構造を用いた著しい性能改善にもかかわらず,それらは画像を処理するための禁止的な実行時間を必要とし,実時間応用のための最高の可能な性能を維持する。人間の視覚システム(HVS)が視覚入力からのフレーム間の時間的依存性に大きく依存する現象を観察し,効率的に認識を行うために,TKD:時間的知識蒸留として新しいフレームワークを提案した。このフレームワークは,選択されたビデオフレーム(モーメントの知覚)上の重いニューラルネットワークベースのモデルから,軽量モデルへの時間的知識を蒸留する。蒸留を可能にするために,2つの新しい手順を提唱した。1)長短時間メモリ(LSTM)ベースのキーフレーム選択法;2)新しい教師有界損失設計。著者らのアプローチを検証するために,Youtube-ObjectsとHollywoodシーンデータセットを含む複数のデータセット上で異なるオブジェクト検出法を用いて包括的な経験的評価を行った。これらの結果は,動的シーンのフレーム上でのオブジェクト検出のための正確な速度のトレードオフにおける一貫した改善を示し,他の最新のオブジェクト認識手法と比較した。それは,2秒当たり約220の画像のスループットで望ましい精度を維持することができる。実装:https://github.com/mfarhadi/TKD-Cloud。Copyright 2020 The Institute of Electrical and Electronics Engineers, Inc. All rights reserved. Translated from English into Japanese by JST.【JST・京大機械翻訳】
シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。

準シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
, 【Automatic Indexing@JST】
分類 (1件):
分類
JSTが定めた文献の分類名称とコードです
図形・画像処理一般 
タイトルに関連する用語 (2件):
タイトルに関連する用語
J-GLOBALで独自に切り出した文献タイトルの用語をもとにしたキーワードです

前のページに戻る