抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
深いニューラルネットワークベースの方法は,オブジェクト検出と分類タスクにおいて優れた性能を達成することが証明されている。深い構造を用いた著しい性能改善にもかかわらず,それらは画像を処理するための禁止的な実行時間を必要とし,実時間応用のための最高の可能な性能を維持する。人間の視覚システム(HVS)が視覚入力からのフレーム間の時間的依存性に大きく依存する現象を観察し,効率的に認識を行うために,TKD:時間的知識蒸留として新しいフレームワークを提案した。このフレームワークは,選択されたビデオフレーム(モーメントの知覚)上の重いニューラルネットワークベースのモデルから,軽量モデルへの時間的知識を蒸留する。蒸留を可能にするために,2つの新しい手順を提唱した。1)長短時間メモリ(LSTM)ベースのキーフレーム選択法;2)新しい教師有界損失設計。著者らのアプローチを検証するために,Youtube-ObjectsとHollywoodシーンデータセットを含む複数のデータセット上で異なるオブジェクト検出法を用いて包括的な経験的評価を行った。これらの結果は,動的シーンのフレーム上でのオブジェクト検出のための正確な速度のトレードオフにおける一貫した改善を示し,他の最新のオブジェクト認識手法と比較した。それは,2秒当たり約220の画像のスループットで望ましい精度を維持することができる。実装:https://github.com/mfarhadi/TKD-Cloud。Copyright 2020 The Institute of Electrical and Electronics Engineers, Inc. All rights reserved. Translated from English into Japanese by JST.【JST・京大機械翻訳】