文献
J-GLOBAL ID:202202291061615819   整理番号:22A0736023

低分解能物体検出と顔表情認識のためのマルチレベル知識蒸留【JST・京大機械翻訳】

Multi-level knowledge distillation for low-resolution object detection and facial expression recognition
著者 (4件):
資料名:
巻: 240  ページ: Null  発行年: 2022年 
JST資料番号: T0426A  ISSN: 0950-7051  資料種別: 逐次刊行物 (A)
記事区分: 原著論文  発行国: オランダ (NLD)  言語: 英語 (EN)
抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
最近,研究者により顕著な物体検出と表情認識(FER)アプローチがなされてきた。しかし,これらのモデルの全てを訓練し,低解像度画像が実用化においてより一般的であると考えることなく,高解像度画像上で試験した。したがって,この問題を緩和するために,本論文では,教師ネットワークから学習された高解像度特徴を,低解像度入力で訓練されたより簡単な構造化学生ネットワークに転送するための知識蒸留アプローチを提案した。本アプローチでは,教師と学生ネットワークの同じ層から知識を転送する代わりに,学生ネットワークの単一レベル出力を監督する教師ネットワークのマルチレベル知識を選択した。さらに,教師ネットワークからの知識を直接使用せず,代わりに,知識移転の前に,教師ネットワークの異なるレベル特徴を連結し,どのような情報が重要であるか,そして,それらが冗長で,それらに異なる重み値をセットする。次に,低解像度画像から豊富な特徴を抽出するために,単層学生ネットワークの出力を導くために,異なる重みでこれらの知識を使用した。提案手法の有効性を評価するために,この手法を物体検出と表情認識タスクの2つのモデルに適用した。著者らの実験を通して,著者らは,オブジェクト検出タスクにおいて,CornerNetが元のMC COCOデータセット上で40.6%の精度を達成し,一方,このインデックスは分解能劣化画像上で34.2%に劇的に低下することを見出した。比較により,著者らの知識蒸留アプローチによって訓練された提案モデルは,オリジナルおよび分解能劣化データセットにおいて,それぞれ35.4%および33.4%を達成した。同時に,CornerNetと比較して,提案したネットワークの層の数は約60%減少した。さらに,表情認識と画像分類のタスクにおいて,類似の実験結果も観察できる。Copyright 2022 Elsevier B.V., Amsterdam. All rights reserved. Translated from English into Japanese by JST.【JST・京大機械翻訳】
シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。

準シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
, 【Automatic Indexing@JST】
分類 (1件):
分類
JSTが定めた文献の分類名称とコードです
人工知能 
タイトルに関連する用語 (5件):
タイトルに関連する用語
J-GLOBALで独自に切り出した文献タイトルの用語をもとにしたキーワードです

前のページに戻る