抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
説明可能な顔検証において,顔マッチング者を与えられた場合,タスクは,関連がプローブ画像の一部で,登録画像とのマッチングを確立する方法に答えることである。しかし,多くの場合,訓練されたモデルは操作できず,「ブラックボックス」として扱われなければならない。本論文では,顔認証モデルの内部操作なしに任意の顔検証アルゴリズムを説明するために使用できる6つの異なる顕著性マップを提示した。方法の重要なアイデアは,プローブが摂動されるとき,2つの顔画像のマッチングスコアがどのように変化するかに基づいている。提案方法は,顔の異なる部分を除去して,凝集し,また,これらの部品を個々に,そして,インコラボレーションする。異なる品質とオクルージョンを有する合成画像,異なる顔表情を有する実際の顔画像,姿勢,および異なる人口統計グループからの顔と顔の3つの異なるシナリオにおいて,提案手法をテストし,比較した。実験では,5つの異なる顔検証アルゴリズム,ArcFace,Dlib,FaceNet(VGGface2とCasiaWebFaceで訓練),LBPを用いた。提案手法の1つが,人間に対して安定で解釈可能な顕著性マップを達成すると結論した。さらに,提案手法は,輪郭に基づく顕著性マップの新しい可視化と組み合わせて,他の最先端技術手法との比較において有望な結果を示す。本論文では,任意の顔検証アルゴリズムへの良好な洞察を示し,その中で,アルゴリズムが認識プロセスを実行するためのアルゴリズムを考慮した最も関連性のある顔領域である,明確に認識できる。Copyright 2022 The Institute of Electrical and Electronics Engineers, Inc. All rights reserved. Translated from English into Japanese by JST.【JST・京大機械翻訳】