抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
高品質の学習視覚表現は画像分類に不可欠である。最近,一連の対比的表現学習法が,先行成功を達成した。特に,SupConは,表現学習における交差エントロピー損失に基づく主要な方法を凌駕した。しかし,著者らは,監督された対照的な学習において潜在的倫理リスクがあるかもしれないことを指摘する。本論文では,まず教師つきコントラスト学習による不公平性を解析し,公正な視覚表現学習のための新しいFair Supervised Controlive Oloss(FSCL)を提案した。教師つきコントラスト学習の philosophy学を継承して,それは,表現における敏感な属性情報の包含をペナルティ化することによって,公平性を確実にする間,同じクラスの表現を,異なるクラスのものより互いに近づけるように奨励する。さらに,グループワイズ正規化を導入し,グループ内コンパクト性とクラス間分離の不均衡を,非公正な分類を喚起する人口統計学的グループ間で縮小する。CelebAとUTK顔に関する大規模な実験を通して,著者らは,提案方法が,トップ-1精度と公平性の間のトレードオフに関して,SupConと既存の最先端の方法を著しく上回ることを立証した。さらに,本手法はデータバイアスの強度に対してロバストであり,不完全教師つき設定において効果的に動作する。このコードはhttps://github.com/sungho CoolG/FSCLで利用可能である。【JST・京大機械翻訳】