抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
機械学習(ML)は,医療,正義,および財政を含む人々の生活の質に直接影響するアプリケーションで顕著になってきた。MLモデルは,性別,人種または障害のような敏感な属性に基づく識別を示すことを見出した。MLモデルがバイアスが自由である場合,今日までは困難なままであり,定義は,抗識別とデータ保護則の対象となる敏感なユーザ特性で行われなければならない。MLモデルの公平性監査のための既存の図書館は,監査データのプライバシーを保護する機構を提供しない。MLモデルのプライバシー保護公平性監査のためのライブラリであるPrivFairを提示した。セキュアマルチパーティ計算(MPC)の使用を通して,PrivFairは監査の下でモデルの機密性を保護して,監査のために使用する敏感なデータ,それゆえに,企業によって所有する所有権分類装置が外部研究者からの敏感な監査データを用いて監査されるシナリオをサポートする。著者らは,非暗号化法における誰にそれらのデータを明らかにするか,または,モデル所有者が平文における誰にそれらのモデルパラメータを明らかにするかを要求せずに,表明データまたは画像データによるグループ公平性監査のためのPrivFairの使用を実証した。【JST・京大機械翻訳】