抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
不均衡データセットは現代の機械学習問題において一般的である。敏感な属性を有する過小表現クラスまたはグループの存在は,一般化と公平性に関する懸念をもたらす。このような懸念は,大きな容量の深いネットが訓練データに完全に適合し,訓練中の完全な精度と公平性を達成するように見えるが,試験中にはほとんど実行できないという事実によってさらに悪化する。これらの課題に取り組むために,精度と公平性探索目的のブレンドを最適化するために訓練損失関数を自動的に設計する2レベル最適化フレームワークであるAutoBalanceを提案した。特に,低レベル問題はモデル重みを訓練し,上位レベル問題は検証データに対する望ましい目的を監視し最適化することによって損失関数を調整する。この損失設計は,パラメトリッククロスエントロピー損失と個別化データ増強方式を採用することにより,クラス/グループに対する個別化処理を可能にする。不均衡およびグループ感受性分類の適用シナリオに対する著者らのアプローチの利点と性能を評価する。広範な経験的評価は,最先端の手法に対するAutoBalanceの利点を実証した。著者らの実験的知見は,損失関数設計に関する理論的洞察と列車検証分割の利点によって補完された。すべてのコードは利用可能なオープンソースである。【JST・京大機械翻訳】