プレプリント
J-GLOBAL ID:202202202694039053   整理番号:22P0280852

SSLGuard:自己教師つき学習予訓練符号器のための電子透かし方式【JST・京大機械翻訳】

SSLGuard: A Watermarking Scheme for Self-supervised Learning Pre-trained Encoders
著者 (3件):
資料名:
発行年: 2022年01月27日  プレプリントサーバーでの情報更新日: 2022年08月31日
JST資料番号: O7000B  資料種別: プレプリント
記事区分: プレプリント  発行国: アメリカ合衆国 (USA)  言語: 英語 (EN)
抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
自己監督学習は,新しい機械学習パラダイムである。高品質ラベル付きデータセットを利用する教師つき学習と比較して,自己教師付き学習は,様々な下流タスクのための特徴抽出器として処理できる強力な符号器を事前訓練するためのラベルなしデータセットに依存する。大量のデータと計算資源消費は,符号器自身がモデル所有者の貴重な知的財産になる。最近の研究では,機械学習モデルの著作権が,与えられたモデルの行動を模倣するための代理モデルを訓練することを目的として,モデルステーリング攻撃によって脅かされていることを示した。予め訓練された符号器は,モデルステーリング攻撃に対して非常に脆弱であることを経験的に示した。しかし,分類器上の電子透かし濃縮物のような著作権保護アルゴリズムのほとんどの現在の努力は,ある。一方,事前訓練エンコーダの著作権保護の固有課題は,ほとんど研究されていない。事前訓練符号器のための最初の電子透かし方式であるSSLGuardを提案することによってギャップを埋める。清潔な事前訓練符号器を与えられた場合,SSLGuardは電子透かしに電子透かしを注入し,透かし版を出力する。また,シャドウトレーニング技術を適用して,潜在的モデルステーリング攻撃の下で電子透かしを保存する。広範囲な評価は,SSLGuardが電子透かし注入と検証に有効であり,入力雑音,出力摂動,書き込み,モデル剪定,および微調整のようなモデルステーリングと他の電子透かし除去攻撃に対してロバストであることを示した。【JST・京大機械翻訳】
シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。

準シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
, 【Automatic Indexing@JST】
分類 (2件):
分類
JSTが定めた文献の分類名称とコードです
人工知能  ,  パターン認識 
タイトルに関連する用語 (5件):
タイトルに関連する用語
J-GLOBALで独自に切り出した文献タイトルの用語をもとにしたキーワードです

前のページに戻る