プレプリント
J-GLOBAL ID:202202201584143681   整理番号:21P0069538

NN-EMD:暗号化マルチソースデータ集合を用いたニューラルネットワークの効率的訓練【JST・京大機械翻訳】

NN-EMD: Efficiently Training Neural Networks using Encrypted Multi-Sourced Datasets
著者 (3件):
資料名:
発行年: 2020年12月18日  プレプリントサーバーでの情報更新日: 2021年04月17日
JST資料番号: O7000B  資料種別: プレプリント
記事区分: プレプリント  発行国: アメリカ合衆国 (USA)  言語: 英語 (EN)
抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
暗号化データセット上の機械学習モデルを訓練することは,プライバシー保護機械学習タスクに対処する既存の有望なアプローチであるが,2つの理由のために暗号化されたデータに対して,深いニューラルネットワーク(DNN)モデルを効率的に訓練することは,非常に挑戦的であり,それは,最初に,巨大なデータセットに関する大規模な計算を必要とする。第2に,ホモモルフィック暗号化のような暗号化データ上の計算のための既存の解は,非効率である。さらに,DNNモデルの強化された性能のために,著者らはまた,互いに予め確立された信頼関係を持たないかもしれない複数のデータソースからのデータから成る巨大な訓練データセットを使用する必要がある。多重情報源から収集された多重暗号化データセット上でDNNを訓練するために,新しいフレームワーク,NN-EMDを提案した。これに向けて,ハイブリッド関数暗号化方式を用いた一連の安全な計算プロトコルを提案した。MNISTデータセットに関する訓練時間とモデル精度に関して,このフレームワークを評価した。他の既存のフレームワークと比較して,提案したNN-EMDフレームワークは,訓練時間を著しく低減でき,一方,同等のモデル精度とプライバシー保証を提供し,複数のデータソースをサポートすることができる。さらに,ニューラルネットワークの深さと複雑性は,プライバシー保護NN-EMD設定を導入するにもかかわらず,訓練時間に影響しない。【JST・京大機械翻訳】
シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。

準シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
, 【Automatic Indexing@JST】
分類 (2件):
分類
JSTが定めた文献の分類名称とコードです
データ保護  ,  符号理論 

前のページに戻る