文献
J-GLOBAL ID:201802257140940881   整理番号:18A1301109

差分プライベート分散オンライン学習【JST・京大機械翻訳】

Differentially Private Distributed Online Learning
著者 (5件):
資料名:
巻: 30  号:ページ: 1440-1453  発行年: 2018年 
JST資料番号: T0838A  ISSN: 1041-4347  CODEN: ITKEEH  資料種別: 逐次刊行物 (A)
記事区分: 原著論文  発行国: アメリカ合衆国 (USA)  言語: 英語 (EN)
抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
大規模データ時代において,データの生成は,広い分布,高速度,高次元性,およびプライバシーの懸念を含むいくつかの新しい特性を提示する。大規模データ解析に対するこれらの挑戦に取り組むために,分散データ源から収集したデータに関するプライバシー保存分散オンライン学習フレームワークを開発した。具体的には,各ノード(すなわち,データソース)は,その局所データセットからモデルを学習する能力を持ち,それら自身の隣接(論理的に接続された)ノードのランダム部分と中間パラメータを交換する。したがって,著者らの分散コンピューティングフレームワークにおける通信のトポロジーは,実際に固定されない。オンライン学習は常に敏感なデータで実行されるので,著者らは,著者らの分散オンライン学習アルゴリズム(DOLA)への微分プライバシー(DP)の概念を導入して,学習中のデータプライバシーを保護する。それは,どんな有意な敏感な情報を推論するのを妨げる。著者らのモデルは,厳密でスケーラブルなプライバシー証明を提供し,古典的な方式,例えば安全なマルチパーティ計算(SMC)と比較してはるかに少ない計算複雑性を提供できるので,分散環境における大規模データ解析のための一般的価値がある。高次元入力データエントリーに取り組むために,計算資源を節約し,効用を改善するために,新しいDP技術によるDOLAのスパースバージョンを研究した。さらに,実用化の必要性を満たすために,2つの修正民間DoLAを提示した。一つは,DOLAをオフライン設定における分散確率最適化に変換することであり,もう一つは,摂動雑音の量を低減し,効用を改善するためにミニバッチ手法を使用することである。構成された分散プラットフォームにおける実データセットに関する実験を行った。数値実験結果は,著者らの民間DoLAの実現可能性を検証した。Copyright 2018 The Institute of Electrical and Electronics Engineers, Inc. All rights reserved. Translated from English into Japanese by JST.【JST・京大機械翻訳】
シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。

準シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
, 【Automatic Indexing@JST】
分類 (2件):
分類
JSTが定めた文献の分類名称とコードです
データベースシステム  ,  人工知能 
タイトルに関連する用語 (2件):
タイトルに関連する用語
J-GLOBALで独自に切り出した文献タイトルの用語をもとにしたキーワードです

前のページに戻る