抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
ビッグデータ検索の分野では,近似最近傍(ANN)探索に基づくハッシングは多くの注目を集めている。しかし,ほとんどの既存のハッシングアルゴリズムは集中型環境から学習され,小規模データセットに基づいている,または言い換えれば,それらは訓練データをメモリにモデルを得るために,単一機械アプローチである。ビッグデータ処理には,種々のようなビッグデータの特性を持つ大規模データセットから学習したモデルは,より良い性能を示した。しかし,訓練データセットは非常に大きなサイズにあるとき,二つの重要な問題である。最初に,単一計算ノードは記憶列車ハッシングモデルへの全てのデータを負荷できない。第二に,実世界の応用では,データはしばしば貯蔵あるいは分散した方法で集めた場合にでもであり,非常に高価な通信と計算オーバーヘッドのために全てのデータを収集統合センターへの実行不可能な。本論文では,ハッシュ関数を訓練するためにMapReduceと反復量子化(ITQ)に基づく分散学習アルゴリズムを提案した。,分散型反復量子化ハッシング(DisITQ)と名付けた提案の方法では,大規模データセット上で行うことができるが,分散データ貯蔵シナリオに適用できる。大規模データセット上で実施した大規模実験は,時間効率と,最新のハッシングアルゴリズムと比較して提案した方法の精度の利点を実証した。Copyright 2017 The Institute of Electrical and Electronics Engineers, Inc. All Rights reserved. Translated from English into Japanese by JST【Powered by NICT】