文献
J-GLOBAL ID:201702286097557617   整理番号:17A0181542

DisITQ:分散型反復量子化ハッシング学習アルゴリズム【Powered by NICT】

DisITQ: A Distributed Iterative Quantization Hashing Learning Algorithm
著者 (4件):
資料名:
巻: 2016  号: ISCID  ページ: 118-123  発行年: 2016年 
JST資料番号: W2441A  資料種別: 会議録 (C)
記事区分: 原著論文  発行国: アメリカ合衆国 (USA)  言語: 英語 (EN)
抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
ビッグデータ検索の分野では,近似最近傍(ANN)探索に基づくハッシングは多くの注目を集めている。しかし,ほとんどの既存のハッシングアルゴリズムは集中型環境から学習され,小規模データセットに基づいている,または言い換えれば,それらは訓練データをメモリにモデルを得るために,単一機械アプローチである。ビッグデータ処理には,種々のようなビッグデータの特性を持つ大規模データセットから学習したモデルは,より良い性能を示した。しかし,訓練データセットは非常に大きなサイズにあるとき,二つの重要な問題である。最初に,単一計算ノードは記憶列車ハッシングモデルへの全てのデータを負荷できない。第二に,実世界の応用では,データはしばしば貯蔵あるいは分散した方法で集めた場合にでもであり,非常に高価な通信と計算オーバーヘッドのために全てのデータを収集統合センターへの実行不可能な。本論文では,ハッシュ関数を訓練するためにMapReduceと反復量子化(ITQ)に基づく分散学習アルゴリズムを提案した。,分散型反復量子化ハッシング(DisITQ)と名付けた提案の方法では,大規模データセット上で行うことができるが,分散データ貯蔵シナリオに適用できる。大規模データセット上で実施した大規模実験は,時間効率と,最新のハッシングアルゴリズムと比較して提案した方法の精度の利点を実証した。Copyright 2017 The Institute of Electrical and Electronics Engineers, Inc. All Rights reserved. Translated from English into Japanese by JST【Powered by NICT】
シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。

準シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
, 【Automatic Indexing@JST】
分類 (1件):
分類
JSTが定めた文献の分類名称とコードです
データベースシステム 
タイトルに関連する用語 (4件):
タイトルに関連する用語
J-GLOBALで独自に切り出した文献タイトルの用語をもとにしたキーワードです

前のページに戻る