文献
J-GLOBAL ID:202202272569133373   整理番号:22A1101333

ハッシュフォーマ:画像検索のための視覚変圧器ベースの深層ハッシング【JST・京大機械翻訳】

HashFormer: Vision Transformer Based Deep Hashing for Image Retrieval
著者 (4件):
資料名:
巻: 29  ページ: 827-831  発行年: 2022年 
JST資料番号: W0576A  ISSN: 1070-9908  CODEN: ISPLEM  資料種別: 逐次刊行物 (A)
記事区分: 原著論文  発行国: アメリカ合衆国 (USA)  言語: 英語 (EN)
抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
深い画像ハッシュは,大規模データセットを横断して効率的な画像検索を可能にするために,深層ニューラルネットワークによってコンパクトな二値符号に入力画像を写像することを目的とする。現代のデータの爆発的成長のため,深いハッシングは,研究コミュニティからますます注目を集めている。最近,ResNetのような畳み込みニューラルネットワークが深いハッシングで支配されている。それにもかかわらず,視覚変圧器の最近の進歩によって動機づけられて,著者らは,深いハッシングタスクに取り組むために,HashFormerと呼ばれる純粋な変圧器ベースのフレームワークを提案した。特に,著者らのバックボーンとしてビジョン変圧器(ViT)を利用して,著者らの代理タスク,すなわち画像分類のための中間表現としてバイナリコードを処理した。さらに,分類に適した二値符号は検索に準最適であることを観測した。この問題を緩和するために,検索精度を直接最適化できる新しい平均精度損失を示した。知る限りでは,本研究は,畳み込みニューラルネットワーク(CNN)のない深いハッシング学習問題に対処する先駆的研究の一つである。3つの広く研究されたデータセット:CIFAR-10,NUSWIDEおよびImageNetに関する包括的実験を行った。提案手法は,既存の最先端の研究に対して有望な結果を示し,Hash Formberの長所と利点を検証した。Copyright 2022 The Institute of Electrical and Electronics Engineers, Inc. All rights reserved. Translated from English into Japanese by JST.【JST・京大機械翻訳】
シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。

準シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
, 【Automatic Indexing@JST】
分類 (2件):
分類
JSTが定めた文献の分類名称とコードです
図形・画像処理一般  ,  パターン認識 

前のページに戻る