抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
著者らは,厳しいドメインシフトの存在下で,視覚位置認識(VPR)をベンチマークするための挑戦的なデータセットであるAmster時間を導入した。アムスタータイムは,アムステルダム市からの歴史的アーカイブ画像データに整合した街路ビューから同じシーンをマッチングする2,500のよく発生した画像の収集を提供する。画像対は,異なるカメラ,視点,および外観で同じ場所を捉える。既存のベンチマークデータセットと異なり,Amster TimeはGISナビゲーションプラットフォーム(Mapillary)で直接混雑する。検証および検索タスクの両者に対して,異なる関連データセット上で事前訓練された,非学習,教師つきおよび自己監督法を含む各種のベースラインを評価した。結果は,検証と検索タスクの両方に対して,それぞれ84%と24%で,ランドマークデータセットで事前訓練されたResNet-101モデルに対する最良の精度を信用する。さらに,分類タスクにおける特徴評価のために,Amsterdamランドマークの部分集合を収集した。分類ラベルをさらに用いて,深い計量学習モデルにおける学習類似視覚の検査のためにGrad-CAMを用いて視覚説明を抽出した。【JST・京大機械翻訳】