抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
組織特性化と癌診断において,マルチモーダルイメージングは強力な技術として浮上している。計算の進歩により,大きなデータセットを利用して,病理学のパターンを発見し,診断を改善することができる。しかし,これは効率的でスケーラブルな画像検索法を必要とする。クロスモーダル画像検索は,異なるモダリティで捕獲された類似(または同じ)コンテンツの画像が少数の共通構造を共有するので,特に困難である。効率的で信頼性のある検索のための古典的特徴抽出とバッグ語モデルを有する表現(共通空間で異なる様式を埋め込む)を生成するために,深層学習を組み合わせた,モダリティにわたる逆(サブ)画像検索のための新しいアプリケーション独立コンテンツベース画像検索(CBIR)システムを提案した。置換研究を通してその利点を例証し,最近の(クロスモーダル)CBIR法との比較を通して,多数の特徴抽出者と学習表現を探査した。明視野と第二高調波発生顕微鏡画像の(公的に利用可能な)データセットに関する(サブ)画像検索のタスクのために,結果は,著者らのアプローチがすべてのテストした代替案より優れていることを示した。比較した方法の欠点を議論し,CBIRパイプラインにおける学習表現と特徴抽出器の等分散と不変特性の重要性を観察した。コードは,ウルル{https://github.com/MIDA group/CrossModal_ImgRetrieval}で利用可能である。【JST・京大機械翻訳】