抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
デジタル画像は,農業や森林管理,地球科学,都市計画,気象予測,医用画像などの多くの人間活動において重要な役割を果たしている。このような画像の隠蔽可能なボリュームの処理,探索,可視化は次第に困難になっている。コンテンツベースの画像検索(CBIR)は,ユーザ定義仕様に類似したディジタル画像を検索する場所や,今日では膨大なデータベースにおけるパターンが,今日のところを占める重要な問題のままである。CBIRシステムは,特徴ベクトルにおける画像を表現するために,色,形状およびテクスチャのような視覚情報を用いる。一般的に,人間の知覚による画像間の類似性の評価において不整合性があり,CBIRシステムによって計算された結果は意味的なGapと呼ばれる。CBIRシステムを改善するための一つの方法は,類似性と多様性基準に関するCBIRとの可視化と相互作用の技術の追加によるものであり,ユーザがプロセスにおいてより活発に参加し,その必要性に従って結果を操縦することができる。本論文では,Visual-Interactive k-NDN法(ViK)を提案した。これは,Content-Based Image Retrievalシステムとの可視化および相互作用のための新しいアプローチである。本論文は,CBIRシステムにおける質問に適用される視覚データマイニング技術を利用することを目的とし,フラクタル解析を用いて適用される多様性の測度の解釈可能性,ならびにユーザの事前知識に従った結果の関連性を改善した。従って,ユーザはコンテンツベースの画像検索においてアクティブな役割を果たし,その結果を導き,結果としてセマンティックGapを低減する。さらに,質問に含まれる多様性と類似性因子のより良い理解は,可視化と相互作用技術によって支持される。Copyright 2019 The Institute of Electrical and Electronics Engineers, Inc. All rights reserved. Translated from English into Japanese by JST.【JST・京大機械翻訳】