抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
オブジェクト間の空間関係をテキストベース画像検索のための重要な情報を提供する。ユーザが実世界展望,3D空間関係を用いるよりもむしろ特定の視線方向を仮定した2D関係からシーンを記述する可能性が高いので,主な課題の一つは,ユーザとテキスト記述画像を橋渡しする3D構造を推定することである。しかし,画像からの3D構造の直接推論は大規模注釈付きデータからの学習を必要とする。物体間の相互作用は,3Dにおける原子空間関係の限られたセットに低減できるので,著者らはテキスト記述よりもむしろ画像からの3次元構造を推定する,テキスト記述中に存在する空間的制約を満足する全体論的3次元抽象オブジェクトレイアウトを合成するための物理的関係モデルを適用することの可能性を調べた。は生成されたこれらの抽象オブジェクトレイアウトを持つ画像マッチングによるシーンのテキスト記述から画像を検索するための一般的なフレームワークを提案した。画像は物体検出出力(境界ボックス)に採取したカメラ方向を持つ3Dシーンを射影することにより得られる2次元レイアウト候補(境界ボックスで表される)にランク付けした。公共屋内シーンデータセットを用いて提案アプローチを検証し,提案手法では,物体発生ヒストグラム上に構築されたベースラインよりも優れており,2D対関係を学んだことを示した。Copyright 2017 The Institute of Electrical and Electronics Engineers, Inc. All Rights reserved. Translated from English into Japanese by JST【Powered by NICT】