抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
画像を理解することは,可視物体が互いにリンクする方法の理解に依存する。視覚相関検出(VRD)の現在のアプローチは,いくつかの関係の高い周波数によって妨げられる:重要な焦点がそれらに置かれるとき,より意味のあるものが見過ごされる。著者らは,関係の相対的関連性を学習することによってこの挑戦を扱い,この用語を新しいシーングラフ抽出方式に統合する。これにより,著者らのモデルが,より少ない,より関連するオブジェクト対の関係を予測することを可能にすることを示した。それは,Visual Genomeデータセットに関する最新のモデルの状態であるMotifNetより優れている。それはクラスMacroリコールを増加させ,メトリックは38.1%から44.4%まで使用することを提案する。さらに,著者らは,よりバランスのとれた関係分布を持つ視覚ゲノムの新しい分割を提案し,異常な関係の検出を強調し,以前の計量の使用を検証した。この集合に関して,著者らのモデルはすべての計量に関してMotifNetより優れている。例えば,関連分類タスクに関する画像当たり10の予測において39.6%から44.0%までである。Copyright 2020 The Institute of Electrical and Electronics Engineers, Inc. All rights reserved. Translated from English into Japanese by JST.【JST・京大機械翻訳】