抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
シーングラフ生成(SGG)は画像中の(被験者,述語,物体)三重項を抽出するために設計されている。最近の研究はSGGの安定した進歩を遂げ,高レベルビジョンと言語理解のための有用なツールを提供する。しかし,長尾分布および意味曖昧さを含むデータ分布問題のために,現在のSGGモデルの予測は,いくつかの頻繁ではあるが,非情報的述語(例えば,それに関して)に崩壊する傾向があり,それは,下流タスクにおけるこれらのモデルの実際的応用を制限する。上記の問題に対処するため,著者らは,プラグアンドプレイ方式で適用可能な新しい内部および外部データ転送(IETrans)法を提案し,1,807述語クラスで大きなSGGに拡大した。著者らのIETransは,すべての述語に対して,より十分でコヒーレントな注釈を提供する強化データセットを自動的に作成することによって,データ配布問題を緩和することを試みた。強化データセットの訓練により,ニューラルモチフモデルは,競合マイクロ性能を維持しながらマクロ性能を二倍にする。コードとデータはhttps://github.com/waxnkw/IETrans SGG.pytorchで公開されている。【JST・京大機械翻訳】