抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
空間コモンセンス,空間位置に関する知識,およびオブジェクト間の関係(リオンと女児の相対的サイズのような)と,サイクリング時の自転車に対する少年の位置は,共通の知識の重要な部分である。事前訓練された言語モデル(PLM)は多くのNLPタスクに成功するが,それらは空間コモンセンス推論において無効であることが示されている。画像がテキストよりも空間コモンセンスを示す可能性が高いという観測から始めて,視覚信号を持つモデルがテキストベースPLMよりも空間コモンセンスを学習するかどうかを検討した。オブジェクトの相対スケールと,異なる行動の下での人々とオブジェクト間の位置関係に焦点を当てた空間共通センスベンチマークを提案した。このベンチマーク上で視覚言語事前訓練モデルと画像合成モデルを含む視覚信号によるPLMとモデルを調べ,画像合成モデルが他のモデルよりも正確で一貫した空間知識を学習できることを見出した。画像合成モデルからの空間知識は,空間コモンセンスを必要とする自然言語理解タスクにも役立つ。【JST・京大機械翻訳】