抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
人々は自然画像を越えた多くの異なるモダリティを横断するシーンを認識することができる。本論文では,モダリティを横断して伝達をクロスモーダルシーン表現を学習するかを調べた。この問題を研究するために,新しいクロスモーダルシーンデータセットを導入した。畳込みニューラルネットワーク,クロスモーダルシーンを分類できるが,それらはまたモダリティを横断して配列しない中間表現,クロスモーダル移動応用のための望ましくないを学習する。それらはモダリティの不可知論的共有表現を持つようにクロスモーダル畳込みニューラルネットワークを調整する方法を示した。著者らの実験は,著者らのシーン表現は検索のためのモダリティを横断して伝達表現を助けることができることを示唆した。可視化は,ユニットは様式とは無関係に一貫した概念に活性化する傾向があることを共有表現に現れることを示唆した。Copyright 2016 The Institute of Electrical and Electronics Engineers, Inc. All Rights reserved. Translated from English into Japanese by JST【Powered by NICT】