抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
近年、ますます多くの人は、社交媒体上で同時に画像とテキストなどのメディア形式で自分の感じと見方を表現し、画像とテキストを主な内容とする多モードデータを絶えず増加させている。単一モードデータと比較して,多モードデータに含まれる情報は,より豊富であり,そして,ユーザの実際の感情を,より明白にすることができた。これらの大量の多モードデータに対する感情分析は人々の態度と観点をよりよく理解し、広範な応用場面を持っている。多モード感情分類タスクにおける情報冗長性問題を解決するために,テンソル融合方式に基づいて,注意力ニューラルネットワークに基づく多モード感情解析法を提案した。この方法は,注意力ニューラルネットワークに基づくテキスト特徴抽出モデルと画像特徴抽出モデルを作り,画像感情情報のキー領域と感情情報を含む単語を突出させ,各単一モード特徴表現をより洗練した。各モードのテンソル積を多モードデータの結合特徴として表現し、主成分分析法を用いて複合特徴の冗長情報を取り除き、さらにサポートベクターマシンを用いて多モードデータの感情クラスを獲得した。2つの真実のTwitter図文データセット上で提案したモデルに対して評価を行い、実験結果により、他の感情分類モデルと比べ、この方法は分類精度、再現率、F1指標と精度においていずれも大きな向上があることが分かった。Data from Wanfang. Translated by JST.【JST・京大機械翻訳】