文献
J-GLOBAL ID:202202284651165241   整理番号:22A1000922

視覚的注意に基づく画像テキスト感情解析モデル【JST・京大機械翻訳】

Image-Text Sentiment Analysis Model Based on Visual Aspect Attention
著者 (4件):
資料名:
巻: 49  号:ページ: 219-224  発行年: 2022年 
JST資料番号: C2530A  ISSN: 1002-137X  資料種別: 逐次刊行物 (A)
記事区分: 原著論文  発行国: 中国 (CHN)  言語: 中国語 (ZH)
抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
ソーシャルネットワークは人々の日常生活における不可分な部分となり、社交メディア情報に対して感情分析を行うのは、人々が社交ウェブサイトで観点、態度と情緒を理解するのに役立つ。伝統的な感情分析は主にテキストの内容に依存し、スマートフォンの登場に伴い、ネットワーク上の情報は徐々に多様化し、テキストの内容以外に、画像も含まれる。研究により、多くの場合、画像はテキストに対してサポート増強作用を持ち、テキストに独立ではなく、感情を表現することが分かった。本論文では,新しい画像テキスト感情分析モデル(LSTM-VistaNet)を提案し,具体的には,LSTM-VistaNetモデルは画像情報を直接入力とせず,VGG16ネットワークを用いて画像特徴を抽出し,さらに視覚的注意力を生成する。文書の中核文のより高い重みを付与して,視覚的注意力に基づく文書表現を得た。さらに、LSTMモデルを用いてテキスト感情を抽出し、テキストに基づく文書表示を得た。最後に,最終分類ラベルを得るために,2つの分類結果を融合した。Yelpホテルの評論的データセットでは,提案モデルは精度で62.08%に達し,精度の高いモデルBiGRU-mVGGよりも18.92%高く,視覚情報を注意力支援テキストとして感情分類する有効性を検証した。それは,VistaNetモデルより0.32%高く,LSTMモデルを使用して,VistaNetモデルの画像を完全にカバーできないことを証明した。Data from Wanfang. Translated by JST.【JST・京大機械翻訳】
シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。

準シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
, 【Automatic Indexing@JST】
分類 (1件):
分類
JSTが定めた文献の分類名称とコードです
人工知能 
タイトルに関連する用語 (3件):
タイトルに関連する用語
J-GLOBALで独自に切り出した文献タイトルの用語をもとにしたキーワードです

前のページに戻る