文献
J-GLOBAL ID:201702227693546386   整理番号:17A1712600

中国のマイクロブログのための明示的感情信号に基づくマルチモダリティ弱標識感情学習【Powered by NICT】

Multi-modality weakly labeled sentiment learning based on Explicit Emotion Signal for Chinese microblog
著者 (11件):
資料名:
巻: 272  ページ: 258-269  発行年: 2018年 
JST資料番号: W0360A  ISSN: 0925-2312  資料種別: 逐次刊行物 (A)
記事区分: 原著論文  発行国: オランダ (NLD)  言語: 英語 (EN)
抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
テキストや画像を含むクロスメディア内容物からユーザの理解感情は多くの社会的ネットワークアプリケーションのための重要な課題である。しかし,クロスメディア特徴と感情の間の意味論的ギャップのために,機械学習手法は,多くの人間がラベル付けした試料のを必要とする。さらに,各種メディアコンテンツのための,感情の新しい表現のために多くの新しいヒト標識試料の添加でする必要がある。幸いなことに,クロスメディアコンテンツにおけるユーザの感情を表す,顔文字のような,いくつかの感情信号である。これらの弱くラベルを利用統一マルチモダリティ感情学習フレームワークを構築するために,感情学習における膨大な数弱くラベル付けされた標本を用いた明示的感情信号(EES)に基づくマルチモダリティ感情学習アプローチを提案した。は,筆者らのアプローチにおける三つの利点である。,ごく少数のヒト標識試料は伝統的な機械学習に基づく感情予測手法によって得られる同じ性能に達するために必要である。第二に,この方法は,柔軟性があり,深いニューラルネットワークによるテキストと視覚ベース感情学習を容易に組み合わせることができた。第三に,弱くラベル付けされた標本のEESで使用できるので,訓練されたモデルは,異なるドメイン移動におけるよりロバストである。本論文では,まず,感情と情動との間の相関を検討し,筆者らのアプローチにおける明示的感情信号として顔文字を選択第二に,著者らは明示的感情信号に基づく二段階マルチモダリティ感情学習フレームワークを構築した。実験を行いその結果,提案アプローチは画像とテキストのビジュアル幾何学グループ(VGG)モデルと長い短期記憶(LSTM)モデルの同じ性能を得るための最良の性能が,ニーズわずか3%と43%訓練サンプルを達成する,ことを示した。Copyright 2017 Elsevier B.V., Amsterdam. All rights reserved. Translated from English into Japanese by JST.【Powered by NICT】
シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。

準シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
, 【Automatic Indexing@JST】
分類 (1件):
分類
JSTが定めた文献の分類名称とコードです
人工知能 

前のページに戻る