文献
J-GLOBAL ID:201802249035625635   整理番号:18A0707130

マルチモーダル深畳込みニューラルネットワークを用いたオーディオビジュアル音声強調【JST・京大機械翻訳】

Audio-Visual Speech Enhancement Using Multimodal Deep Convolutional Neural Networks
著者 (6件):
資料名:
巻:号:ページ: 117-128  発行年: 2018年 
JST資料番号: W2473A  ISSN: 2471-285X  資料種別: 逐次刊行物 (A)
記事区分: 原著論文  発行国: アメリカ合衆国 (USA)  言語: 英語 (EN)
抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
音声強調(SE)は音声信号の雑音を低減することを目的としている。ほとんどのSE技術は,音声情報を扱うだけに焦点を合わせている。本論文では,異なるモダリティからのデータを利用する多モード学習と,SEにおける畳込みニューラルネットワーク(CNNs)の最近の成功により,音声と視覚ストリームを統合ネットワークモデルに組み込んだオーディオビジュアル深CNN(AVDCNN)SEモデルを提案した。また,出力層における音声と視覚信号を再構成するためのマルチタスク学習フレームワークを提案した。正確に言うと,提案したAVDCNNモデルは,音声と視覚データが個々のCNNを用いて最初に処理され,次に,出力層において強化された音声(一次タスク)と再構成画像(二次タスク)を生成するために結合ネットワークに融合されるオーディオ-ビジュアルエンコーダ-デコーダネットワークとして構造化される。このモデルはエンドツーエンドで訓練され,パラメータは逆伝搬を通して共同的に学習される。5つの機器基準を用いて強化音声を評価した。結果は,AVDCNNモデルが,オーディオのみのCNNベースSEモデルおよび2つの従来のSEアプローチと比較して,著しく優れた性能をもたらし,視覚情報をSEプロセスに統合することの有効性を確認した。さらに,AVDCNNモデルは既存のオーディオビジュアルSEモデルより優れており,SEにおける音声と視覚情報を効果的に結合する能力を確認した。Copyright 2018 The Institute of Electrical and Electronics Engineers, Inc. All Rights reserved. Translated from English into Japanese by JST【JST・京大機械翻訳】
シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。

準シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
, 【Automatic Indexing@JST】
分類 (2件):
分類
JSTが定めた文献の分類名称とコードです
人工知能  ,  音声処理 
タイトルに関連する用語 (4件):
タイトルに関連する用語
J-GLOBALで独自に切り出した文献タイトルの用語をもとにしたキーワードです

前のページに戻る