文献
J-GLOBAL ID:202002273615746465   整理番号:20A0876993

スペクトルエンベロープ量子化のための多層パーセプトロントロンベクトル量子化変分オートエンコーダ【JST・京大機械翻訳】

The Multilayer Perceptron Vector Quantized Variational AutoEncoder for Spectral Envelope Quantization
著者 (2件):
資料名:
巻: 2020  号: ICCE  ページ: 1-6  発行年: 2020年 
JST資料番号: W2441A  資料種別: 会議録 (C)
記事区分: 原著論文  発行国: アメリカ合衆国 (USA)  言語: 英語 (EN)
抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
最近,従来の数学モデルを置き換えるために,深い生成学習が導入された。音声処理において,ベクトル量子化は,送信前の音声データ量を低減するための有効な圧縮法であった。本論文では,空間サイズを効率的に量子化し埋め込むために,z-潜在ベクトルの数を制御する柔軟性を管理するために,多層パーセプトロンベクトル量子化分散自動符号器(MLP-VQ-VAE)を提案した。MLP-VQVAEは,量子化のための効果的z-潜在ベクトルのサイズを受信するために,ベクトル量子化分散自動符号器(VQ-VAE)の符号器ネットワークと復号器ネットワークにおいて,畳込みニューラルネットワーク(CNN)に代わる。実験において,MLP-VQ-VAEを適用して,WORLDと呼ばれる48kHz高品質ボコーダからのスペクトルエンベロープパラメータを定量化した。MLP-VQ-VAEは,従来のベクトル量子化と比較して約1.6倍の空間サイズまたはコードブックサイズを量子化して埋め込むために,z-潜在的またはベクトルの長さの表現のメモリサイズを減少させ,VQVAEに対して21.4倍である。提案した方法は,従来のVQより約1.1dB低く,VQ-VAEより約2.5dB低いLogスペクトル距離を低減した。Copyright 2020 The Institute of Electrical and Electronics Engineers, Inc. All rights reserved. Translated from English into Japanese by JST.【JST・京大機械翻訳】
シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。

分類 (1件):
分類
JSTが定めた文献の分類名称とコードです
図形・画像処理一般 

前のページに戻る