文献
J-GLOBAL ID:202202210767262620   整理番号:22A1101331

CentriForce:ドメイン不変話者表現学習のための多重領域適応【JST・京大機械翻訳】

CentriForce: Multiple-Domain Adaptation for Domain-Invariant Speaker Representation Learning
著者 (4件):
資料名:
巻: 29  ページ: 807-811  発行年: 2022年 
JST資料番号: W0576A  ISSN: 1070-9908  CODEN: ISPLEM  資料種別: 逐次刊行物 (A)
記事区分: 原著論文  発行国: アメリカ合衆国 (USA)  言語: 英語 (EN)
抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
実世界において,話者認識システムは,訓練と試験条件の間のドメイン不整合のために,通常重大な性能劣化に悩まされる。ドメインシフトの有害な影響を軽減するために,教師なしドメイン適応法を導入し,単一ソース対単一ターゲットドメイン適応問題に対処する領域不変話者表現を学習した。しかし,ラベル付き話者データは,通常,異なる言語,ジャンルおよびデバイスのような複数の情報源から収集される。単一ドメイン適応法は複雑な多重ドメインミスマッチ問題を扱うことができない。この課題に取り組むために,話者認識のためのドメイン不変話者表現を抽出するために,CentriForceと呼ばれる多重ドメイン適応フレームワークを提案した。以前の方法と異なり,CentriForceは複数のドメイン関連話者表現空間を学習する。多重ドメインミスマッチを緩和するために,CentriForceは,それらのドメイン関連表現空間において,ソースとターゲットドメインの各ペア間のWasserstein距離を低減し,一方,ターゲットドメインをアンカーポイントとして用いて,互いに近いすべてのソースドメインを描いた。著者らの実験において,CentriForceは,他の競合する適応法と比較して,16の挑戦的な適応タスクのほとんどに関して最良の性能を達成した。アブレーション研究と表現可視化は,ドメイン不変話者埋込みを学習するためのその有効性をさらに実証した。Copyright 2022 The Institute of Electrical and Electronics Engineers, Inc. All rights reserved. Translated from English into Japanese by JST.【JST・京大機械翻訳】
シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。

準シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
, 【Automatic Indexing@JST】
分類 (1件):
分類
JSTが定めた文献の分類名称とコードです
パターン認識 

前のページに戻る