抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
本論文では,ADD 2022:第1のAudio Deep Synthesis Detection Cite{Yi2022ADD}のための最良のシステムと方法論について述べた。非常に同じシステムを,類似の訓練方法論でTrack3.2における2回の評価の両面に使用した。Text-to-Speech(TTS)または音声変換(VC)アルゴリズムから,トラック3.2データの最初のラウンドを生成し,一方,データの第2ラウンドは,このシステムのスプープを狙って,Track3.1の他の参加者から生成された偽音声から成る。本システムでは,標準34層ResNetを用い,マルチヘッド注意プールサイト{インディア2019自己}を用いて,偽オーディオとスプーフ検出に対する識別埋込みを学習した。さらに,異なるタスクにおいて同等に良好に実行するために,モデルの一般化能力を高めるために,ニューラルステッチングを利用して,より詳細を次のセッションで説明した。実験は,著者らの提案方法が,トラック3.2において10.1%の等しい誤り率(EER)で他のすべてのシステムより優れていることを示した。【JST・京大機械翻訳】