抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
アマゾンAlexa,Google’s Assistant,またはApple’s SiriのようなVoice支援は,数百万の家庭で見つかるスマートスピーカにおける一次(音声)インタフェイスになった。プライバシー理由のために,これらの話者は,さらに処理のためにクラウドにオーディオストリームをアップロードする前に,「Alexa」または「Hey Siri」のようなそれぞれの後流単語のために,それらの環境においてあらゆる音を分析する。「OK Google」の代わりに「カカイン麺」のような類似語または音を用いて測定可能な不正確な後流語検出に関して報告した以前の研究を報告した。本論文では,そのような事故トリガー,すなわち,音声支援を引き起こさないが,音声支援を誘発すべき音の包括的な解析を行う。より具体的には,著者らは,TV,ニュース,および他の種類のオーディオデータセットのような日常メディアを用いて,8つの異なる製造業者から11のスマートスピーカを通して,偶然のトリガーを見つけるプロセスを自動化し,それらの罹患率を測定する。偶然のトリガーを系統的に検出するために,著者らは,発音辞書と加重,電話ベースLvenshtein距離を用いて,そのようなトリガを人工的に工作する方法を記述する。全体で,数百の事故トリガーを見出した。さらに,潜在的性別と言語バイアスを調べ,再現性を分析した。最後に,事故トリガーのプライバシー含意を考察し,ユーザのプライバシーに対するインパクトを低減し,制限する対策を検討した。機械学習モデルを誤リードするこれらの音に関する追加研究を促進するために,研究アーチファクトとして1000以上の検証済みトリガーのデータセットを公表した。【JST・京大機械翻訳】