抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
楽しい音楽は,非常に長くて退屈なプロセスである。この問題と戦うために,ビート追跡とダウンビート推定のための新しい自己監督学習プレテキストタスクを提示する。このタスクは,音声源分離モデルであるSpleeterを利用して,その信号の残りから歌のドラムを分離する。信号の最初のセットは,ポジティブとして,そして,コントラスト学習プレトレーニングのために,拡張陰性によって使用された。一方,ドラム無し信号をアンカーとして用いた。このプレテキストタスクを用いた完全畳込みと反復モデルを予訓練すると,開始関数が学習される。いくつかの場合,この関数は,歌の周期的要素に写像されることがわかった。事前訓練モデルは,ビート追跡訓練セットが極めて小さい(10例以下)場合,ランダム初期化モデルより優れていることを見出した。これが事例ではない場合,予訓練は学習速度に導き,訓練セットに過剰適合させる。より一般的に,本研究は音楽自己監督学習の現実における新しい展望を定義する。これは,自己スーパービジョンの基本要素としてオーディオ源分離を使用する最初の研究の一つである。【JST・京大機械翻訳】