抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
音楽の生成過程において和声進行は重要な役割を果たしており,楽曲解析や自動作曲・編曲システム,多重音解析,音楽情報検索など様々な分野においてそのモデル化の研究が盛んに行われている。従来の研究ではルールベースに,あるいは音高パタンを観測系列としたHidden Markov Model(HMM)やProbabilistic Context-free Grammar(PCFG)などの確率モデルによる階層的なモデル化が行われてきたが,近年ではDeep learningを用いて直接的に学習,推定する手法も検討されており,特に時系列データを扱うLong Short-term Memory(LSTM)を用いた手法が注目され始めている。本研究では事前処理として定Q変換を施したパワースペクトルに対し,Specmurt分析を用いて倍音成分の抑制及び基本周波数を強調し,クロマベクトルへと変換した特徴量系列を入力としたLSTMベースのDeep Neural Networkによる学習を行う。特に,系列データを前向きと後ろ向きの双方向に学習するbidirectional LSTMに基づき,これに翻訳モデルとして用いられるEncoder-decoder LSTMへと拡張したRNNなど複数のRNNによる和声の推定を行う。各RNNによるコード推定精度の比較実験を行った結果,bidirectionalな構造とEncoder-decoderモデルによる和声認識への有効性が示唆された。(著者抄録)