抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
自然言語処理における入力文は非常に疎で,かつ可変長のシンボル系列のために経験的に様々な素性関数が導入されてきた。本論文では,素性関数自体をデータから自動的に学習できるニューラルネットワークに基づく深層学習を解説し,その自然言語処理応用について述べた。まず,1)回帰型ニューラルネットワーク,2)再帰型ニューラルネットワーク,3)スタック型ニューラルネットワークといったモデルの構文解析及び機械翻訳への応用を説明した。特に,3)は1)を拡張して任意の過去の隠れ層からの遷移を可能にし,既存の遷移に基づく構文解析アルゴリズムを変更することなく,ニューラルネットワークが適用できる。一方,エンコーダ・デコーダモデルではニューラルネットワークの隠れ層をそのまま用いてモデルから直接出力を生成できるが,デコードが進むに連れてその影響が小さくなるので,エンコードされたすべての隠れ層を重みを付けて足す注意モデルが導入された。また,その機械翻訳モデルでは大規模な語彙に対応するために頻度の高い語彙集合以外の単語をシンボルに置換し,すべての語彙を学習できるようにした。さらに,デコード時には注意モデルの単語アライメントの信頼度を利用して信頼度の高い原言語の単語と共起する頻度の高い目的言語の単語に制限し,従来以上の高い性能を達成した。