特許
J-GLOBAL ID:201903008405742628

記号列生成装置、文圧縮装置、記号列生成方法及びプログラム

発明者:
出願人/特許権者:
代理人 (3件): 伊東 忠重 ,  伊東 忠彦 ,  石原 隆治
公報種別:公開公報
出願番号(国際出願番号):特願2018-037919
公開番号(公開出願番号):特開2019-153078
出願日: 2018年03月02日
公開日(公表日): 2019年09月12日
要約:
【課題】深い依存構造木を持つ文においても精度の高い文圧縮を可能とすること。【解決手段】エンコード部110には単語x0〜x7が逐次的に入力され、隠れ状態h0〜h7が逐次的に出力される。次に、単語x1がエンコード部110に入力され、隠れ状態h1が出力される。以降も同様に、単語x2〜x7がエンコード部110にそれぞれ入力され、隠れ状態h2〜h7が順に出力される。隠れ状態h0〜h7は、注意機構130に入力される。そして、t=1〜7に対して、デコード部120から出力された隠れ状態st→と、エンコード部110から出力された隠れ状態htと、注意機構130から出力されたΩtとが出力部140に逐次的に入力されることで、ラベルytが順に出力される。これにより、原文を構成する各単語x0〜x7にそれぞれ付与されるラベルy0〜y7が得られる。これらのラベルy0〜y7を用いて、原文から圧縮文が生成される。【選択図】図10
請求項(抜粋):
文を表す第1の記号系列xが入力されると、前記文に対応する所定の目的に応じた第2の記号系列yを、予め学習されたニューラルネットワークにより生成する記号列生成装置であって、 前記ニューラルネットワークは、 入力された第1の記号系列xの各要素xiを第1の隠れ状態に変換するエンコード部と、 前記第1の隠れ状態に重み付けを行い、第2の隠れ状態として出力する注意機構部と、 前記第1の記号系列xのt番目の要素xtと、第2の記号系列yのt-1番目の要素yt-1と、前記第2の隠れ状態とに基づき、第3の隠れ状態を出力するデコード部と、 前記第2の隠れ状態と、前記第3の隠れ状態とに基づき、前記第2の記号系列yのt番目の要素ytを生成し、生成した該要素ytを出力する出力部と、 を有し、 前記注意機構部は、 前記文に対応する依存構造木において、前記第1の記号系列xに含まれる要素xtの親が、該要素xt以外の要素xjとなる第1の確率Pparent(xj|xt,x)をそれぞれ計算し、 計算された前記第1の確率Pparent(xj|xt,x)を用いて、前記要素xtのd次の親が、該要素xt以外の単語xjとなる第2の確率αd,t,jをそれぞれ計算し、 計算された前記第2の確率αd,t,jを用いて前記第1の隠れ状態に重み付けを行ったγd,tを前記第2の隠れ状態として出力する、ことを特徴とする記号列生成装置。
IPC (4件):
G06F 17/22 ,  G06F 16/00 ,  G06F 16/30 ,  G06N 3/04
FI (5件):
G06F17/22 652 ,  G06F17/30 230A ,  G06F17/30 170A ,  G06F17/30 220Z ,  G06N3/04
Fターム (1件):
5B109TA13
引用文献:
出願人引用 (4件)
  • "Abstractive Text Summarization using Sequence-to-sequence RNNs and Beyond"
  • "Sentence Compression by Deletion with LSTMs"
  • "A Neural Attention Model for Abstractive Sentence Summarization"
全件表示
審査官引用 (4件)
  • "Abstractive Text Summarization using Sequence-to-sequence RNNs and Beyond"
  • "Sentence Compression by Deletion with LSTMs"
  • "A Neural Attention Model for Abstractive Sentence Summarization"
全件表示

前のページに戻る