プレプリント
J-GLOBAL ID:202202200402003352   整理番号:21P0052229

リカレントメモリを持つパラグラフレベル常識変圧器【JST・京大機械翻訳】

Paragraph-level Commonsense Transformers with Recurrent Memory
著者 (6件):
資料名:
発行年: 2020年10月04日  プレプリントサーバーでの情報更新日: 2021年02月02日
JST資料番号: O7000B  資料種別: プレプリント
記事区分: プレプリント  発行国: アメリカ合衆国 (USA)  言語: 英語 (EN)
抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
ナラティブテキストの人間理解は,テキストにおいて明示的に述べられたものを超えて,共通感覚推論を行う必要がある。最近のモデル,COMETは,参加者のプレおよびポスト条件,動機,および精神状態のようないくつかの次元に沿ってそのような暗黙的共通センス推論を生成することができる。しかし,COMETは,短いフレーズの常識推論で訓練され,従って,議論の余地がある。複数存在語のそれぞれの文章で提示されたとき,それは,ナラティブの残りと矛盾する推論を生成するかもしれない。ディスコース意識のコモンセンス推論の課題を提示する。ナラティブ内の文章を与えられた場合,目標は,定義済み次元に沿って共通センス推論を生成することであり,一方,ナラティブの残りとのコヒーレンスを維持することである。そのような大規模パラグラフレベルアノテーションは,入手し,コストがかかるので,利用可能な文章レベルアノテーションを用いて,遠隔教師つきコーパスを効率的にかつ自動的に構築する。このコーパスを用いて,PARA-COMETを訓練し,パラグラフレベル情報を組み込み,ナラティブからコヒーレントコモンセンス推論を生成する。PARA-COMETは,事前世界知識に関連する意味知識と,現在の事象がナラティブにおける事前と将来のイベントに関係するかを含むエピソード知識の両方を捕捉する。その結果,PARA-COMETは,特にコヒーレントかつ新規である推論を生成する際に,文章レベルベースラインより優れていることを示した。【JST・京大機械翻訳】
シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。

準シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
, 【Automatic Indexing@JST】
分類 (2件):
分類
JSTが定めた文献の分類名称とコードです
人工知能  ,  自然語処理 
タイトルに関連する用語 (2件):
タイトルに関連する用語
J-GLOBALで独自に切り出した文献タイトルの用語をもとにしたキーワードです

前のページに戻る