文献
J-GLOBAL ID:202002238571978177   整理番号:20A1105168

単語の可変長表現の学習【JST・京大機械翻訳】

Learning variable-length representation of words
著者 (1件):
資料名:
巻: 103  ページ: Null  発行年: 2020年 
JST資料番号: D0611A  ISSN: 0031-3203  資料種別: 逐次刊行物 (A)
記事区分: 原著論文  発行国: オランダ (NLD)  言語: 英語 (EN)
抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
「単語2vec」のような標準単語埋め込みアルゴリズムは,各単語をプレセット次元の高密度ベクトルとして埋め込み,その成分はそれの周りの文脈を予測する可能性を最大化することにより学習される。しかしながら,固有の言語現象として,それらの文脈から単語を同定する際に,様々な程度の困難さがあることは明らかである。これは,単語ベクトル表現における可変粒度が,より少ない記憶空間を必要とする,よりスパースでより圧縮された単語表現を得るために有用であるかもしれないことを示唆している。そのために,本論文では,単語を表現するために可変数の要素を用いる単語ベクトル訓練アルゴリズムを提案した。文書のテキスト収集を与えると,単語の現在のインスタンスを与えられた単語の文脈を予測するために,単語2vecのSkip-gramアプローチに類似したアルゴリズムを学習する。しかし,各単語ベクトルに対して静的数の次元を用いるSkip-gramとは対照的に,予測誤差の確率関数として次元を動的に増加させることを提案した。標準テスト集合による実験は,著者らの単語表現法が,有意に小さい数のパラメータ(約65%の圧縮比を達成する)を用いて,Skip-gram word2vecよりも同等の(そして時にはより良い)有効性を達成できることを実証した。Copyright 2020 Elsevier B.V., Amsterdam. All rights reserved. Translated from English into Japanese by JST.【JST・京大機械翻訳】
シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。

準シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
, 【Automatic Indexing@JST】
分類 (1件):
分類
JSTが定めた文献の分類名称とコードです
パターン認識 
タイトルに関連する用語 (4件):
タイトルに関連する用語
J-GLOBALで独自に切り出した文献タイトルの用語をもとにしたキーワードです

前のページに戻る