抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
「単語2vec」のような標準単語埋め込みアルゴリズムは,各単語をプレセット次元の高密度ベクトルとして埋め込み,その成分はそれの周りの文脈を予測する可能性を最大化することにより学習される。しかしながら,固有の言語現象として,それらの文脈から単語を同定する際に,様々な程度の困難さがあることは明らかである。これは,単語ベクトル表現における可変粒度が,より少ない記憶空間を必要とする,よりスパースでより圧縮された単語表現を得るために有用であるかもしれないことを示唆している。そのために,本論文では,単語を表現するために可変数の要素を用いる単語ベクトル訓練アルゴリズムを提案した。文書のテキスト収集を与えると,単語の現在のインスタンスを与えられた単語の文脈を予測するために,単語2vecのSkip-gramアプローチに類似したアルゴリズムを学習する。しかし,各単語ベクトルに対して静的数の次元を用いるSkip-gramとは対照的に,予測誤差の確率関数として次元を動的に増加させることを提案した。標準テスト集合による実験は,著者らの単語表現法が,有意に小さい数のパラメータ(約65%の圧縮比を達成する)を用いて,Skip-gram word2vecよりも同等の(そして時にはより良い)有効性を達成できることを実証した。Copyright 2020 Elsevier B.V., Amsterdam. All rights reserved. Translated from English into Japanese by JST.【JST・京大機械翻訳】