文献
J-GLOBAL ID:202002287006245831   整理番号:20A1204983

コードGru:ソースコードモデリングのためのゲート付き再帰ユニットを用いた文脈意識型深層学習【JST・京大機械翻訳】

CodeGRU: Context-aware deep learning with gated recurrent unit for source code modeling
著者 (6件):
資料名:
巻: 125  ページ: Null  発行年: 2020年 
JST資料番号: B0445B  ISSN: 0950-5849  資料種別: 逐次刊行物 (A)
記事区分: 原著論文  発行国: オランダ (NLD)  言語: 英語 (EN)
抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
背景:最近,深い学習に基づく自然言語処理(NLP)モデルは,ソースコードのモデリングにおいて大きな可能性を示している。しかしながら,これらのアプローチの主要な限界は,それらがテキストの単純なトークンとしてソースコードを取り,その文脈的,構文的および構造的依存性を無視することである。目的:本研究では,ソースコードの文脈的,構文的および構造的依存性を捉えることができる,ゲート付き再帰ユニットベースのソースコード言語モデル,CodeGRUを提案した。【方法】:著者らは,ソース符号トークン型を活用することによって,ソースコード文脈を獲得することができる新しいアプローチを導入する。さらに,ソースコードの構文と構造情報を考慮することにより,可変サイズコンテキストを学習できる新しいアプローチを採用した。結果:実世界のデータセットを用いてCodeGRUを評価し,CodeGRUが最先端の言語モデルより優れており,語彙サイズを24.93%まで低減するのに役立つことを示した。以前の研究と異なり,著者らは,提案方法が,提案を提供しながら,訓練データと同じドメインから生じるソースコードを必要としないことを示唆する独立したテストセットを用いて,CodeGRUをテストした。さらにCodeGRUを2つのソフトウェア工学応用により評価した:ソースコード提案とソースコード完成。結論:著者らの実験は,ソースコードの文脈情報が重要であり,ソフトウェア言語モデルの改善を助けることができることを確認した。CodeGRUの広範な評価は,それが最先端のモデルより優れていることを示している。結果は,提案した手法が語彙サイズの低減を助け,ソフトウェア開発者に実用的であることを示唆した。Copyright 2020 Elsevier B.V., Amsterdam. All rights reserved. Translated from English into Japanese by JST.【JST・京大機械翻訳】
シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。

準シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
, 【Automatic Indexing@JST】
分類 (1件):
分類
JSTが定めた文献の分類名称とコードです
計算機システム開発 
タイトルに関連する用語 (4件):
タイトルに関連する用語
J-GLOBALで独自に切り出した文献タイトルの用語をもとにしたキーワードです

前のページに戻る