文献
J-GLOBAL ID:202202225350066231   整理番号:22A1147973

開発プロジェクトのドメインに特化したRoBERTaによるコード補完モデルの提案

Project-domain adaptation with RoBERTa Model for Code Completion
著者 (4件):
資料名:
巻: 121  号: 416(SS2021 42-68)  ページ: 49-53 (WEB ONLY)  発行年: 2022年02月28日 
JST資料番号: U2030A  ISSN: 2432-6380  資料種別: 会議録 (C)
記事区分: 原著論文  発行国: 日本 (JPN)  言語: 日本語 (JA)
抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
コード補完は,開発者がプログラムを作成中に次に入力する候補(トークン列)を自動推薦する技術である.コード補完によって,開発スキルが乏しい開発者でもコーディング時間を短縮させることが可能である.従来研究では,機械学習技術を用いてプログラムの文脈を考慮し,より汎用的にトークンを補完できる手法を提案している.しかし,これらの従来研究では,補完するトークン数が増えると急激に補完精度が低下する課題が報告されている.本研究では,自然言語処理の機械学習モデルの一つであるRoBERTaに対して,開発者のリポジトリのドメインで構築されたデータセットで追加学習する手法を提案する.これにより,モデルが推薦する語彙を減らす事ができ,補完精度の向上が期待される.実験の結果,事前学習から一定の精度改善が確認された.(著者抄録)
シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。

準シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。

分類 (2件):
分類
JSTが定めた文献の分類名称とコードです
計算機システム開発  ,  人工知能 
引用文献 (7件):
  • “Eclipse”. http://www.eclipse.org
  • “Intellij idea”. https://www.jetbrains.com/ja-jp/idea/
  • J. Devlin, M.-W. Chang, K. Lee, and K. Toutanova, “BERT: Pre-training of deep bidirectional transformers for language understanding,” Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp.4171-4186, Association for Computational Linguistics, Minneapolis, Minnesota, June 2019. https://aclanthology.org/N19-1423
  • M. Ciniselli, N. Cooper, L. Pascarella, D. Poshyvanyk, M.D. Penta, and G. Bavota, “An empirical study on the usage of bert models for code completion,” 2021 IEEE/ACM 18th International Conference on Mining Software Repositories (MSR), pp.108-119, 2021.
  • Y. Liu, M. Ott, N. Goyal, J. Du, M. Joshi, D. Chen, O. Levy, M. Lewis, L. Zettlemoyer, and V. Stoyanov, “Roberta: A robustly optimized bert pretraining approach,” 2019.
もっと見る

前のページに戻る