プレプリント
J-GLOBAL ID:202202216193848890   整理番号:22P0327920

API学習のための予訓練モデルの有効性について【JST・京大機械翻訳】

On the Effectiveness of Pretrained Models for API Learning
著者 (7件):
資料名:
発行年: 2022年04月05日  プレプリントサーバーでの情報更新日: 2022年04月05日
JST資料番号: O7000B  資料種別: プレプリント
記事区分: プレプリント  発行国: アメリカ合衆国 (USA)  言語: 英語 (EN)
※このプレプリント論文は学術誌に掲載済みです。なお、学術誌掲載の際には一部内容が変更されている可能性があります。
抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
Developersは,例えば,Excel Files,読書および書き込みテキストファイルラインなどの特定の機能を実装するためにAPIを頻繁に利用し,Developersは,より高速でクリーナーな方法で建築アプリケーションのための自然言語質問に基づく自動API利用シーケンス生成から大いに利益を得ることができる。既存の手法は,APIシーケンスを生成するために,クエリーまたはRNNベースの符号器デコーダーを用いて,APIシーケンスをマッチングするために,情報検索モデルを利用する。それにより,最初のアプローチは,単語の袋として質問とAPI名を処理する。それは質問の意味論の深い理解を欠いている。後者の手法は,ユーザクエリを固定長文脈ベクトルに符号化し,コンテキストベクトルからAPIシーケンスを生成するため,ニューラル言語モデルに適応する。API学習タスクに対する最近の事前訓練変換器ベースモデル(PTM)の有効性を理解することを望む。これらのPTMは,言語に関する文脈的知識を保持するために教師なし方法で大きな自然言語コーパス上で訓練され,類似の自然言語処理(NLP)問題を解くことに成功した。しかし,PTMの適用性は,API配列生成タスクに対してまだ調べられていない。GitHubから収集された7百万の注釈を含むデータセットを用いて,経験的にPTMを評価した。このデータセットを用いて以前の手法を評価した。著者らの結果に基づいて,PTMはより正確なAPI配列を生成し,約11%の他の関連方法より優れている。また,APIシーケンス生成タスクに対するPTMの性能における大きなブーストに寄与する2つの異なるトークン化アプローチを同定した。【JST・京大機械翻訳】
シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。

準シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
, 【Automatic Indexing@JST】
分類 (4件):
分類
JSTが定めた文献の分類名称とコードです
計算機システム開発  ,  人工知能  ,  その他の情報処理  ,  言語プロセッサ 
タイトルに関連する用語 (5件):
タイトルに関連する用語
J-GLOBALで独自に切り出した文献タイトルの用語をもとにしたキーワードです

前のページに戻る