抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
事前訓練された変圧器モデルは,自然言語モデル処理のための現在の最先端技術であり,seBERTはそのようなモデルであり,BERTアーキテクチャに基づいて開発されたが,ソフトウェア工学データによるスクラッチから訓練された。問題タイプ予測のタスクに対するNLBSEチャレンジのためにこのモデルを微調整した。著者らのモデルは,全F1スコア85.7%を達成するために,リコールとプリシオ}の両方における3つの問題タイプすべてに対して,ベースライン高速Textを優位にし,それは,ベースライン上で4.1%の増加である。【JST・京大機械翻訳】