抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
本論文では,NLP ̄citep{khandelwal2019の一般化,khandelwal202020,meng2021gnn}における検索拡張法における最近の進歩に触発されて,k最近傍NER(kNN-NER)フレームワークを導入し,訓練セットから検索されたk最近傍を割当てることによってエンティティラベルの分布を強化した。この戦略は,より良い数ショット学習能力,kNN-NERが訓練フェーズの間,追加操作を必要とせず,そして,k最近傍探索をバニラNERモデルに補間することによって,kNN-NERは,そのvanilla対応物を一貫して凌駕し,kNN-NERは,中国のWeiboデータセット上で,72.03(+1.25)の新しい最先端のF1スコアを達成し,そして,様々な広く使用されたNERベンチマークに関する改良結果を達成した。”kNN-NER”は,そのバニラ対応物を一貫して凌駕する,という事を,このモデルより,さらに,そのvanilla NERモデルへの追加操作を必要としない,という事を,この戦略により,さらに,そのvanilla NERモデルへの,k最近傍探索を,要求し,そして,kNN-NERは,そのバニラ対応物を,一貫して凌駕し,そして,著者らは,中国語のWeiboデータセット上で,72.03(+1.25)の新しい最先端のF1スコアを達成した。さらに,kNN-NERは,訓練データの40%少ない量でバニラNERモデルに匹敵する結果を達成できることを示した。url{https://github.com/ShannonAI/KNN NER}で利用可能なコード。【JST・京大機械翻訳】