プレプリント
J-GLOBAL ID:202202202319795762   整理番号:22P0155914

BERT-XML:BERTプレトレーニングを用いた大規模自動ICD符号化【JST・京大機械翻訳】

BERT-XML: Large Scale Automated ICD Coding Using BERT Pretraining
著者 (3件):
資料名:
発行年: 2020年05月26日  プレプリントサーバーでの情報更新日: 2020年05月26日
JST資料番号: O7000B  資料種別: プレプリント
記事区分: プレプリント  発行国: アメリカ合衆国 (USA)  言語: 英語 (EN)
抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
臨床的相互作用を最初に記録し,フリーテキスト医療記録で文書化した。ICDコーディングは,患者の訪問に関連するすべての診断,症状および手順の分類および符号化のタスクである。プロセスは,しばしば手動で,病院にとって非常に時間がかかり,高価である。本論文では,様々なNLPタスクに関する最先端の性能を達成した最近開発した教師なし予訓練を利用して,EHRノートからの大規模自動ICD符号化のための機械学習モデルBERT-XMLを提案した。EHRノート上のスクラッチからBERTモデルを訓練し,EHRタスクに適した語彙を学習し,従って,オフザイスモデルを凌駕した。マルチラベル注意でICD符号化にBERTアーキテクチャを適応させた。他の研究は,小さな公共医療データセットに焦点を合わせているが,数千のユニークなICDコードを予測するために,数百万のEHRノートを用いた最初の大規模ICD-10分類モデルを作成した。【JST・京大機械翻訳】
シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。

準シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
, 【Automatic Indexing@JST】
分類 (1件):
分類
JSTが定めた文献の分類名称とコードです
医用情報処理 

前のページに戻る