プレプリント
J-GLOBAL ID:202202201094927676   整理番号:22P0324128

UnetFormer:3D医用画像セグメンテーションのための統一ビジョン変圧器モデルとプレトレーニングフレームワーク【JST・京大機械翻訳】

UNetFormer: A Unified Vision Transformer Model and Pre-Training Framework for 3D Medical Image Segmentation
著者 (6件):
資料名:
発行年: 2022年04月01日  プレプリントサーバーでの情報更新日: 2022年04月05日
JST資料番号: O7000B  資料種別: プレプリント
記事区分: プレプリント  発行国: アメリカ合衆国 (USA)  言語: 英語 (EN)
抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
視覚変換機(ViT)は,最近,それらの優れたモデリング能力,特に長距離情報を捕捉すること,および様々なコンピュータビジョンと医用画像分析タスクにおいて最先端の性能をもたらすデータセットとモデルサイズへのスケーラビリティのために,一般的になってきた。本研究では,3D Swin変換器ベース符号器および畳込みニューラルネットワーク(CNN)および変圧器ベース復号器を用いて,2つのアーキテクチャ,すなわち,UNetフォーマルからなる統一フレームワークを導入した。提案モデルでは,エンコーダは深い監視で5つの異なる解像度でスキップ接続を介して復号器にリンクする。提案したアーキテクチャの設計は,精度と計算コストの間の広範囲のトレードオフ要求を満足させる。さらに,可視トークンの文脈情報を用いてランダムにマスクされた体積トークンを予測するための学習による符号器バックボーンの自己教師付き事前訓練のための方法論を提示した。公的に利用可能なCTデータセットから収集された5050のCT画像のコホートに関する著者らのフレームワークを事前訓練し,ダウンストリームタスクの表現学習能力と性能に影響するマスキング比とパッチサイズのような様々なコンポーネントの系統的研究を提示する。医学分割デカテロン(MSD)データセットを用いて,肝臓および肝臓腫瘍セグメンテーションタスクに関する著者らのモデルを微調整および試験することにより,著者らの事前訓練アプローチの有効性を検証し,様々なセグメンテーションメトリックに関して最先端の性能を達成した。その一般化可能性を実証するために,MRI画像を用いて脳腫瘍セグメンテーションのためのBraTS21データセットに関するモデルを訓練し,試験して,Diceスコアに関して他の方法を凌駕した。コード:https://github.com/Project MONAI/research contributions;【JST・京大機械翻訳】
シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。

準シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
, 【Automatic Indexing@JST】
分類 (2件):
分類
JSTが定めた文献の分類名称とコードです
図形・画像処理一般  ,  人工知能 
タイトルに関連する用語 (5件):
タイトルに関連する用語
J-GLOBALで独自に切り出した文献タイトルの用語をもとにしたキーワードです

前のページに戻る