抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
視覚変換機(ViT)は,最近,それらの優れたモデリング能力,特に長距離情報を捕捉すること,および様々なコンピュータビジョンと医用画像分析タスクにおいて最先端の性能をもたらすデータセットとモデルサイズへのスケーラビリティのために,一般的になってきた。本研究では,3D Swin変換器ベース符号器および畳込みニューラルネットワーク(CNN)および変圧器ベース復号器を用いて,2つのアーキテクチャ,すなわち,UNetフォーマルからなる統一フレームワークを導入した。提案モデルでは,エンコーダは深い監視で5つの異なる解像度でスキップ接続を介して復号器にリンクする。提案したアーキテクチャの設計は,精度と計算コストの間の広範囲のトレードオフ要求を満足させる。さらに,可視トークンの文脈情報を用いてランダムにマスクされた体積トークンを予測するための学習による符号器バックボーンの自己教師付き事前訓練のための方法論を提示した。公的に利用可能なCTデータセットから収集された5050のCT画像のコホートに関する著者らのフレームワークを事前訓練し,ダウンストリームタスクの表現学習能力と性能に影響するマスキング比とパッチサイズのような様々なコンポーネントの系統的研究を提示する。医学分割デカテロン(MSD)データセットを用いて,肝臓および肝臓腫瘍セグメンテーションタスクに関する著者らのモデルを微調整および試験することにより,著者らの事前訓練アプローチの有効性を検証し,様々なセグメンテーションメトリックに関して最先端の性能を達成した。その一般化可能性を実証するために,MRI画像を用いて脳腫瘍セグメンテーションのためのBraTS21データセットに関するモデルを訓練し,試験して,Diceスコアに関して他の方法を凌駕した。コード:https://github.com/Project MONAI/research contributions;【JST・京大機械翻訳】