文献
J-GLOBAL ID:202202279397126683   整理番号:22A0742972

PARS-NET:スパースビューCT再構成のための並列残差従来型ニューラルネットワークを用いた新しい深層学習フレームワーク【JST・京大機械翻訳】

PARS-NET: a novel deep learning framework using parallel residual conventional neural networks for sparse-view CT reconstruction
著者 (4件):
資料名:
巻: 17  号:ページ: P02011 (26pp)  発行年: 2022年 
JST資料番号: W5562A  ISSN: 1748-0221  資料種別: 逐次刊行物 (A)
記事区分: 原著論文  発行国: イギリス (GBR)  言語: 英語 (EN)
抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
スパースビューコンピュータ断層撮影(CT)は,データ取得をスピードアップし,患者へのCT高用量デリバリーの課題を軽減するための有望な方法として最近提案されている。しかし,従来の再構成アルゴリズムは時間がかかり,スパースビューデータに直面したとき,画像劣化に悩まされる。この問題に取り組むため,スパースサンプリング投影から高品質CT画像を迅速に生産できる深層学習(DL)に基づく新しいフレームワークを提案し,臨床使用が可能である。DLベースの提案モデルは,並列残差ニューラルネットワーク(PARS-Net)と呼ばれる並列方式で畳込みと残差ニューラルネットワークに基づいている。そのうえ,提案したPARS-Netモデルは,画像構造を効果的に反映するために測地距離に基づく損失から利益を得る。120,60,および30の視野を含む異なるスパース投影ビューのための全身患者のCT画像からなる2つの大規模CTデータセットの組合せについて実験を行った。著者らの実験結果は,PARS-Netが最先端のDLベースモデルよりも4~5倍速く,メモリ要求が少なく,他の客観的品質評価において性能が良好で,視覚品質が改善されることを示した。結果は,著者らのPARS-Netモデルが最新の方法より優れていることを示し,スパースサンプリング投影からの高品質CT画像再構成のためにこのモデルを用いることの実現可能性を実証した。Please refer to the publisher for the copyright holders. Translated from English into Japanese by JST.【JST・京大機械翻訳】
シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。

準シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
, 【Automatic Indexing@JST】
分類 (2件):
分類
JSTが定めた文献の分類名称とコードです
人工知能  ,  ニューロコンピュータ 

前のページに戻る