文献
J-GLOBAL ID:201802256591782718   整理番号:18A1446545

適応連合辞書学習に基づく脳多モード画像融合手法【JST・京大機械翻訳】

Multi-modal brain image fusion method based on adaptive joint dictionary learning
著者 (4件):
資料名:
巻: 38  号:ページ: 1134-1140  発行年: 2018年 
JST資料番号: C2535A  ISSN: 1001-9081  CODEN: JYIIDU  資料種別: 逐次刊行物 (A)
記事区分: 原著論文  発行国: 中国 (CHN)  言語: 中国語 (ZH)
抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
現在,脳医学画像に対するグローバル訓練辞書の適応性は強くない。スパース表現係数を用いたL1ノルムの大きな融合方式は,画像のグレイスケール不連続効果をもたらし,画像融合効果の不良な問題をもたらす。適応連合辞書学習に基づく脳多モード画像融合方法を提案した。最初に,改良K特異値分解(K-SVD)アルゴリズムを,登録済みのソース画像から学習して,サブ辞書を適応的に組み合わせて,適応可能な結合辞書を得た。適応連合辞書の作用下で、係数再利用直交マッチング追跡(CoefROMP)アルゴリズムにより、スパース表現係数を計算した。次に,スパース表現係数の「多ノルム」をソース画像ブロックの活性度測定として,そして「適応加重平均」と「選択最大」を組合わせた非バイアスルールを提案した。スパース表現係数の「多ノルム」の類似度選択融合規則に従って,「多ノルム」の類似度が閾値より大きい場合,「適応加重平均」の規則を用いる。反対に「選択最大」の規則を用いてスパース表現係数を融合する。最後に,融合係数を融合係数と適応辞書によって再構成した。実験結果は,マルチスケール変換に基づく他の3つの方法と5つのスパース表現に基づく方法と比較して,提案方法の融合画像は,より多くの画像詳細情報を保存でき,コントラストと明瞭さが良好であることを示した。病巣の辺縁は明瞭で、客観的パラメータの標準偏差、空間周波数、相互情報、勾配指標、汎用画像の品質指標と平均構造類似指標に基づく3組の実験条件下の平均値はそれぞれ次の通りである。71.0783,21.9708,3.6790,0.6603,0.7352,0.7339であった。この方法は臨床診断と補助治療に応用できる。Data from Wanfang. Translated by JST.【JST・京大機械翻訳】
シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。

準シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
, 【Automatic Indexing@JST】
分類 (2件):
分類
JSTが定めた文献の分類名称とコードです
計算機網  ,  図形・画像処理一般 

前のページに戻る