抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
伝統的に,乳癌分類のための深層学習方法は,単一視点分析を実行する。しかし,放射線科医はマンモグラフィビューに含まれる相関のためにマンモグラフィ検査を構成するすべての4つの見解を同時に分析し,それは腫瘍を同定するための重要な情報を提供する。これを考慮して,いくつかの研究はマルチビュー法を提案して始めた。それにもかかわらず,そのような既存のアーキテクチャでは,マンモグラムビューは別々の畳み込み枝によって独立した画像として処理され,それらの間の相関関係を失う。そのような限界を克服するために,本論文では,パラメータ化した超複合ニューラルネットワークに基づくマルチビュー乳癌分類のための方法論的アプローチを提案した。ハイパーコンプレックス代数特性のおかげで,著者らのネットワークはモデル化することができ,従って,マンモグラムを構成する異なるビュー間の既存の相関を,臨床医によって実行される読解プロセスを模倣した。これは,超複合ネットワークが,標準ニューラルモデルとして,また,局所関係,すなわち,実数値ネットワークがモデリングで失敗するような,局所関係,のような大域的特性の両方を捕捉するので,起こる。2視点試験,すなわちPHResNetと4ビュー試験,すなわちPHYSEnetとPHYBOnetを処理するように設計されたアーキテクチャを定義した。公的に利用可能なデータセットで行った広範な実験的評価を通して,提案モデルが実数値の対応物と最先端の方法を明確に上回り,提案したマルチビューアーキテクチャから乳癌の分類の利点を証明した。また,異なるベンチマークとセグメンテーションのようなより細かいスケールタスクを考慮することにより,マンモグラム解析を超えた方法の一般化可能性を評価した。著者らの実験の完全な再現性のための完全なコードと事前訓練モデルは,https://github.com/ispamm/PHBreastで自由に利用可能である。【JST・京大機械翻訳】