文献
J-GLOBAL ID:202002271639865552   整理番号:20A1072979

両眼内視鏡検査におけるステレオ深度マッピングのための深部畳込みネットワーク【JST・京大機械翻訳】

Deep Convolutional Network for Stereo Depth Mapping in Binocular Endoscopy
著者 (4件):
資料名:
巻:ページ: 73241-73249  発行年: 2020年 
JST資料番号: W2422A  ISSN: 2169-3536  資料種別: 逐次刊行物 (A)
記事区分: 原著論文  発行国: アメリカ合衆国 (USA)  言語: 英語 (EN)
抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
両眼内視鏡画像からの深さマッピングは,立体外科的治療において重要な役割を果たす。深い畳込みニューラルネットワーク(CNNs)の開発のために,両眼深さ推定モデルは,自律運転とマシンビジョンの分野において多くの励起結果を達成した。しかしながら,内視鏡画像へのこれらの方法の応用は,両眼内視鏡画像がまれであるという事実により大きく制限されている。しかし,テクスチャがなく,グランドトルースがなく,コントラストが悪く,光沢が高いなどの特徴がない。上記の問題を解決することを目的として,著者らは豊富な両眼の内視鏡データをシミュレートするためにオープンソースソフトウェアブレンダーによって正確な胃腸環境を構築して,リアルタイム立体深さマッピングを作り出すために23層の深いCNN方法を提案した。効率的スケール不変損失関数を本論文において導入して,内視鏡画像の特性を適応させて,それは達成された深さマッピング結果の精度を向上させた。典型的なCNNのためのかなりの訓練データに関して,著者らの方法は,NVIDIA GTX1080GPUモジュール上の45フレームにおいてわずか数の画像(960×720分解能)を必要とし,次に,深さマッピング情報をリアルタイムで満足な精度で生成した。開発した方法の有効性を,同じデータセットの処理に関する最先端の方法と比較することにより検証し,他のモデルフレームよりも高速でより正確な性能を実証した。Copyright 2020 The Institute of Electrical and Electronics Engineers, Inc. All rights reserved. Translated from English into Japanese by JST.【JST・京大機械翻訳】
シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。

準シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
, 【Automatic Indexing@JST】
分類 (1件):
分類
JSTが定めた文献の分類名称とコードです
図形・画像処理一般 

前のページに戻る