抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
外科的活動のモデリングと自動認識は,手術における自動化に向けた基本的段階であり,外科医にタイムリーなフィードバックを提供する際に重要な役割を果たす。ビデオにおける外科的活動を正確に認識することは,空間および時間動力学の両者を学習する効果的な手段を必要とする挑戦的な問題である。人間の注視と視覚の顕著性は視覚的注意に関する重要な情報を持ち,これらの空間と時間動力学をより良く反映するより適切な特徴を抽出するのに使用できる。本研究では,外科的ビデオにおける活動認識のための時空間注意機構による人間注視の使用を提案した。本モデルは,I3Dベースアーキテクチャから成り,3D畳込みを用いて時空間特徴を学習し,また,監視として人間の注視を用いて注意マップを学習する。公的に利用可能な外科的ビデオ理解データセットであるJIGSAWSの縫合タスクに関する著者らのモデルを評価した。著者らが知る限りでは,著者らは,外科的活動認識のためのヒト注視を用いる初めてである。著者らの結果およびアブレーション研究は,85.4%の精度で最先端のモデルを凌駕することによる注意を導くために,人間の凝視を使用することの寄与を支持した。【JST・京大機械翻訳】