文献
J-GLOBAL ID:202002213169034492   整理番号:20A0277475

ハイブリッド幾何学的に洗練された損失と文脈的注意による単眼ビデオからの教師なし深度推定【JST・京大機械翻訳】

Unsupervised depth estimation from monocular videos with hybrid geometric-refined loss and contextual attention
著者 (5件):
資料名:
巻: 379  ページ: 250-261  発行年: 2020年 
JST資料番号: W0360A  ISSN: 0925-2312  資料種別: 逐次刊行物 (A)
記事区分: 原著論文  発行国: オランダ (NLD)  言語: 英語 (EN)
抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
畳込みニューラルネットワーク(CNNs)に基づくほとんどの既存の方法は,訓練のための大量のグランドトルースデータを必要とする教師つきである。最近では,いくつかの教師なしの方法は,奥行き推定による入力として立体画像対を利用するが,データ収集のための付加的な装置として立体カメラを必要とする。そこで,単眼カメラから取得したより利用可能な単眼ビデオを入力として用い,単眼ビデオフレームからシーン深さマップを予測する教師なし学習フレームワークを提案した。最初に,入力カラー画像と予測された深さマップの間のより正確な幾何学的関係を明確に探索し,深さマップにおける深さ境界と微細構造を保存することができる新しい教師なしハイブリッド幾何学的微細化損失を設計した。次に,二重経路における空間およびチャネル次元に沿った非局所的依存性を捉えるために,文脈的注意モジュールを設計し,それは特徴表現の能力を改善し,さらに詳細な詳細を保存することができる。さらに,現実的な結果を生み出すために識別子を訓練することにより,合成的または現実的な色画像を識別するために,敵の損失を利用した。実験結果は,提案したフレームワークが,単眼ビデオまたは立体画像ペアで訓練されたものより,同等またはより良い結果を達成することを実証した。Copyright 2020 Elsevier B.V., Amsterdam. All rights reserved. Translated from English into Japanese by JST.【JST・京大機械翻訳】
シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。

準シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
, 【Automatic Indexing@JST】
分類 (1件):
分類
JSTが定めた文献の分類名称とコードです
人工知能 

前のページに戻る