抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
筆者らは,監視信号として隣接するビデオフレームを横切る一貫性のみを用いて,単眼ビデオからの深さ,動き,物体運動,およびカメラの固有値の同時学習のための新しい方法を提案した。以前の研究と同様に,著者らの方法は,フレームに微分可能なワーピングを適用することによって学習し,隣接するものと結果を比較することによって,いくつかの改善を提供する。しかし,訓練中に予測されるように深さマップを用いて,幾何学的および微分的にオクルージョンを処理する。新しい強力な正則化器であるランダム化層正規化を導入し,シーンに対する物体運動を説明した。著者らの知る限りでは,著者らの研究は,教師なしの方法でビデオからレンズ歪を含むカメラ固有パラメータを学習し,その結果,スケールで未知の起源の任意のビデオから正確な深さと動きを抽出することを可能にした。著者らの結果を,深さ予測とオドメトリーに関する最先端技術の新しい状態を確立し,citsc,KITTIおよびEuRoCデータセットについて評価し,YouTubeビデオの収集から深さ予測を学習できることを定性的に実証した。このコードは,匿名性を上げるとオープンソースとなる。Copyright 2020 The Institute of Electrical and Electronics Engineers, Inc. All rights reserved. Translated from English into Japanese by JST.【JST・京大機械翻訳】