抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
グラフィックスにおける最近の進歩により,合成画像に及ぼす列車モデルに実行可能になってきた,高価なアノテーションのための必要性を回避する可能性がある。しかし,合成画像からの学習は,人工的データおよび実画像分布の間のギャップのために所望の性能を得られない可能性がある。このギャップを低減するために,シミュレートした+教師なし(S+U)学習,タスクは,ラベル付けされていない実データを用いたシミュレータ出力の現実性を改善するモデルを学習することであることを提案し,シミュレータからの注釈情報を保持している。生成敵対的ネットワーク(GANs)に類似しているが,ランダムベクトルの代わりに入力として合成画像を持つ敵対的ネットワークを用いたS+U学習のための方法を開発した。アノテーションを保持し,アーチファクトを回避し,訓練を安定化するために標準GaNアルゴリズムにいくつかの重要な変更を行うもの(i)自己正則化項,(ii)局所敵対的損失,および(iii)洗練された画像の履歴を用いた弁別器を更新する。は,これが定性的およびユーザ研究高度に現実感の発生,ここで示すを可能にすることを示した。凝視推定と手姿勢推定のためのトレーニングモデルによって生成された画像を定量的に評価した。合成画像を用いたよりも顕著な改善を示し,いかなる標識実データなしMPIIGazeデータセット上で最先端技術レベルの結果を達成した。Copyright 2017 The Institute of Electrical and Electronics Engineers, Inc. All Rights reserved. Translated from English into Japanese by JST【Powered by NICT】