抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
伝統的なビデオベースの人間活動認識は,深い学習の増加にリンクした顕著な進歩を経験してきたが,この影響は,運転者行動理解の下流タスクに来るので,より遅かった。車両キャビン内の状況の理解は,運転者の意図を予測し,より便利な人間-車両相互作用を導くことができるため,先進運転支援システム(ADAS)にとって不可欠である。同時に,運転者の観測システムは,運転者状態の異なる粒状性を把握する必要があるので,実質的な障害物に直面し,一方,そのような二次活動の複雑性は,自動化の上昇と運転者の自由度の増大に伴って増大する。さらに,モデルは,センサ配置とタイプが車両から車両まで変化するので,訓練セットにおけるものと同一の条件の下ではめったに展開されず,データ駆動モデルの実生活展開の実質的な障害を構成する。本研究では,視覚変圧器と付加的拡張特徴分布キャリブレーションモジュールに基づく二次ドライバ行動を認識するための新しいビジョンベースフレームワークを提案した。このモジュールは,新しいデータ外観,(例えば,センサ変化)と一般的特徴品質に対する一般化を改善するために,特徴レベルで訓練集合を豊か化し,多様化する潜在的特徴空間で動作する。このフレームワークは,すべての粒度レベルに関する公開Drive&Actベンチマークの以前の最先端結果を凌駕する,より良い認識率をもたらす。このコードはhttps://github.com/KPeng9510/TransDARCで公開されている。【JST・京大機械翻訳】