文献
J-GLOBAL ID:201902239609242935   整理番号:19A1822922

二重近赤外カメラの複合単一画像を用いた深い残留ネットワークに基づく運転者凝視検出【JST・京大機械翻訳】

Driver Gaze Detection Based on Deep Residual Networks Using the Combined Single Image of Dual Near-Infrared Cameras
著者 (4件):
資料名:
巻:ページ: 93448-93461  発行年: 2019年 
JST資料番号: W2422A  ISSN: 2169-3536  資料種別: 逐次刊行物 (A)
記事区分: 原著論文  発行国: アメリカ合衆国 (USA)  言語: 英語 (EN)
抄録/ポイント:
抄録/ポイント
文献の概要を数百字程度の日本語でまとめたものです。
部分表示の続きは、JDreamⅢ(有料)でご覧頂けます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
運転者の注意による交通事故が増加しているので,運転者の注視を検出することによる運転者の注意の予防に関する研究がより重要になっている。車両環境において,従来の注視検出法は,単一または複数のカメラを用いてドライバ注視を検出することを含んでいる。運転者の注視を検出するために単一カメラを用いると,運転者の頭部の過度の回転は,眼の領域を正確に検出し,それにより注視検出精度を低下させる可能性がある。この問題を解決するために,研究者は以前に二重カメラを用いた注視検出を試みた。しかし,これらの方法は各カメラから得られた情報を選択的に使用する。したがって,情報が同時に使用されないので,精度改善は制限される。さらに,二重カメラから得られた画像が同時に処理されるとき,処理複雑さは増加する。したがって,本論文は,車両における運転者の注視位置を検出する方法を提案する。これは,二重近赤外カメラから取得された画像情報を同時に用いる,深い畳込みニューラルネットワーク(CNN)を介して,ドライバ注視を計算する最初の研究である。以前の研究では,二重カメラから取得した画像の一つを選択的に使用し,既存のCNNベースの注視検出法は,ドライバの眼と顔画像のために複数の深いCNNを用いている。しかしながら,提案した方法は,二重カメラから取得したすべての情報を一つの三チャネル画像に統合し,それをネットワークの入力として使用する一つのCNNモデルを使用し,それにより認識信頼性を増加し,計算コストを低減した。著者らは,26人の参加者(Donggukデュアルカメラベースの注視データベース)からの画像とオープンデータベースであるColumbia gazeデータセットを含む自己構築ドライバデータベースに基づく実験を行った。結果は,提案方法が既存の方法より良い性能を示すことを実証した。Copyright 2019 The Institute of Electrical and Electronics Engineers, Inc. All rights reserved. Translated from English into Japanese by JST.【JST・京大機械翻訳】
シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。

準シソーラス用語:
シソーラス用語/準シソーラス用語
文献のテーマを表すキーワードです。
部分表示の続きはJDreamⅢ(有料)でご覧いただけます。
J-GLOBALでは書誌(タイトル、著者名等)登載から半年以上経過後に表示されますが、医療系文献の場合はMyJ-GLOBALでのログインが必要です。
, 【Automatic Indexing@JST】
分類 (1件):
分類
JSTが定めた文献の分類名称とコードです
図形・画像処理一般 
タイトルに関連する用語 (3件):
タイトルに関連する用語
J-GLOBALで独自に切り出した文献タイトルの用語をもとにしたキーワードです

前のページに戻る