JP2020013179A - 注視対象物検知装置、注視対象物検知方法、およびプログラム - Google Patents

注視対象物検知装置、注視対象物検知方法、およびプログラム Download PDF

Info

Publication number
JP2020013179A
JP2020013179A JP2018132915A JP2018132915A JP2020013179A JP 2020013179 A JP2020013179 A JP 2020013179A JP 2018132915 A JP2018132915 A JP 2018132915A JP 2018132915 A JP2018132915 A JP 2018132915A JP 2020013179 A JP2020013179 A JP 2020013179A
Authority
JP
Japan
Prior art keywords
driver
camera
gaze
vehicle
sight
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018132915A
Other languages
English (en)
Other versions
JP7014680B2 (ja
Inventor
伸洋 水野
Nobuhiro Mizuno
伸洋 水野
顕 吉澤
Akira Yoshizawa
顕 吉澤
哲洋 林
Tetsuhiro Hayashi
哲洋 林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Denso IT Laboratory Inc
Original Assignee
Denso Corp
Denso IT Laboratory Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp, Denso IT Laboratory Inc filed Critical Denso Corp
Priority to JP2018132915A priority Critical patent/JP7014680B2/ja
Publication of JP2020013179A publication Critical patent/JP2020013179A/ja
Application granted granted Critical
Publication of JP7014680B2 publication Critical patent/JP7014680B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

【課題】視線方向の検知精度が十分でなくても、運転者が注視している対象物を検知することができる注視対象物検知装置を提供する。【解決手段】注視対象物検知装置1は、車両の周辺にある対象物を検知する周辺監視センサ10と、運転者を撮影する車内カメラ20と、車内カメラ20にて撮影した映像に基づいて求めた運転者の視線方向と、周辺監視センサ10にて検知した各対象物と自車両との距離又は相対速度とに基づいて、運転者が注視している対象物を求める演算処理部21とを備える。【選択図】図1

Description

本発明は、運転者が注視している対象物を検知する注視対象物検知装置、注視対象物検知方法、及びプログラムに関する。
従来から、車両を運転中の運転者が注視している対象物を検知して、運転を支援する走行支援装置が知られていた。
例えば、特許文献1に記載された走行支援装置は、車両の走行状態と、運転者の運転操作と、運転者の視線方向の組合せのパターンを予め記憶しておき、検出した車両の走行状態、運転者の運転操作、運転者の視線方向が、予め記憶されたパターンと異なる場合には警告信号を出力する。これにより、脇見運転や誤操作などの危険な状況の発生を検知し、運転者に警告を与えることができる。
特開2018−67198号公報
人間の視線を検知する方法として様々な方法が研究されているが、運転者の視線方向を検知するための装置としては、ダッシュボードに設けられたカメラが用いられることが多い。カメラから運転者まで一定の距離があるので、カメラで撮影した映像に基づいて検知できる運転者の視線方向には、数度〜10度程度の誤差がある。
このため、例えば、40m前方を先行車が走行し、同じく40m前方の歩道に、横断歩道を渡ろうとする歩行者がいる状況では、運転者からみた先行車と歩行者の角度差は4°程度である。このように、運転者から見た対象物の角度差が小さいときには、運転者の視線が前方を向いていることが分かっても、先行車を注視しているのか、歩行者を注視しているのか、その注視対象物を区別することが困難な場合があった。
そこで、本発明は、視線方向の検知精度が十分でなくても、運転者が注視している対象物を検知することができる注視対象物検知装置、注視対象物検知方法、及びプログラムを提供することを目的とする。
本発明の注視対象物検知装置は、車両の周辺にある対象物を検知する周辺監視センサと、運転者を撮影するカメラと、前記カメラにて撮影した映像に基づいて求めた運転者の視線方向と、前記周辺監視センサにて検知した各対象物と自車両との距離又は相対速度とに基づいて、運転者が注視している対象物を求める演算処理部とを備える。
運転者は、運転中にはリスクの高い対象物を注視すると考えられる。そして、対象物のリスクは、自車両と各対象物との距離や相対速度と関係がある。本発明の構成により、運転者の視線方向に加えて、各対象物と自車両との距離又は相対速度に基づくことにより、運転者が注視している対象物を求めることができる。
本発明の注視対象物検知装置において、前記演算処理部は、運転者の視線方向に単一の対象物しか存在しない場合には、各対象物と自車両との距離又は相対速度のデータを用いることなく、運転者の視線方向にある対象物を注視対象物として求めてもよい。
このように視線方向に単一の対象物しか存在しない場合には、自車両と各対象物との距離や相対速度を用いることなく、容易に注視対象物を求めることができる。
本発明の別の態様の注視対象物検知装置は、車両の周辺にある対象物を撮影する周辺監視カメラと、運転者を撮影するカメラと、対象物の種類とその種類に対するリスクの大きさを記憶したリスク情報記憶部と、前記周辺監視カメラの映像に基づいて周辺にある対象物の種類を特定し、前記リスク情報記憶部に記憶された情報に基づいて、各対象物のリスクの大きさを求め、各対象物のリスクの大きさと前記カメラにて撮影した映像に基づいて求めた運転者の視線方向とに基づいて、運転者が注視している対象物を求める演算処理部とを備える。
この構成により、対象物の種類に応じてあらかじめ設定されたリスクの大きさに基づいて、運転者が注視している対象物を適切に求めることができる。
本発明の注視対象物検知装置は、自車両に対する操作情報を取得する車載センサを備え、前記演算処理部は、前記車載センサにて取得した操作情報に基づいて、運転者が注視している対象物を求めてもよい。
車両の運転は外部にある対象物等の状況に応じて行われるので、操作情報に基づいて、運転者が外部の対象物に対応した操作を行っているか否か、つまり、対象物を注視したか否かを判断することができる。本発明の構成により、運転者が注視している対象物を適切に求めることができる。
本発明の注視対象物検知装置において、前記演算処理部は、前記カメラにて撮影した映像に基づいて運転者の顔向きを求め、運転者の顔が所定の角度以上であるときには、脇見運転であると判定してもよい。
人間の特性として、正面から所定の角度範囲にある対象物を見るときには視線のみが動き、所定の角度範囲を超えると顔向きが変わることが知られている。この特性を利用して、運転者の顔が正面から所定の角度範囲を超えているときは、脇見運転であると判定することにより、無駄な計算処理を省くことができる。
本発明の注視対象物検知装置において、前記演算処理部は、運転席に座った運転者が前方を向いているときの顔向きに基づいて、顔向きの正面方向を設定してもよい。
運転者の顔向きは、座席の位置や座高等に起因する個人差があるが、運転席に座った運転者が前方を向いているときの顔向きに基づいて顔向きの正面方向を補正することにより、適切に顔向きを求めることができる。
本発明の注視対象物検知装置において、前記演算処理部は、運転者の視線の停留時間が所定の閾値以下の場合には、その視線方向にある対象物を注視していないと判定して、注視対象物を求めてもよい。
運転中における運転者の視線の動きには、停留と高速運動がある。本発明によれば、視線の停留時間が所定の閾値以下の場合には、対象物を注視していないと判定することにより、高速運動により視線が向かっただけの方向にある対象物を誤って注視対象物と判定しないようにできる。
本発明の注視対象物検知方法は、運転者が注視している対象物を検知するための方法であって、周辺監視センサにて車両の周辺にある対象物を検知するステップと、カメラにて運転者を撮影するステップと、前記カメラにて撮影した映像に基づいて求めた運転者の視線方向と、前記周辺監視センサにて検知した各対象物と自車両との距離又は相対速度とに基づいて、運転者が注視している対象物を求めるステップとを備える。
本発明のプログラムは、運転者が注視している対象物を検知するためのプログラムであって、コンピュータに、周辺監視センサにて検知した車両の周辺にある対象物のデータを取得するステップと、カメラにて撮影した運転者の映像を取得するステップと、前記カメラにて撮影した映像に基づいて求めた運転者の視線方向と、前記周辺監視センサにて検知した各対象物と自車両との距離又は相対速度とに基づいて、運転者が注視している対象物を求めるステップとを実行させる。
本発明の構成により、視線方向からだけでは注視対象物を識別することが困難な状況においても、対象物の情報から注視対象物を求めることができる。
第1の実施の形態の注視対象物検知装置の構成を示す図である。 視線と環境の情報に基づいて、注視対象物を求めるためのモデルの例を示す図である。 第1の実施の形態の注視対象物検知装置の動作を示す図である。 第2の実施の形態の注視対象物検知装置の構成を示す図である。 視線と環境と操作の情報に基づいて、注視対象物を求めるためのモデルの例を示す図である。 第2の実施の形態の注視対象物検知装置の動作を示す図である。 第3の実施の形態の注視対象物検知装置の構成を示す図である。 リスク情報記憶部に記憶された情報の例を示す図である。 第3の実施の形態の注視対象物検知装置の動作を示す図である。
以下、本発明の実施の形態の注視対象物検知装置について、図面を参照して説明する。本実施の形態の注視対象物検知装置は、車両に搭載して用いられ、運転者が注視している対象物(これを「注視対象物」という)を検知する機能を有する。ある対象物を注視している状態は、その対象物に対する注意配分が行われている状態である。注視対象物を検知することによって、運転者がリスクのある状況を正しく認知をしているかを判定し、車両周辺の対象物に対して適切な注意配分ができていない場合等には警報を発することにより、安全運転を支援することができる。また、注視対象物を検知することにより、運転者がすでに注意を払っている場合に、必要のない警報を出力してしまうことを避けることができる。
(第1の実施の形態)
図1は、第1の実施の形態の注視対象物検知装置1の構成を示す図である。注視対象物検知装置1は、注視対象物検知装置1は、車両の周辺にある対象物を検知する周辺監視センサ10と、運転者を撮影する車内カメラ20と、運転者の視線方向と各対象物の環境情報とに基づいて注視象物を求める演算処理部21と、運転者に対して警報を発する警報出力部22とを備える。
本実施の形態の周辺監視センサ10には、車外カメラ11と、ミリ波レーダ12と、LIDAR13が含まれている。車外カメラ11は、車両の周辺の様子を撮影するカメラである。車外カメラ11としては、2台のカメラをステレオカメラとして用いてもよい。ミリ波レーダ12は、ミリ波と呼ばれる非常に波長の短い電波を照射し、反射波を計測することにより、物体までの距離を計測する。LIDAR13は、赤外線のレーザ光をパルス状に照射して反射時間から距離を計測するセンサである。本実施の形態では、周辺監視センサ10として3種類のセンサの例を挙げているが、周辺監視センサ10はこれらのセンサに限定されるものではない。
車内カメラ20は、ダッシュボードに設けられ、運転者を撮影するカメラである。夜間でも撮影が行えるように、車内カメラ20には赤外線カメラを用いる。演算処理部21は、運転者の視線と周辺監視センサ10にて求めた周辺状況の情報とから、運転者が注視している注視対象物を検知する処理を行う。具体的には、演算処理部21は、車内カメラ20にて撮影した運転者の眼球の動きに基づいて、運転者の視線の方向を検知する。運転者の眼球の動きを精度良く求めるために、車内カメラ20と隣接して、近赤外線点光源を設けてもよい。点光源からの光は、運転者の眼球の表面で反射するが、眼球が球状であるため、眼球の向きによって反射点の位置は変化しない。反射点が瞳孔のどの位置にくるかによって、眼球の方向を精度良く求めることができる。
車内カメラ20によって求められる視線方向には、数度〜10度程度の誤差がある。これは運転者から離れたところから撮影した車内カメラ20の映像を利用しているためである。この誤差の範囲内に複数の対象物があるときには、運転者がどの対象物を特定することは困難である。
そこで、本実施の形態の演算処理部21は、視線方向にある注視対象物を求めるために、環境の情報を用いる。環境の情報として、本実施の形態では、対象物までの距離と相対速度を用いる。環境情報は、周辺監視センサ10から得たセンサ情報を用いて求める。すなわち、演算処理部21は、LIDAR13及びミリ波レーダ12のセンサ情報に基づいて、視線方向にある対象物との距離及び対象物と自車両との相対速度を求める。演算処理部21は、対象物との距離と相対速度に基づいて、各対象物のリスクを計算する。
ここで、一例として、視線方向に歩行者と先行車の2つの対象物があり、いずれを注視しているか、視線方向のみからでは判別が困難であるときを想定する。例えば、歩行者と自車両との距離との距離が40m、先行車と自車両との距離が30mのときには、自車両に近い先行車の方が危険であると判定する。例えば、先行車が自車両よりも速い速度で走行しているときには先行車は離れて行っているのに対し、歩行者が止まっているときには、歩行者には自車両の走行速度で相対的に近づいている。この場合には、歩行者の方が危険であると判定する。演算処理部21は、このような処理を行うことにより、自車両にとってのリスクを対象物ごとに設定する。なお、ここでは、リスクを決める要素として、対象物との距離と相対速度を挙げたが、距離と相対速度の両方を用いてもよいし、いずれか一方だけを用いてもよい。
そして、演算処理部21は、視線方向の情報と対象物のリスクの情報とに基づいて、注視対象物を検知する。一例として、演算処理部21は、視線、環境のノードと注視対象物のノードとを所定の重み付けで接続した図2に示すようなモデルに対して、視線により求まる歩行者、先行車の可能性と、環境により求まる歩行者、先行車の可能性を入力して、注視対象物を求める。
図2に示す例では、視線による判定では、歩行者が「0.5」、先行車が「0.5」の可能性があり、視線だけでは注視対象物を特定することができない。環境による判定では、歩行者が「0.75」、先行車が「0.25」である。そして、両者の情報を用いることで、例えば、歩行者が「0.75」、先行車が「0.25」となり、注視対象物として歩行者が求められる。この例では、視線に基づく歩行者と先行車の確率分布には差がないので、環境に基づく歩行者と先行車の確率分布が結果に反映されている。
警報出力部22は、演算処理部21によって注視対象物が検知された結果、例えば、運転者が注視すべき対象物に注意を払っていないことがわかったときに、警報を出力し、運転者に注意を促す。警報の態様としては、音声でもよいし、注視すべき方向を示す表示であってもよい。
図3は、第1の実施の形態の注視対象物検知装置1の動作を示すフローチャートである。注視対象物検知装置1は、車内カメラ20で運転者を撮影し(S10)、撮影した映像に基づいて運転者の視線方向を検知する(S11)。また、注視対象物検知装置1は、周辺監視センサ10によって車両の周辺を監視し(S12)、周辺にある対象物を検知する(S13)。
続いて、注視対象物検知装置1は、検知した視線の方向にある対象物を検知し、視線方向にある対象物の数が1個であるか否かを判定する(S14)。視線方向にある対象物が1個である場合には、当該対象物を注視対象物と判定する(S15)。視線方向にある対象物の数が2個以上である場合には、注視対象物検知装置1は、各対象物までの距離と相対速度とを計算する(S16)。そして、注視対象物検知装置1は、視線方向と環境の情報とに基づいて、注視対象物を検知する(S17)。
本実施の形態の注視対象物検知装置1の構成及び動作について説明したが、上記した注視対象物検知装置1のハードウェアの例は、CPU、RAM、ROM、通信インターフェース等を備えたECUである。上記した各機能を実現するモジュールを有するプログラムをRAMまたはROMに格納しておき、CPUによって当該プログラムを実行することによって、上記した注視対象物検知装置1が実現される。このようなプログラムも本発明の範囲に含まれる。
次に、本実施の形態の注視対象物検知装置1の効果について述べる。上で背景技術として例示した特開2018−67198号公報に記載された発明では、予め記憶された車両の走行状態、運転操作、視線方向のパターンの組合せに合致しない場合に警報を出力するが、運転者が何に注視しているかを検知しようとはしていない。この背景技術においても、視線検知の精度が十分でなければ、運転手が注視している対象物を検知することはできない。
本実施の形態の注視対象物検知装置1は、車内カメラ20の情報からだけでは、視線方向の計測誤差や対象物の位置関係によって、運転者の視線のみからは注視対象物を特定できない場合にも、環境の情報(各対象物と自車両との距離又は相対速度)を用いることで、注視対象物を適切に検知することができる。
本実施の形態の注視対象物検知装置1は、車内カメラ20にて運転者の映像から検知した視線方向に対象物が1個しかない場合には、その対象物を注視対象物として求めるので、環境情報に基づく処理を行うことなく、計算処理を軽減できる。なお、本実施の形態では、対象物が2個以上の場合に環境情報を使う例を示したが、視線方向にある対象物の数にかかわらず環境情報を用いて、注視対象物を求めてもよい。
(第2の実施の形態)
図4は、第2の実施の形態の注視対象物検知装置2の構成を示す図である。第2の実施の形態の注視対象物検知装置2は、車載センサ30と接続されており、車載センサ30から得られた操作情報にも基づいて、注視対象物を検知する。
図5は、第2の実施の形態の注視対象物検知装置2で用いられる、注視対象物を求めるためのモデルの例を示す図である。第2の実施の形態では、視線と環境のノードに加えて、操作情報のノードを有している。視線と環境のノードには、視線により求まる左右の歩行者及び先行車の可能性と、環境により求まる左右の歩行者及び先行車の可能性を入力する。操作情報のノードには、本実施の形態では、アクセルとブレーキのON/OFFの情報を入力する。この例では、視線による判定では、左の歩行者が「0.7」、先行車が「0.2」、右の歩行者が「0.1」であり、操作情報はアクセル、ブレーキが共に「OFF」であり、環境による判定では、左の歩行者と右の歩行者が共に「0.5」、先行車とそれ以外は「0」である。環境に基づく確率分布では、左右の歩行者で差がなく、先行車とそれ以外は「0」であるから、注視対象物は、左歩行者が「0.875」、右歩行者が「0.125」となり、左歩行者を注視していると求められる。別の事例として、もし、操作情報でアクセルが「ON」の場合には、車両周辺への注意配分が半分と考えて、注視対象物は、左歩行者が「0.4375」、右歩行者が「0.0625」、それ以外が「0.5」というように求めることもできる。なお、ここで示した計算は一例であり、このモデルは、ベイジアンネットやSVM等の機械学習のモデルで表現してもよい。演算処理部21は、入力された情報に基づいて注視対象物を求める。
図6は、第2の実施の形態の注視対象物検知装置2の動作を示すフローチャートである。注視対象物検知装置は、車内カメラ20で運転者を撮影し(S20)、撮影した映像に基づいて運転者の視線方向を検知する(S21)。また、注視対象物検知装置2は、周辺監視センサ10によって車両の周辺を監視し(S22)、周辺にある対象物を検知する(S23)。
続いて、注視対象物検知装置2は、検知した視線の方向にある対象物を検知し、視線方向にある対象物の数が1個であるか否かを判定する(S24)。視線方向にある対象物が1個である場合には、当該対象物を注視対象物と判定する(S25)。視線方向にある対象物の数が2個以上である場合には、注視対象物検知装置2は、各対象物までの距離と相対速度とを計算する(S26)。また、注視対象物検知装置2は、車載センサ30から操作情報を取得する(S27)。そして、注視対象物検知装置2は、視線方向と環境と操作の情報とに基づいて、注視対象物を検知する(S28)。
以上説明したように、第2の実施の形態の注視対象物検知装置2は、視線と環境の情報に加えて、操作情報を用いることにより、より精度良く注視対象物を検知できる。例えば、図5に示す例のように、ブレーキを踏んではいないもののアクセルをOFFしているという操作情報が入力されれば、運転者が歩行者を認知し、危険があると判断して、アクセルから足を離して、いつでもブレーキを踏める操作状態にしていると考えられる。つまり、操作状態から、運転者の認知、判断を推測することが可能である。操作情報をノードとして含むモデルを用いることにより、注視対象物の検知精度が高まる。
(第3の実施の形態)
図7は、第3の実施の形態の注視対象物検知装置3の構成を示す図である。第3の実施の形態の注視対象物検知装置3の基本的な構成は、第1の実施の形態と同じであるが、演算処理部21がアクセスすることができるリスク情報記憶部23を備えている点が異なる。
図8は、リスク情報記憶部23に記憶されたデータの例を示す図である。図8に示すように、リスク情報記憶部23には、対象物の種類とそれに対応するリスクの大きさが記憶されている。対象物の種類は、道路上にいることが考えられる対象物を分類したものである。歩行者、自転車、先行車、対向車等がある。リスク情報記憶部23は、それぞれの種類について、リスクの大きさのデータを有している。例えば、歩行者や自転車は「8」、先行車は「6」、対向車は「4」である。
演算処理部21は、運転者の視線上に複数の対象物がある場合には、その対象物の種類に対応するリスクの大きさをリスク情報記憶部23から読み出す。第1の実施の形態の注視対象物検知装置1では、対象物との距離と相対速度に基づいて、各対象物のリスクを計算したが、これに代えて、本実施の形態ではリスク情報記憶部23から読み出したリスクの大きさを用いて、注視対象物を求める。
図9は、第3の実施の形態の注視対象物検知装置3の動作を示すフローチャートである。注視対象物検知装置3は、車内カメラ20で運転者を撮影し(S30)、撮影した映像に基づいて運転者の視線方向を検知する(S31)。また、注視対象物検知装置3は、周辺監視センサ10によって車両の周辺を監視し(S32)、周辺にある対象物を検知する(S33)。
続いて、注視対象物検知装置3は、検知した視線の方向にある対象物を検知し、視線方向にある対象物の数が1個であるか否かを判定する(S34)。視線方向にある対象物が1個である場合には、当該対象物を注視対象物と判定する(S35)。視線方向にある対象物の数が2個以上である場合には、注視対象物検知装置3は、各対象物の種類を特定し(S36)、その種類に対応するリスクの大きさの情報をリスク情報記憶部23から読み出す(S37)。対象物の種類の特定は、車外カメラ11に映る対象物をパターンマッチングして求めてもよいし、対象物の種類を分類する学習済みモデルを使って推定してもよい。そして、注視対象物検知装置3は、視線方向とリスクの大きさの情報とに基づいて、注視対象物を検知する(S38)。
本実施の形態の注視対象物検知装置3は、車内カメラ20にて運転者の映像から検知した視線方向と、対象物の種類とに基づいて、運転者が注視している注視対象物を適切に検知することができる。
以上、本発明の実施の形態の注視対象物検知装置について、実施の形態を挙げて詳細に説明したが、本発明は、上記した実施の形態に限定されるものではない。
本実施の形態の注視対象物検知装置1〜3の演算処理部21は、車内カメラ20の映像に基づいて、運転者の視線のみならず運転者の顔向きも求めることができる。人間の視覚特性によれば、人間が外側を見るときは、視線の方が顔向きよりも外側を向いていることが判明している。これによれば、顔向きが一定より大きく外側を見ているときは、視線はそれよりもさらに外側を向いているといえる。この特性を利用して、演算処理部21は、車内カメラ20の映像から運転者の顔向きを検出し、顔向きが所定の角度よりも外側を向いているときには、視線を検出するまでもなく、脇見と判定してもよい。
なお、顔向きは、視線方向とは異なり、運転者が座るシート位置や運転者の座高に起因する個人差がある。顔向きを判定する処理を行う場合には、顔向きの正面方向を補正する処理を行ってもよい。補正を行う具体的な方法としては、例えば、直線道路を走行している(すなわちステアリング角度が0°)ときの顔向きを正面方向とすることが考えられる。また、将来的に、自動車のエンジン起動時に虹彩認証を行う車両が登場したときには、虹彩認証を行うときの顔向きを正面方向とすることが考えられる。
また、人間の視覚特性によれば、人間が特定の対象を注視するには、一定の時間(100ms〜300ms程度)を要することが判明している。この特性を利用して、視線が停留して対象物を視認している時間が所定の時間(例えば100ms)以下である場合には、対象物を注視していないと判定してもよい。また、対象物の注視判定に、高速または大きな視線移動(サッカード)がないという条件を用いてもよい。
本発明は、運転者が注視している対象物を検知する注視対象物検知装置等として有用である。
1〜3 注視対象物検知部
10 周辺監視センサ
11 車外カメラ
12 ミリ波レーダ
13 LIDAR
20 車内カメラ
21 演算処理部
22 警報出力部
23 リスク情報記憶部
30 車載センサ

Claims (9)

  1. 車両の周辺にある対象物を検知する周辺監視センサと、
    運転者を撮影するカメラと、
    前記カメラにて撮影した映像に基づいて求めた運転者の視線方向と、前記周辺監視センサにて検知した各対象物と自車両との距離又は相対速度とに基づいて、運転者が注視している対象物を求める演算処理部と、
    を備える注視対象物検知装置。
  2. 前記演算処理部は、運転者の視線方向に単一の対象物しか存在しない場合には、各対象物と自車両との距離又は相対速度のデータを用いることなく、運転者の視線方向にある対象物を注視対象物として求める請求項1に記載の注視対象物検知装置。
  3. 車両の周辺にある対象物を撮影する周辺監視カメラと、
    運転者を撮影するカメラと、
    対象物の種類とその種類に対するリスクの大きさを記憶したリスク情報記憶部と、
    前記周辺監視カメラの映像に基づいて周辺にある対象物の種類を特定し、前記リスク情報記憶部に記憶された情報に基づいて、各対象物のリスクの大きさを求め、各対象物のリスクの大きさと前記カメラにて撮影した映像に基づいて求めた運転者の視線方向とに基づいて、運転者が注視している対象物を求める演算処理部と、
    を備える注視対象物検知装置。
  4. 自車両に対する操作情報を取得する車載センサを備え、
    前記演算処理部は、
    前記車載センサにて取得した操作情報に基づいて、運転者が注視している対象物を求める請求項1乃至3のいずれかに記載の注視対象物検知装置。
  5. 前記演算処理部は、前記カメラにて撮影した映像に基づいて運転者の顔向きを求め、運転者の顔が所定の角度以上であるときには、脇見運転であると判定する請求項1乃至4のいずれかに記載の注視対象物検知装置。
  6. 前記演算処理部は、運転席に座った運転者が前方を向いているときの顔向きに基づいて、顔向きの正面方向を決定する請求項4に記載の注視対象物検知装置。
  7. 前記演算処理部は、運転者の視線の停留時間が所定の閾値以下の場合には、その視線方向にある対象物を注視していないと判定して、注視対象物を求める請求項1乃至6のいずれかに記載の注視対象物検知装置。
  8. 運転者が注視している対象物を検知するための方法であって、
    周辺監視センサにて車両の周辺にある対象物を検知するステップと、
    カメラにて運転者を撮影するステップと、
    前記カメラにて撮影した映像に基づいて求めた運転者の視線方向と、前記周辺監視センサにて検知した各対象物と自車両との距離又は相対速度とに基づいて、運転者が注視している対象物を求めるステップと、
    を備える注視対象物検知方法。
  9. 運転者が注視している対象物を検知するためのプログラムであって、コンピュータに、
    周辺監視センサにて検知した車両の周辺にある対象物のデータを取得するステップと、
    カメラにて撮影した運転者の映像を取得するステップと、
    前記カメラにて撮影した映像に基づいて求めた運転者の視線方向と、前記周辺監視センサにて検知した各対象物と自車両との距離又は相対速度とに基づいて、運転者が注視している対象物を求めるステップと、
    を実行させるプログラム。
JP2018132915A 2018-07-13 2018-07-13 注視対象物検知装置、注視対象物検知方法、およびプログラム Active JP7014680B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018132915A JP7014680B2 (ja) 2018-07-13 2018-07-13 注視対象物検知装置、注視対象物検知方法、およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018132915A JP7014680B2 (ja) 2018-07-13 2018-07-13 注視対象物検知装置、注視対象物検知方法、およびプログラム

Publications (2)

Publication Number Publication Date
JP2020013179A true JP2020013179A (ja) 2020-01-23
JP7014680B2 JP7014680B2 (ja) 2022-02-01

Family

ID=69170566

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018132915A Active JP7014680B2 (ja) 2018-07-13 2018-07-13 注視対象物検知装置、注視対象物検知方法、およびプログラム

Country Status (1)

Country Link
JP (1) JP7014680B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102373571B1 (ko) * 2020-11-16 2022-03-10 주식회사 펀진 서라운드 뷰 모니터링 시스템 및 그 방법

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008082822A (ja) * 2006-09-27 2008-04-10 Denso It Laboratory Inc 注視対象物検出装置および注視対象物検出方法
JP2009122808A (ja) * 2007-11-13 2009-06-04 Mazda Motor Corp 車両用運転支援装置
JP2010000893A (ja) * 2008-06-20 2010-01-07 Mazda Motor Corp 車両の前照灯制御装置
JP2014008931A (ja) * 2012-07-02 2014-01-20 Fuji Heavy Ind Ltd 回避操作判定装置
JP2014120111A (ja) * 2012-12-19 2014-06-30 Aisin Aw Co Ltd 走行支援システム、走行支援方法及びコンピュータプログラム
JP2015127937A (ja) * 2013-11-29 2015-07-09 富士通株式会社 運転支援装置、方法、及びプログラム
JP2018097573A (ja) * 2016-12-13 2018-06-21 富士通株式会社 顔向き推定用コンピュータプログラム、顔向き推定装置及び顔向き推定方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008082822A (ja) * 2006-09-27 2008-04-10 Denso It Laboratory Inc 注視対象物検出装置および注視対象物検出方法
JP2009122808A (ja) * 2007-11-13 2009-06-04 Mazda Motor Corp 車両用運転支援装置
JP2010000893A (ja) * 2008-06-20 2010-01-07 Mazda Motor Corp 車両の前照灯制御装置
JP2014008931A (ja) * 2012-07-02 2014-01-20 Fuji Heavy Ind Ltd 回避操作判定装置
JP2014120111A (ja) * 2012-12-19 2014-06-30 Aisin Aw Co Ltd 走行支援システム、走行支援方法及びコンピュータプログラム
JP2015127937A (ja) * 2013-11-29 2015-07-09 富士通株式会社 運転支援装置、方法、及びプログラム
JP2018097573A (ja) * 2016-12-13 2018-06-21 富士通株式会社 顔向き推定用コンピュータプログラム、顔向き推定装置及び顔向き推定方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102373571B1 (ko) * 2020-11-16 2022-03-10 주식회사 펀진 서라운드 뷰 모니터링 시스템 및 그 방법

Also Published As

Publication number Publication date
JP7014680B2 (ja) 2022-02-01

Similar Documents

Publication Publication Date Title
US10009580B2 (en) Method for supplementing a piece of object information assigned to an object and method for selecting objects in surroundings of a vehicle
JP4879189B2 (ja) 安全走行支援装置
KR101996419B1 (ko) 센서 융합 기반 보행자 탐지 및 보행자 충돌 방지 장치 및 방법
JP5718942B2 (ja) 輸送手段の安全な運転を補助する装置及び方法
US20200269757A1 (en) Driving notification method and driving notification system
JP4926437B2 (ja) 車両の運転支援装置
US10220778B2 (en) Vehicle-mounted alert system and alert control device
US9620009B2 (en) Vehicle surroundings monitoring device
JP4872245B2 (ja) 歩行者認識装置
JP2019087143A (ja) ドライバ状態検出装置
KR101986734B1 (ko) 차량 운전 보조 장치 및 이의 안전 운전 유도 방법
JP2016009251A (ja) 車両用制御装置
JP2018183532A (ja) 状態推定装置
JP6213435B2 (ja) 注意過多状態判定装置及び注意過多状態判定プログラム
JP6296684B2 (ja) 運転支援装置
JP7014680B2 (ja) 注視対象物検知装置、注視対象物検知方法、およびプログラム
CN109823344B (zh) 驾驶提示方法与***
JP2010039933A (ja) 脇見運転判定装置
KR20160056189A (ko) 보행자 검출 경보 장치 및 방법
JP2019086983A (ja) 運転支援装置、運転状況情報取得システム、運転支援方法及びプログラム
JP2022100852A (ja) 注意喚起装置及び注意喚起方法
JP2007249324A (ja) 車両周辺監視システム、車両、車両周辺監視プログラム、および車両周辺システムの構成方法
JP7294483B2 (ja) 運転支援装置、運転支援方法及びプログラム
JP2018200701A (ja) 車両用制御装置
JP7185571B2 (ja) 視認方向推定装置、視認方向推定方法、およびプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201125

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211028

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211102

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211217

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220111

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220120