JP6572538B2 - Downward view determination device and downward view determination method - Google Patents

Downward view determination device and downward view determination method Download PDF

Info

Publication number
JP6572538B2
JP6572538B2 JP2014252941A JP2014252941A JP6572538B2 JP 6572538 B2 JP6572538 B2 JP 6572538B2 JP 2014252941 A JP2014252941 A JP 2014252941A JP 2014252941 A JP2014252941 A JP 2014252941A JP 6572538 B2 JP6572538 B2 JP 6572538B2
Authority
JP
Japan
Prior art keywords
downward
shape
change
eye
driver
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014252941A
Other languages
Japanese (ja)
Other versions
JP2016115118A (en
Inventor
晋 大須賀
晋 大須賀
加藤 隆志
隆志 加藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Aisin Corp
Original Assignee
Aisin Seiki Co Ltd
Aisin Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aisin Seiki Co Ltd, Aisin Corp filed Critical Aisin Seiki Co Ltd
Priority to JP2014252941A priority Critical patent/JP6572538B2/en
Publication of JP2016115118A publication Critical patent/JP2016115118A/en
Application granted granted Critical
Publication of JP6572538B2 publication Critical patent/JP6572538B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Description

本発明は、下方視判定装置および下方視判定方法に関する。   The present invention relates to a downward view determination apparatus and a downward view determination method.

近年、撮像された静止画像または動画像に含まれる顔の位置および向き、ならびに眼および口等の顔部品の状態を検出する顔検出技術の開発が進められている。例えば、運転者の目の位置と開閉眼の状態とを検出し、目の位置と開閉眼の状態とから、運転中の運転者の左右方向と下方向の脇見を検出して、障害物が接近しているときには、脇見警報を出力する技術が知られている(例えば、特許文献1参照)。   In recent years, development of a face detection technique for detecting the position and orientation of a face included in a captured still image or moving image and the state of facial parts such as eyes and mouth has been promoted. For example, the position of the driver's eyes and the state of the open / closed eyes are detected. From the position of the eyes and the state of the open / closed eyes, the driver's left and right sideways and downward looking sideways of the driver are detected. A technique for outputting a side-arming alarm when approaching is known (see, for example, Patent Document 1).

特許第3855790号公報Japanese Patent No. 3855790

しかしながら、従来技術では、開閉眼の状態を上下瞼間の距離で判断し、この開閉眼の状態で下方視か否かを判断しているが、上下瞼間の距離が小さくなるのは、下方視以外の場合もある。このため、従来技術では、正確な下方視判定を行うことが困難である。   However, in the prior art, the state of the open / close eye is determined by the distance between the upper and lower eyelids, and it is determined whether or not the eye is viewed downward in this open / closed eye state. It may be other than visual. For this reason, it is difficult for the conventional technology to accurately determine the downward view.

そこで、本発明の課題の一つは、より正確な運転者の下方視判定を行うことができる下方視判定装置および下方視判定方法を提供することである。   Accordingly, one of the objects of the present invention is to provide a downward-view determination device and a downward-view determination method that can perform more accurate downward-view determination of a driver.

本発明の下方視判定装置は、被験者の三次元顔形状と、被験者の目の位置と、目の標準の状態から被験者の下方視の状態までの変化を示している目の形状の変化の状態と形状パラメータとが対応付けられた変化情報と、が登録された三次元顔モデルを記憶する記憶部と、撮像装置で運転者を撮像するごとに、撮像された前記運転者の撮像画像を、逐次、前記三次元顔形状と照合して、顔の向きを特定する照合部と、前記運転者を撮像するごとに、前記撮像画像における目の開眼の状態を示す開眼度を算出する開眼度算出部と、前記形状パラメータを変化させて、前記撮像画像における前記目の形状の状態に対応する形状パラメータを特定する形状パラメータ判定部と、前記顔の向きの下方への変化と、前記運転者の視線方向としての前記開眼度の減少の変化とが同期しているか否かを判断し、同期している場合に、特定された前記形状パラメータが下方視を示す範囲内であるか否かまたは特定された前記形状パラメータの時系列変化が下方視側へ所定量を超える変化であるか否かを判定し、前記形状パラメータが下方視を示す範囲内である場合または前記形状パラメータの時系列変化が下方視側へ所定量を超える変化である場合に、前記運転者は下方視状態であると判定する下方視判定部と、を備えた。上記構成により、より正確な下方視判断を行うことができる。また、上記構成により、下方視の誤判断に伴う警報の出力を防止することができる。 The downward-viewing determination device of the present invention is a state of change in the shape of the eye showing the three-dimensional face shape of the subject, the eye position of the subject, and the change from the standard state of the eye to the state of the downward view of the subject. Change information in which the shape parameters are associated with each other, a storage unit that stores the registered three-dimensional face model, and each time the driver is imaged by the imaging device, the captured image of the driver is captured, Sequentially collating with the three-dimensional face shape to identify the orientation of the face, and each time the driver is imaged, the eye opening degree calculation that calculates the degree of eye opening in the captured image A shape parameter determining unit that changes the shape parameter to identify a shape parameter corresponding to the state of the eye shape in the captured image , a change in the downward direction of the face, and the driver's The eye opening as a gaze direction It is determined whether the change and the decrease is synchronized, when synchronized, when the shape parameters specified is the shape parameter a is whether or identified within showing a downward gaze It is determined whether or not the series change is a change exceeding a predetermined amount to the downward view side, and if the shape parameter is within the range indicating the downward view, or the time series change of the shape parameter decreases the predetermined amount to the downward view side. And a downward-viewing determination unit that determines that the driver is in the downward-viewing state when the change is greater than the above. With the above configuration, it is possible to make a more accurate downward view determination. Further, with the above configuration, it is possible to prevent an alarm from being output due to an erroneous determination of the downward view.

また、本発明の下方視判定装置は、前記運転者が下方視状態であると判定された場合には、警報を出力する処理部、をさらに備えた。上記構成により、運転者の脇見運転を防止することができる。   The downward-viewing determination device of the present invention further includes a processing unit that outputs an alarm when it is determined that the driver is in the downward-viewing state. With the above configuration, the driver's side-by-side driving can be prevented.

また、本発明の下方視判定装置は、前記被験者の撮像画像に基づいて、前記三次元顔形状と前記目の位置とを含む三次元顔構造データと、前記目の形状の変化の状態と前記形状パラメータとが対応付けられた前記変化情報と、を求める計測部と、計測された前記三次元顔構造データと前記変化情報とを、前記三次元顔モデルとして前記記憶部に登録するモデル生成部と、をさらに備えた。上記構成により、より一層正確な下方視判断を行うことができる。   Further, the downward-viewing determination device of the present invention is based on the captured image of the subject, the three-dimensional face structure data including the three-dimensional face shape and the eye position, the state of the eye shape change, and the A measurement unit that obtains the change information associated with a shape parameter; and a model generation unit that registers the measured three-dimensional face structure data and the change information in the storage unit as the three-dimensional face model. And further provided. With the above configuration, it is possible to make a more accurate downward view determination.

また、本発明の下方視判定方法は、下方視判定装置で実行される下方視判定方法であって、前記下方視判定装置は、被験者の三次元顔形状と、被験者の目の位置と、目の標準の状態から被験者の下方視の状態までの変化を示している目の形状の変化の状態と形状パラメータとが対応付けられた変化情報と、が登録された三次元顔モデルを記憶する記憶部、を備え、運転者を撮像するごとに、撮像された前記運転者の撮像画像を、逐次、前記三次元顔形状と照合して、顔の向きを特定し、前記運転者を撮像するごとに、前記撮像画像における目の開眼の状態を示す開眼度を算出し、前記形状パラメータを変化させて、前記撮像画像における前記目の形状の状態に対応する形状パラメータを特定し、前記顔の向きの下方への変化と、前記運転者の視線方向としての前記開眼度の減少の変化とが同期しているか否かを判断し、同期している場合に、特定された前記形状パラメータが下方視を示す範囲内であるか否かまたは特定された前記形状パラメータの時系列変化が下方視側へ所定量を超える変化であるか否かを判定し、前記形状パラメータが下方視を示す範囲内である場合または前記形状パラメータの時系列変化が下方視側へ所定量を超える変化である場合に、前記運転者は下方視状態であると判定する。また、上記構成により、下方視の誤判断に伴う警報の出力を防止することができる。 In addition, the downward-view determination method of the present invention is a downward-view determination method executed by the downward-view determination device, and the downward-view determination device includes a subject's three-dimensional face shape, a subject's eye position , A memory for storing a registered three-dimensional face model with change information in which a shape parameter and an eye shape change state indicating a change from a standard state of the subject to a downward view state of the subject are associated with each other Each time the driver is imaged, the captured image of the driver is sequentially checked against the three-dimensional face shape, the orientation of the face is specified, and the driver is imaged. Calculating an eye opening degree indicating an eye opening state in the captured image, changing the shape parameter, specifying a shape parameter corresponding to the eye shape state in the captured image, and determining the orientation of the face and changes in the downward, of the driver It is determined whether the change and the eye opening degree of the decrease in the linear direction is synchronized, if you are synchronized, whether or particular said shape parameters specified is within the range showing a downward gaze It is determined whether or not the time-series change of the shape parameter is a change exceeding a predetermined amount toward the downward view, and if the shape parameter is within the range indicating the downward view or the time-series change of the shape parameter is When the change is greater than a predetermined amount toward the downward viewing side, the driver determines that the driver is in the downward viewing state. Further, with the above configuration, it is possible to prevent an alarm from being output due to an erroneous determination of the downward view.

図1は、本実施形態にかかる車両の車室の一部が透視された状態が示された斜視図である。FIG. 1 is a perspective view showing a state in which a part of a compartment of a vehicle according to the present embodiment is seen through. 図2は、本実施形態にかかる撮像装置の配置の一例を示す図である。FIG. 2 is a diagram illustrating an example of the arrangement of the imaging devices according to the present embodiment. 図3は、本実施形態にかかる下方視判定システムの一例を示すブロック図である。FIG. 3 is a block diagram illustrating an example of the downward-viewing determination system according to the present embodiment. 図4は、本実施形態のECUの機能的構成を示すブロック図である。FIG. 4 is a block diagram showing a functional configuration of the ECU of the present embodiment. 図5は、本実施形態の三次元顔モデルの一例を説明するための模式図である。FIG. 5 is a schematic diagram for explaining an example of the three-dimensional face model of the present embodiment. 図6は、本実施形態の三次元顔モデルに登録された変化情報の一例を示す模式図である。FIG. 6 is a schematic diagram illustrating an example of change information registered in the three-dimensional face model of the present embodiment. 図7は、本実施形態における三次元顔モデルの生成処理の手順の一例を示すフローチャートである。FIG. 7 is a flowchart illustrating an example of a procedure for generating a three-dimensional face model in the present embodiment. 図8は、本実施形態にかかる下方視判定処理の手順の一例を示すフローチャートである。FIG. 8 is a flowchart illustrating an example of the procedure of the downward-looking determination process according to the present embodiment. 図9は、本実施形態にかかる下方視判定処理の手順の一例を示すフローチャート(図8の続き)である。FIG. 9 is a flowchart (continuation of FIG. 8) showing an example of the procedure of the downward view determination process according to the present embodiment. 図10は、本実施形態における三次元顔モデルにおける顔のモデルMについて作成されるテンプレートTを示す模式図である。FIG. 10 is a schematic diagram showing a template T created for the face model M in the three-dimensional face model in the present embodiment. 図11は、本実施形態における顔の向き、開眼度、下方視の形状パラメータのそれぞれの経時的変化を示す図である。FIG. 11 is a diagram showing changes over time of the face direction, the degree of eye opening, and the shape parameter of the downward view in the present embodiment.

以下、本実施形態の下方視判定装置を車両1に搭載した例をあげて説明する。
本実施形態では、車両1は、例えば、内燃機関(エンジン、図示されず)を駆動源とする自動車(内燃機関自動車)であってもよいし、電動機(モータ、図示されず)を駆動源とする自動車(電気自動車、燃料電池自動車等)であってもよいし、それらの双方を駆動源とする自動車(ハイブリッド自動車)であってもよい。また、車両1は、種々の変速装置を搭載することができるし、内燃機関や電動機を駆動するのに必要な種々の装置(システム、部品等)を搭載することができる。また、車両1における車輪3の駆動に関わる装置の方式や、数、レイアウト等は、種々に設定することができる。
Hereinafter, an example in which the downward-viewing determination device of the present embodiment is mounted on the vehicle 1 will be described.
In the present embodiment, the vehicle 1 may be, for example, an automobile (an internal combustion engine automobile) using an internal combustion engine (engine, not shown) as a drive source, or an electric motor (motor, not shown) as a drive source. The vehicle may be a vehicle (electric vehicle, fuel cell vehicle, etc.) or a vehicle (hybrid vehicle) using both of them as drive sources. The vehicle 1 can be mounted with various transmissions, and various devices (systems, components, etc.) necessary for driving the internal combustion engine and the electric motor. In addition, the method, number, layout, and the like of the device related to driving of the wheels 3 in the vehicle 1 can be variously set.

図1に示されるように、車両1の車体2は、運転者(不図示)が乗車する車室2aを構成している。車室2a内には、乗員としての運転者の座席2bに臨む状態で、操舵部4等が設けられている。本実施形態では、一例として、操舵部4は、ダッシュボード(インストルメントパネル)12から突出したステアリングホイールである。   As shown in FIG. 1, the vehicle body 2 of the vehicle 1 constitutes a passenger compartment 2a in which a driver (not shown) gets. A steering section 4 and the like are provided in the passenger compartment 2a so as to face the driver's seat 2b as a passenger. In the present embodiment, as an example, the steering unit 4 is a steering wheel that protrudes from a dashboard (instrument panel) 12.

また、図1に示されるように、本実施形態では、一例として、車両1は、四輪車(四輪自動車)であり、左右二つの前輪3Fと、左右二つの後輪3Rとを有する。さらに、本実施形態では、これら四つの車輪3は、いずれも操舵されうるように(転舵可能に)構成されている。   As shown in FIG. 1, in the present embodiment, as an example, the vehicle 1 is a four-wheeled vehicle (four-wheeled vehicle), and includes two left and right front wheels 3F and two right and left rear wheels 3R. Furthermore, in the present embodiment, these four wheels 3 are configured so that any of them can be steered (turnable).

また、車室2a内のダッシュボード12の車幅方向すなわち左右方向の中央部には、モニタ装置11が設けられている。モニタ装置11には、表示装置や音声出力装置が設けられている。表示装置は、例えば、LCD(liquid crystal display)や、OELD(organic electroluminescent display)等である。音声出力装置は、例えば、スピーカである。また、表示装置は、例えば、タッチパネル等、透明な操作入力部で覆われている。乗員は、操作入力部を介して表示装置の表示画面に表示される画像を視認することができる。また、乗員は、表示装置の表示画面に表示される画像に対応した位置において手指等で操作入力部を触れたり押したり動かしたりして操作することで、操作入力を実行することができる。   In addition, a monitor device 11 is provided in the vehicle width direction of the dashboard 12 in the passenger compartment 2a, that is, in the center in the left-right direction. The monitor device 11 is provided with a display device and an audio output device. The display device is, for example, an LCD (Liquid Crystal Display), an OELD (Organic Electroluminescent Display), or the like. The audio output device is, for example, a speaker. The display device is covered with a transparent operation input unit such as a touch panel, for example. The occupant can visually recognize an image displayed on the display screen of the display device via the operation input unit. In addition, the occupant can execute an operation input by operating the operation input unit by touching, pushing, or moving the operation input unit with a finger or the like at a position corresponding to the image displayed on the display screen of the display device.

また、図2に示すように、ハンドルコラム202には、撮像装置201が設置されている。この撮像装置201は、例えば、CCD(Charge Coupled Device)カメラ等である。撮像装置201は、座席2bに着座する運転者302の顔が、視野中心に位置するように、視野角及び姿勢が調整されている。この撮像装置201は、運転者302の顔を順次撮影し、撮影により得た画像についての画像データを順次出力する。   As shown in FIG. 2, an imaging device 201 is installed in the handle column 202. The imaging device 201 is, for example, a CCD (Charge Coupled Device) camera or the like. In the imaging apparatus 201, the viewing angle and the posture are adjusted so that the face of the driver 302 sitting on the seat 2b is positioned at the center of the visual field. The imaging device 201 sequentially captures the face of the driver 302 and sequentially outputs image data regarding images obtained by the capturing.

次に、本実施形態にかかる車両1における下方視判定装置を有する下方視判定システムについて説明する。図3は、本実施形態にかかる下方視判定システム100の構成の一例を示すブロック図である。図3に例示されるように、下方視判定システム100では、ECU14や、モニタ装置11、操舵システム13、測距部16,17等の他、ブレーキシステム18、舵角センサ19、アクセルセンサ20、シフトセンサ21、車輪速センサ22等が、電気通信回線としての車内ネットワーク23を介して電気的に接続されている。車内ネットワーク23は、例えば、CAN(Controller Area Network)として構成されている。ECU14は、車内ネットワーク23を通じて制御信号を送ることで、操舵システム13、ブレーキシステム18等を制御することができる。また、ECU14は、車内ネットワーク23を介して、トルクセンサ13b、ブレーキセンサ18b、舵角センサ19、測距部16、測距部17、アクセルセンサ20、シフトセンサ21、車輪速センサ22等の検出結果や、操作入力部等の操作信号等を、受け取ることができる。ここで、ECU14は、下方視判定装置の一例である。   Next, a downward vision determination system having a downward vision determination device in the vehicle 1 according to the present embodiment will be described. FIG. 3 is a block diagram illustrating an example of the configuration of the downward-viewing determination system 100 according to the present embodiment. As illustrated in FIG. 3, in the downward vision determination system 100, in addition to the ECU 14, the monitor device 11, the steering system 13, the distance measuring units 16 and 17, the brake system 18, the steering angle sensor 19, the accelerator sensor 20, A shift sensor 21, a wheel speed sensor 22, and the like are electrically connected via an in-vehicle network 23 as an electric communication line. The in-vehicle network 23 is configured, for example, as a CAN (Controller Area Network). The ECU 14 can control the steering system 13, the brake system 18, and the like by sending a control signal through the in-vehicle network 23. Further, the ECU 14 detects the torque sensor 13b, the brake sensor 18b, the rudder angle sensor 19, the distance measuring unit 16, the distance measuring unit 17, the accelerator sensor 20, the shift sensor 21, the wheel speed sensor 22, and the like via the in-vehicle network 23. Results, operation signals from the operation input unit, and the like can be received. Here, the ECU 14 is an example of a downward vision determination device.

ECU14は、例えば、CPU14a(Central Processing Unit)や、ROM14b(Read Only Memory)、RAM14c(Random Access Memory)、表示制御部14d、音声制御部14e、SSD14f(Solid State Drive、フラッシュメモリ)等を有している。CPU14aは、車両1全体の制御を行う。CPU14aは、ROM14b等の不揮発性の記憶装置にインストールされ記憶されたプログラムを読み出し、当該プログラムにしたがって演算処理を実行できる。RAM14cは、CPU14aでの演算で用いられる各種のデータを一時的に記憶する。また、表示制御部14dは、ECU14での演算処理のうち、主として、撮像部15で得られた画像データを用いた画像処理や、表示装置で表示される画像データの合成等を実行する。また、音声制御部14eは、ECU14での演算処理のうち、主として、音声出力装置で出力される音声データの処理を実行する。また、SSD14fは、書き換え可能な不揮発性の記憶部であって、ECU14の電源がオフされた場合にあってもデータを記憶することができる。なお、CPU14aや、ROM14b、RAM14c等は、同一パッケージ内に集積されうる。また、ECU14は、CPU14aに替えて、DSP(Digital Signal Processor)等の他の論理演算プロセッサや論理回路等が用いられる構成であってもよい。また、SSD14fに替えてHDD(Hard Disk Drive)が設けられてもよいし、SSD14fやHDDは、ECU14とは別に設けられてもよい。   The ECU 14 includes, for example, a CPU 14a (Central Processing Unit), a ROM 14b (Read Only Memory), a RAM 14c (Random Access Memory), a display control unit 14d, an audio control unit 14e, an SSD 14f (Solid State Drive), a flash memory, and the like. ing. The CPU 14a controls the entire vehicle 1. The CPU 14a can read a program installed and stored in a non-volatile storage device such as the ROM 14b and execute arithmetic processing according to the program. The RAM 14c temporarily stores various types of data used in computations by the CPU 14a. The display control unit 14d mainly executes image processing using the image data obtained by the imaging unit 15, synthesis of image data displayed on the display device, etc., among the arithmetic processing in the ECU 14. In addition, the voice control unit 14e mainly performs processing of voice data output from the voice output device among the calculation processes in the ECU 14. The SSD 14f is a rewritable nonvolatile storage unit that can store data even when the ECU 14 is powered off. The CPU 14a, the ROM 14b, the RAM 14c, and the like can be integrated in the same package. Further, the ECU 14 may have a configuration in which another logical operation processor such as a DSP (Digital Signal Processor), a logical circuit, or the like is used instead of the CPU 14a. Further, an HDD (Hard Disk Drive) may be provided instead of the SSD 14f, and the SSD 14f and the HDD may be provided separately from the ECU 14.

なお、上述した各種センサやアクチュエータの構成や、配置、電気的な接続形態等は、一例であって、種々に設定(変更)することができる。   The configuration, arrangement, electrical connection form, and the like of the various sensors and actuators described above are examples, and can be set (changed) in various ways.

図4は、本実施形態のECU14の機能的構成を示すブロック図である。図4に示されるように、ECU14は、入力部401と、顔データ計測部402と、モデル生成部403と、照合部404と、形状パラメータ判定部405と、開眼度算出部406と、下方視判定部407と、処理部408と、三次元顔モデル410と、第1バッファ420と、第2バッファ430と、第3バッファ440と、を主に備えている。図4に示される、入力部401、顔データ計測部402、モデル生成部403、照合部404、形状パラメータ判定部405、開眼度算出部406、下方視判定部407、処理部408の各構成は、ECU14として構成されたCPU14aが、ROM14b内に格納されたプログラムを実行することで実現される。なお、これらの構成をハードウェアで実現するように構成しても良い。   FIG. 4 is a block diagram showing a functional configuration of the ECU 14 of the present embodiment. As shown in FIG. 4, the ECU 14 includes an input unit 401, a face data measurement unit 402, a model generation unit 403, a matching unit 404, a shape parameter determination unit 405, an eye opening degree calculation unit 406, and a downward view. A determination unit 407, a processing unit 408, a three-dimensional face model 410, a first buffer 420, a second buffer 430, and a third buffer 440 are mainly provided. Each configuration of the input unit 401, the face data measurement unit 402, the model generation unit 403, the collation unit 404, the shape parameter determination unit 405, the eye opening degree calculation unit 406, the downward view determination unit 407, and the processing unit 408 illustrated in FIG. This is realized by the CPU 14a configured as the ECU 14 executing a program stored in the ROM 14b. Note that these configurations may be realized by hardware.

第1バッファ420、第2バッファ430、第3バッファ440はデータを一時的に保存するメモリ領域であり、RAM14cやSSD14f等の記憶媒体に確保される。本実施形態では、後述するとおり、第1バッファ420には時系列に運転者の顔の向き、第2バッファ430には時系列に運転者の開眼度、第3バッファ440には時系列に運転者の目の形状の形状パラメータがそれぞれ一時的に保存される。   The first buffer 420, the second buffer 430, and the third buffer 440 are memory areas for temporarily storing data, and are secured in a storage medium such as the RAM 14c or the SSD 14f. In the present embodiment, as will be described later, the driver's face direction is time-series in the first buffer 420, the driver's eye opening degree is time-series in the second buffer 430, and time-series driving is performed in the third buffer 440. Each shape parameter of the person's eye shape is temporarily stored.

三次元顔モデル410は、SSD14f等の記憶媒体に保存されている。三次元顔モデル410は、統計的顔形状モデルであり、平均的な被験者の三次元顔形状と、被験者の目や口、鼻等の顔部品の位置と、被験者の目の形状の変化情報とが登録されている。三次元顔モデル410は、一例として、CLM(Constrained Local Model),AAM(Active Appearance Model),ASM(Active Shape Model)を用いることができるが、これらに限定されるものではない。   The three-dimensional face model 410 is stored in a storage medium such as the SSD 14f. The three-dimensional face model 410 is a statistical face shape model. The average three-dimensional face shape of the subject, the positions of the facial parts such as the subject's eyes, mouth, and nose, and the change information of the subject's eye shape, Is registered. As an example, the 3D face model 410 may use CLM (Constrained Local Model), AAM (Active Appearance Model), or ASM (Active Shape Model), but is not limited thereto.

本実施形態のECU14は、この三次元顔モデル410を用いて、運転者の顔をトラッキングしながら、運転者の顔の向きと、運転者の視線方向としての開眼度(例えば、目の上下瞼間距離)とを逐次検出し、顔の向きが下方に向く動作と開眼度が低下する状態とが時間的に同期した場合に、すなわち、運転者の顔の向きの下方への変化と運転者の目の開眼度の減少の変化とが時間的に同期している場合に、運転者が下方視の状態であると判断する。   The ECU 14 of the present embodiment uses the three-dimensional face model 410 to track the driver's face, while opening the driver's face direction and the degree of eye opening as the driver's line-of-sight direction (for example, upper and lower eyelids). When the movement of the face facing downward is synchronized with the state in which the degree of eye opening decreases in time, that is, the downward change in the driver's face and the driver When the change in the degree of eye opening reduction is synchronized in time, it is determined that the driver is in the downward viewing state.

これは、運転者が前方を向いている状態から下方へ顔を下げて下方視の状態になる動作の際に、視線方向も同期して下方に下がっていくこと、すなわち、運転者の顔の向きの下方へ変化と、運転者の目の視線方向の下方の変化とが同期している場合に、運転者が下方視を行おうとしていることが過去の実験データ等から得られたことに基づいている(図11(a),(b)参照)。本実施形態のECU14は、視線方向そのものではなく、開眼度を用い、運転者の顔の向きの下方への変化と開眼度の減少の変化とが時間的に同期するか否かで、運転者が下方視を行おうとしているか否かを判断している。すなわち、視線が下方に向かうと、それに伴って目の上下瞼間距離(開眼度)も小さくなっていくことから、本実施形態のECU14は、開眼度を視線方向と同等に捉えて、顔の向きとの同期の有無を判断している。以下、詳細を説明する。   This is because the direction of the line of sight is also lowered in the downward direction when the driver lowers his / her face downward from the state of facing forward, that is, the direction of the driver's face. When the downward change in direction and the downward change in the driver's eye gaze direction are synchronized, it has been obtained from past experimental data that the driver is looking downward. Based (see FIGS. 11A and 11B). The ECU 14 of the present embodiment uses the degree of eye opening instead of the line-of-sight direction itself, and determines whether or not the change in the downward direction of the driver's face and the decrease in the degree of eye opening are synchronized in time. Determines whether or not he is going to look down. That is, as the line of sight moves downward, the distance between the upper and lower eyelids (opening degree) also decreases accordingly. Therefore, the ECU 14 of the present embodiment captures the opening degree equivalent to the line-of-sight direction, The presence or absence of synchronization with the direction is determined. Details will be described below.

図5は、本実施形態の三次元顔モデル410の一例を説明するための模式図である。図5では、例示的な顔のモデルMを示している。モデルMは、例えば100人の被験者から得られた顔形状から平均的な顔の立体的形状を示し、それぞれ所定の顔部品を表す複数の特徴点Pを含んでいる。特徴点Pは、任意の点を原点とした座標により表される。図5に示す例では、眉、目、鼻、口および輪郭を表す特徴点Pを示しているが、モデルMはより図5に示したものは異なる特徴点Pを含んでもよい。   FIG. 5 is a schematic diagram for explaining an example of the three-dimensional face model 410 of the present embodiment. In FIG. 5, an exemplary facial model M is shown. The model M shows a three-dimensional shape of an average face from face shapes obtained from 100 subjects, for example, and includes a plurality of feature points P each representing a predetermined face part. The feature point P is represented by coordinates with an arbitrary point as the origin. In the example shown in FIG. 5, feature points P representing the eyebrows, eyes, nose, mouth, and contour are shown. However, the model M may include different feature points P as shown in FIG. 5.

三次元顔モデル410には、さらに、変化情報が登録されている。変化情報は、運転者の顔の表情や動作の変化に伴う運転者の目の形状の段階的な変化と、段階ごとの形状パラメータとが対応付けられたデータである。具体的には、変化状態として、顔が無表情で正面を向いて目が開いている状態を標準の状態とし、この標準の状態から表情が笑顔になるまでの目の形状の段階的な変化、標準の状態から目を閉じるまでの目の形状の段階的な変化、標準の状態から下を向く(下方視)までの目の形状の段階的な変化等の各状態が形状パラメータと対応付けられて三次元顔モデル410に登録されている。   Further, change information is registered in the three-dimensional face model 410. The change information is data in which a step change in the shape of the driver's eyes associated with a change in the facial expression or movement of the driver is associated with a shape parameter for each step. Specifically, as a change state, the standard state is a state where the face is faceless and the eyes are facing forward, and the eye shape is gradually changed from the standard state until the expression becomes a smile. Each state, such as a gradual change in the shape of the eye from the standard state to the closing of the eye, a gradual change in the shape of the eye from the standard state to the downward (downward view) is associated with the shape parameter And registered in the three-dimensional face model 410.

図6は、本実施形態の三次元顔モデル410に登録された変化情報の一例を示す模式図である。図6に示す例では、標準の目の状態から目を閉じるまでの目の形状の段階的な変化が段階ごとに異なる値をとる形状パラメータ1と対応付けられている。また、標準の目の状態から笑顔になるまでの目の形状の段階的な変化が段階ごとに異なる値をとる形状パラメータ2と対応付けられている。さらに、標準の目の状態から下方視までの目の形状の段階的な変化が段階ごとに異なる値をとる形状パラメータ3と対応付けられている。それぞれの形状パラメータ1,2,3は、いずれも標準の目の状態から変化後の目の形状の状態に向かうに従って、値が段階的に小さくなる。   FIG. 6 is a schematic diagram illustrating an example of change information registered in the three-dimensional face model 410 of the present embodiment. In the example shown in FIG. 6, the stepwise change in the shape of the eye from the standard eye state to the closing of the eye is associated with the shape parameter 1 that takes a different value for each step. Further, the stepwise change in the shape of the eye from the standard eye state to the smile is associated with the shape parameter 2 that takes a different value for each step. Further, a stepwise change in the shape of the eye from the standard eye state to the downward view is associated with a shape parameter 3 having a different value for each step. Each of the shape parameters 1, 2, 3 decreases in a stepwise manner from the standard eye state toward the changed eye shape state.

但し、これに限定されるものではなく、変化後の状態に向かうに従って、値が大きくなるように形状パラメータを構成してもよい。または、変化の種類に応じて、値が大きくなったり小さくなったり等異なる変化となるように、形状パラメータを構成してもよい。   However, the present invention is not limited to this, and the shape parameter may be configured so that the value increases as the state changes. Alternatively, the shape parameter may be configured so as to change differently depending on the type of change, such as a value increasing or decreasing.

なお、変化情報として登録される目の形状の変化は、図6に示す例に限定されるものではなく、他に、標準の目の状態からあくびをしたときまでの目の形状の段階的な変化、標準の目の状態から目を凝らす状態までの目の形状の段階的な変化、標準の目の状態から目を見開いた状態までの目の形状の段階的な変化を、段階ごとに形状パラメータと対応付けて三次元顔モデル410に登録するように構成することができる。   The change in the shape of the eye registered as the change information is not limited to the example shown in FIG. 6. In addition, the eye shape is gradually changed from the standard eye state until yawning. Changes, step-by-step changes in eye shape from standard eye condition to eye-closed state, and step-by-step changes in eye shape from standard eye state to eye-open state It can be configured to be registered in the three-dimensional face model 410 in association with the parameter.

三次元顔モデル410の生成は、図4に示す、入力部401、顔データ計測部402、モデル生成部403により、以下のように行われる。図7は、本実施形態における三次元顔モデル410の生成処理の手順の一例を示すフローチャートである。   The generation of the three-dimensional face model 410 is performed as follows by the input unit 401, the face data measurement unit 402, and the model generation unit 403 shown in FIG. FIG. 7 is a flowchart illustrating an example of a procedure for generating the three-dimensional face model 410 according to this embodiment.

まず、管理者等は、3Dスキャナ等で例えば100人の被験者の顔を撮像する(S11)。また、S11では、上記多数の被験者のそれぞれに対し、標準の顔の状態から、笑顔や、目を閉じた状態、下向きの状態等の種々の変化の動作を行わせて、3Dスキャナ等で撮像する。なお、被験者の人数は100人に限定されるものではない。   First, the administrator or the like images the faces of, for example, 100 subjects with a 3D scanner or the like (S11). In S11, each of the large number of subjects is imaged by a 3D scanner or the like by performing various changing operations such as a standard face state, a smile, a closed eye state, and a downward state. To do. Note that the number of subjects is not limited to 100.

入力部401は、かかる撮像画像を入力する。そして、顔データ計測部402は、入力された撮像画像から、複数人の被験者の顔形状、目や口等の顔部品の特徴点を抽出して、平均的な顔形状、顔部品の位置等の三次元顔構造データを計測する(S12)。ここで、顔データ計測部402は、計測部の一例である。   The input unit 401 inputs such captured images. Then, the face data measurement unit 402 extracts facial features of a plurality of subjects, feature points of facial parts such as eyes and mouths from the input captured image, and calculates an average facial shape, position of facial parts, etc. Is measured (S12). Here, the face data measurement unit 402 is an example of a measurement unit.

さらに、S12では、顔データ計測部402は、S11で撮像した被験者の種々の変化の動作の撮像画像から、例えば、非特許文献「Active Appearance Model 探索による目領域構造の自動抽出 森山 剛 金出 武雄 Jeffrey F. Cohn 小沢 慎治『画像の認識・理解シンポジウム(MIRU2006)』」に示されるような三次元顔モデル作成の手順に従って、主成分分析等の統計的データ解析手法により、目の形状の段階的な変化の状態に対応する形状パラメータを抽出する。   Further, in S12, the face data measurement unit 402, for example, from the captured images of the various changes of the subject imaged in S11, for example, non-patent document “Automatic eye region structure search by Active Appearance Model search Takeshi Moriyama Takeo Kanade Jeffrey F. Cohn Shinji Ozawa “Symposium on Recognition and Understanding of Images (MIRU2006)” in accordance with the procedure for creating a three-dimensional face model, using a statistical data analysis method such as principal component analysis to step the shape of the eye Shape parameters corresponding to the state of various changes are extracted.

具体的には、撮像画像中の目の輪郭を構成する各点の座標を並べたベクトルをxで表すと、xは形状を表す。顔データ計測部402は、これを標準の目の状態から変化後の状態までの全ての撮像画像について平均し、平均形状xavを求める。顔データ計測部402は、標準の目の状態から変化後の状態までの各xのxavとの偏差を主成分分析して、固有ベクトルPsを求める。このとき、xは次の(1)式で表される。 Specifically, when a vector in which the coordinates of each point constituting the outline of the eye in the captured image are arranged is represented by x, x represents the shape. The face data measurement unit 402 averages all the captured images from the standard eye state to the changed state to obtain an average shape x av . The face data measurement unit 402 performs principal component analysis on the deviation of each x from x av from the standard eye state to the changed state to obtain an eigenvector P s . At this time, x is expressed by the following equation (1).

x=xav+Pss・・・(1)
ここで、bsは主成分得点ベクトルであり、これを形状パラメータと呼ぶ。すなわち、顔データ計測部402は、(1)式から形状パラメータbsを求める。
x = x av + P s b s (1)
Here, b s is a principal component score vector, which is called a shape parameter. That is, the face data measuring unit 402 obtains the shape parameter b s from the equation (1).

そして、顔データ計測部402は、目の形状の段階的な変化の状態と形状パラメータとを対応付けて図6に示したような変化情報を生成する。   Then, the face data measuring unit 402 generates change information as illustrated in FIG. 6 by associating the state of the step change of the eye shape with the shape parameter.

モデル生成部403は、計測された三次元顔構造データである平均的な顔形状、顔部品の位置、および上記変化情報を、三次元顔モデル410として生成する(S13)。これにより、平均的な顔のモデルが三次元顔モデル410に登録されて生成されることになる。   The model generation unit 403 generates an average face shape, which is measured 3D face structure data, the position of the face part, and the change information as the 3D face model 410 (S13). As a result, an average face model is registered and generated in the three-dimensional face model 410.

次に、本実施形態の下方視判定処理について説明する。図8、図9は、本実施形態にかかる下方視判定処理の手順の一例を示すフローチャートである。図8,9のフローチャートは、一定時間間隔で実行される。まず、撮像装置201が運転者を撮像する(S31)。撮像された運転者の撮像画像は、照合部404へ入力される。   Next, the downward vision determination process of this embodiment will be described. FIG. 8 and FIG. 9 are flowcharts showing an example of the procedure of the downward-looking determination process according to the present embodiment. The flowcharts of FIGS. 8 and 9 are executed at regular time intervals. First, the imaging device 201 images the driver (S31). The captured image of the driver is input to the verification unit 404.

照合部404は、運転者の二次元の撮像画像と、三次元顔モデル410を構成する三次元顔構造データに適合させる(S32)。すなわち、照合部404は、モデルフィッティングとモデルのトラッキングを行う。これにより、照合部404は、運転者の顔の向きを特定(推定)する。照合部404は、さらに、三次元顔モデル410上での目の位置の検索を行い特定(推定)する。そして、照合部404は、特定された顔の向きを、第1バッファ420に保存する(S33)。ここで、図8、9の処理は、一定時間ごとに繰り返し実行されるため、実行ごとにS31で運転者の顔が逐次(周期的に)撮像され、顔の向きが逐次特定されるが、照合部404は、逐次特定される顔の向きを、特定されるごとに時系列に第1バッファ420に保存する。   The matching unit 404 matches the two-dimensional captured image of the driver with the three-dimensional face structure data constituting the three-dimensional face model 410 (S32). That is, the matching unit 404 performs model fitting and model tracking. Thereby, the collation part 404 pinpoints (estimates) the direction of a driver | operator's face. The collation unit 404 further searches for and identifies (estimates) the position of the eye on the three-dimensional face model 410. Then, the matching unit 404 stores the specified face orientation in the first buffer 420 (S33). Here, since the processes of FIGS. 8 and 9 are repeatedly executed at regular time intervals, the driver's face is sequentially (periodically) imaged and the face orientation is sequentially specified in S31 for each execution. The collation unit 404 stores the face orientations that are sequentially identified in the first buffer 420 in time series each time they are identified.

ここで、本実施形態において、モデルフィッティングは、統計的顔形状モデルである三次元顔モデル410に図7の手順で作成された平均的な顔のモデルを初期状態として用い、該モデルの特徴点Pを撮像画像の顔の各部分に位置させることによって、該顔に近似したモデルMを生成する。   Here, in the present embodiment, model fitting uses an average face model created by the procedure of FIG. 7 as an initial state for a three-dimensional face model 410 that is a statistical face shape model, and features of the model. By placing P at each part of the face of the captured image, a model M that approximates the face is generated.

また、本実施形態において、モデルのトラッキングでは、モデルフィッティングにおいてモデルMが生成された後に、S31で周期的に撮像される運転者の撮像画像中の顔に合うようにモデルMを継続的に適合させる。本実施形態では、テンプレートを用いることによってモデルのトラッキングを行っている。   In the present embodiment, in model tracking, after the model M is generated in model fitting, the model M is continuously adapted to match the face in the driver's captured image that is periodically imaged in S31. Let In this embodiment, the model is tracked by using a template.

図10は、本実施形態における三次元顔モデル410における顔のモデルMについて作成されるテンプレートTを示す模式図である。テンプレートTは、画像中のモデルMの特徴点Pを含む所定範囲の領域を有する。例えば、テンプレートTは、眉を表す特徴点Pを含む領域、目を表す特徴点Pを含む領域、鼻を表す特徴点Pを含む領域、口を表す特徴点Pを含む領域および輪郭を表す特徴点Pを含む領域を有する。テンプレートTの各領域は、1または2以上の特徴点と対応しており、該特徴点の座標と紐付けられている。すなわち、テンプレートTが有する領域の画像中の位置が決まれば、該領域に対応する特徴点Pの座標を算出することができる。   FIG. 10 is a schematic diagram showing a template T created for a face model M in the three-dimensional face model 410 in the present embodiment. The template T has a predetermined area including the feature point P of the model M in the image. For example, the template T includes a region including a feature point P representing an eyebrow, a region including a feature point P representing an eye, a region including a feature point P representing a nose, a region including a feature point P representing a mouth, and a feature representing a contour. A region including the point P is included. Each region of the template T corresponds to one or more feature points and is associated with the coordinates of the feature points. That is, if the position of the area of the template T in the image is determined, the coordinates of the feature point P corresponding to the area can be calculated.

本実施形態に係るモデルのトラッキングでは、テンプレートTが有する各領域の画像中の位置を決定し、該各領域の位置を用いてモデルMの該画像中の角度、位置および大きさを決定する。そして、モデルMに対してこれらの決定された角度、位置および大きさを適用することによって、モデルMを該画像に適合させることができる。テンプレートTが有する領域の位置および数は、モデルのトラッキングが可能である限り任意に選択され得る。   In the tracking of the model according to the present embodiment, the position of each area of the template T in the image is determined, and the angle, position, and size of the model M in the image are determined using the position of each area. Then, by applying these determined angles, positions and sizes to the model M, the model M can be adapted to the image. The position and number of regions of the template T can be arbitrarily selected as long as the model can be tracked.

図8に戻り、開眼度算出部406は、撮像画像における運転者の開眼度を算出する(S34)。開眼度は、運転者の開眼の状態を示すものであり、本実施形態では、上下瞼間の距離である。開眼度算出部406による開眼度の算出手法としては、撮像画像の画素から算出する等の公知の手法を用いる。なお、本実施形態では、開眼度として上下瞼間の距離を用いているが、開眼の状態を示すものであれば、これに限定されるものではない。   Returning to FIG. 8, the eye opening degree calculation unit 406 calculates the driver's eye opening degree in the captured image (S34). The degree of eye opening indicates the state of eye opening of the driver, and in the present embodiment, is the distance between the upper and lower eyelids. As a method for calculating the degree of eye opening by the eye opening degree calculation unit 406, a known method such as calculation from pixels of a captured image is used. In the present embodiment, the distance between the upper and lower eyelids is used as the eye opening degree, but the present invention is not limited to this as long as the eye opening state is indicated.

そして、開眼度算出部406は、算出した開眼度を、第2バッファ430に保存する(S35)。ここで、図8、9の処理は、一定時間ごとに繰り返し実行されるため、開眼度は、実行ごとに逐次算出されるが、開眼度算出部406は、逐次算出される開眼度を、算出するごとに時系列に第2バッファ430に保存する。   Then, the eye opening degree calculation unit 406 stores the calculated eye opening degree in the second buffer 430 (S35). Here, since the processes in FIGS. 8 and 9 are repeatedly executed at regular intervals, the eye opening degree is sequentially calculated for each execution. The eye opening degree calculation unit 406 calculates the eye opening degree that is sequentially calculated. Each time it is saved, it is stored in the second buffer 430 in time series.

S32により適合された三次元顔モデルにより、目の位置が特定されるため、形状パラメータ判定部405は、三次元眼モデルを作成する。そして、形状パラメータ判定部405は、二次元の撮像画像を三次元眼モデルに適合させる(S36)。すなわち、形状パラメータ判定部405は、形状パラメータを変化させ、形状パラメータに対応する目の形状と撮像画像の目の形状とを照合する。そして、形状パラメータ判定部405は、撮像画像中の目の形状に対応する形状パラメータを三次元顔モデル410から特定する。そして、形状パラメータ判定部405は、特定した形状パラメータを第3バッファ440に保存する(S37)。ここで、図8、9の処理は、一定時間ごとに繰り返し実行されるため、形状パラメータは、実行ごとに逐次特定されるが、形状パラメータ判定部405は、逐次特定される形状パラメータを、特定するごとに時系列に第3バッファ440に保存する。   Since the position of the eye is specified by the three-dimensional face model adapted in S32, the shape parameter determination unit 405 creates a three-dimensional eye model. Then, the shape parameter determination unit 405 adapts the two-dimensional captured image to the three-dimensional eye model (S36). That is, the shape parameter determination unit 405 changes the shape parameter, and collates the eye shape corresponding to the shape parameter with the eye shape of the captured image. Then, the shape parameter determination unit 405 specifies a shape parameter corresponding to the shape of the eye in the captured image from the three-dimensional face model 410. Then, the shape parameter determination unit 405 stores the specified shape parameter in the third buffer 440 (S37). Here, since the processes in FIGS. 8 and 9 are repeatedly executed at regular time intervals, the shape parameter is sequentially specified for each execution. However, the shape parameter determination unit 405 specifies the shape parameter that is sequentially specified. Each time it is stored in the third buffer 440 in time series.

このようにして、第1バッファ420には運転者の顔の向きが、第2バッファ430には運転者の開眼度が、第3バッファ440には運転者の目の形状の形状パラメータが、それぞれ時系列に保存されていく。   Thus, the first buffer 420 has the driver's face orientation, the second buffer 430 has the driver's eye opening degree, and the third buffer 440 has the driver's eye shape parameter. It will be saved in time series.

次に、下方視判定部407は、第1バッファ420から、現時点から所定時間遡った時刻までの第1区間の複数の顔の向きを取得する(S40)。また、下方視判定部407は、第1バッファ420から、現時点から遡った上記第1区間の複数の開眼度を取得する(S41)。   Next, the downward-viewing determination unit 407 acquires the orientations of the plurality of faces in the first section from the first buffer 420 to a time that is a predetermined time back from the current time (S40). Further, the downward-viewing determination unit 407 acquires a plurality of eye opening degrees of the first section retroactive to the current time from the first buffer 420 (S41).

そして、下方視判定部407は、当該第1区間の間で、顔の向きの下方への変化と開眼度の減少の変化が時間的に同期しているか否かを判断する(S42)。具体的には、下方視判定部407は、第1区間の間で、顔の向きが下方へ変化しており、かつ、開眼度も減少しており、かつ顔の向きの下方への変化と開眼度の減少の変化のタイミングが一致しているか否かにより同期しているか否かを判断する。このような同期の判断を行う下方視判定部407を、例えば、カルマンフィルタ等で構成することができるが、これに限定されるものではない。図11は、本実施形態における顔の向き、開眼度、下方視の形状パラメータのそれぞれの経時的変化を示す図である。図11(a)が顔の向きの経時的変化、図11(b)が開眼度の経時的変化、図11(c)が形状パラメータの経時的変化を示している。図11(a)、(b)に示しように、顔の向きの下方への変化と開眼度の減少の変化とは、点線で囲まれる区間T1で同期している。このため、この区間T1で、運転者は顔を下方向に向けにいく状態をしていると考えられる。なお、下方視判定部407は、第1区間の間にで、顔の向きの下方への変化と開眼度の減少変化が所定量を超えている場合に、下方視であると判定してもよい。   Then, the downward vision determination unit 407 determines whether or not the change in the downward direction of the face and the change in the decrease in the degree of eye opening are temporally synchronized during the first interval (S42). Specifically, the downward vision determination unit 407 has a downward change in the orientation of the face, the orientation of the face has changed downward, and the degree of eye opening has also decreased during the first interval. It is determined whether or not synchronization is made depending on whether or not the timings of changes in the degree of eye opening decrease coincide. The downward-view determination unit 407 that performs such synchronization determination can be configured with, for example, a Kalman filter or the like, but is not limited thereto. FIG. 11 is a diagram showing changes over time of the face direction, the degree of eye opening, and the shape parameter of the downward view in the present embodiment. FIG. 11A shows the temporal change of the face direction, FIG. 11B shows the temporal change of the eye opening degree, and FIG. 11C shows the temporal change of the shape parameter. As shown in FIGS. 11A and 11B, the downward change in the face direction and the decrease in the degree of eye opening are synchronized in a section T1 surrounded by a dotted line. For this reason, it is considered that the driver is in a state of turning his face downward in this section T1. Note that the downward-viewing determination unit 407 determines that it is downward-viewing when the downward change in the face direction and the decrease in the degree of eye opening exceed a predetermined amount during the first interval. Good.

そして、両者が同期していない場合には(S42:No)、処理は終了する。一方、両者が同期している場合には(S42:Yes)、下方視判定部407は、第3バッファ440から、上記第1区間の複数の形状パラメータを取得する(S43)。そして、下方視判定部407は、当該第1区間の最新の形状パラメータが所定の下方視閾値以下であるか否かを判断する(S44)。   And when both are not synchronizing (S42: No), a process is complete | finished. On the other hand, when both are synchronized (S42: Yes), the downward-view determination unit 407 acquires the plurality of shape parameters of the first section from the third buffer 440 (S43). Then, the downward view determination unit 407 determines whether or not the latest shape parameter of the first section is equal to or less than a predetermined downward view threshold (S44).

ここで、上述したとおり、運転者の顔の向きの下方へ変化と、運転者の視線方向として目の開眼度の減少の変化とが同期している場合に、運転者が下方視を行おうとしていることが過去の実験データ等から得られた。このため、S42で、下方視判定部407は、両者が同期していると判断される場合には、運転者が下方視を行おうとしている状態、あるいは下方視の状態であるとの判定を確定してもよい。しかしながら、本実施形態では、下方視の判断の正確性をより向上させるために、S44のように、下方視判定部407は、さらに形状パラメータによる判断を加えて下方視判定を行っている。   Here, as described above, when the change in the downward direction of the driver's face is synchronized with the decrease in the degree of eye opening as the driver's line of sight, the driver will look down. It was obtained from past experimental data. For this reason, in S42, when it is determined that the two are synchronized, the downward-viewing determination unit 407 determines that the driver is in a state of looking down or in a downward-looking state. It may be confirmed. However, in the present embodiment, in order to further improve the accuracy of the determination of the downward view, the downward view determination unit 407 further performs the downward view determination by adding a determination based on the shape parameter as in S44.

ここで、下方視閾値は、運転者が下方視をしているときの目の形状の形状パラメータの最大値である。従って、形状パラメータが下方視閾値以下の範囲である場合には、目の形状が下方視のときの目の形状の範囲であることを意味する。下方視閾値は予め定められており、ROM14bやSSD14f等に記憶されている。   Here, the downward viewing threshold is the maximum value of the shape parameter of the eye shape when the driver is looking downward. Therefore, when the shape parameter is within the range below the downward viewing threshold, it means that the eye shape is within the range of the eye shape when viewed downward. The downward viewing threshold is determined in advance and stored in the ROM 14b, the SSD 14f, or the like.

なお、本実施形態では、形状パラメータが下方視閾値以下の場合に目の形状が下方視の範囲としているが、これは、図6を用いて上述したとおり、標準の目の形状が下方視に近づくに従って、本実施形態の形状パラメータが小さくなるように設定されているからである。従って、形状パラメータの設定の仕方によっては、下方視の範囲の境界となる下方視閾値の定め方は異なってくる。   In this embodiment, when the shape parameter is equal to or lower than the downward viewing threshold, the shape of the eye is set as the downward viewing range. However, as described above with reference to FIG. This is because the shape parameter of the present embodiment is set to be smaller as it gets closer. Accordingly, depending on how the shape parameters are set, the method of determining the downward viewing threshold value that becomes the boundary of the downward viewing range differs.

S44で、形状パラメータが下方視閾値以下の場合には(S44:Yes)、下方視判定部407は、運転者が下方視を行っていると判断する(S45)。すなわち、S42の判断で、顔の向きの下方への変化と開眼度の減少の変化とが同期しており、さらに形状パラメータが下方視の範囲であることから、下方視判定部407は、運転者が下方視の状態であるという、顔の向きの下方への変化と開眼度の減少の変化の同期による推定を確定している。すなわち、図11(c)に示すように、下方視判定部407は、形状パラメータの減少の変化も、顔の向きの下方への変化、開眼度の減少の変化と同期しているときに、運転者の顔が下方視に向かっていると判断することができる。しかし、下方視判定部407は、目の形状の形状パラメータが下方視閾値以下となったときに、運転者の顔が下方視の状態であるとの判断を確定すれば、下方視の判断がより正確なものとなる。なお、形状パラメータが、第1区間の間で、所定量変化した場合に、すなわち、形状パラメータの時系列変化が下方視側へ所定量を超える変化である場合に、運転者は下方視状態であると判断するように下方視判定部407を構成してもよい。   If the shape parameter is equal to or smaller than the downward viewing threshold value in S44 (S44: Yes), the downward viewing determination unit 407 determines that the driver is performing downward viewing (S45). That is, in the determination of S42, the downward change in the face direction and the change in the reduction in the degree of eye opening are synchronized, and the shape parameter is within the range of the downward view. Estimates based on the synchronization of the downward change in the face direction and the change in the reduction in the degree of eye opening that the person is in the downward viewing state are confirmed. That is, as shown in FIG. 11 (c), the downward vision determination unit 407 synchronizes the change in the decrease in the shape parameter with the change in the downward direction of the face and the change in the decrease in the degree of eye opening. It can be determined that the driver's face is looking downward. However, if the downward-viewing determination unit 407 determines that the driver's face is in the downward-viewing state when the shape parameter of the eye shape is equal to or lower than the downward-viewing threshold, the downward-viewing determination is made. It will be more accurate. When the shape parameter changes by a predetermined amount during the first section, that is, when the time-series change of the shape parameter exceeds the predetermined amount toward the downward viewing side, the driver is in the downward viewing state. The downward-viewing determination unit 407 may be configured to determine that there is.

この場合、運転者は開眼状態ではあるが、運転中に前方を見ずに、スマートフォン等の操作等で下方をみていることが考えられる。このため、処理部408は、前方を向かせるための警報を、モニタ装置11の音声出力装置から出力させる(S46)。そして、処理は終了する。   In this case, although the driver is in an open state, it is conceivable that the driver is looking downward by operating a smartphone or the like without looking forward while driving. For this reason, the processing unit 408 outputs an alarm for turning forward from the audio output device of the monitor device 11 (S46). Then, the process ends.

なお、本実施形態では、下方視と判定された場合に警報を出力しているが、これに限定されるものではない。例えば、運転者に警告を促して脇見運転をやめて前方を向かせるような動作であれば、いずれの動作を行うように処理部408を構成することができる。   In the present embodiment, an alarm is output when it is determined to look downward, but the present invention is not limited to this. For example, the processing unit 408 can be configured to perform any operation as long as it is an operation that urges the driver to stop driving aside and turn forward.

一方、S44で、形状パラメータが下方視閾値より大きい場合には(S44:No)、下方視判定部407は、下方視の状態と判定せずに、処理は終了する。   On the other hand, when the shape parameter is larger than the downward viewing threshold value in S44 (S44: No), the downward viewing determination unit 407 does not determine the state of downward viewing and the process ends.

なお、本実施形態では、図8,9のフローチャートが実行される度に、S40からS46までの処理、すなわち、各バッファから逐次蓄積されたデータ(顔の向き、開眼度、形状パラメータ)を読み出して下方視を判定する処理をおこなっているが、これに限定されるものではない。例えば、図8,9のフローチャートが実行される度に各バッファに顔の向き、開眼度、形状パラメータを保存しておき、一定の期間ごとにのみ、S40からS46までの下方視判定を行うように下方視判定部407を構成してもよい。   In this embodiment, every time the flowcharts of FIGS. 8 and 9 are executed, the processing from S40 to S46, that is, the data (face orientation, eye opening degree, shape parameter) sequentially accumulated from each buffer is read out. However, the present invention is not limited to this. For example, each time the flowcharts of FIGS. 8 and 9 are executed, the face orientation, the degree of eye opening, and the shape parameters are stored in each buffer, and the downward view determination from S40 to S46 is performed only at regular intervals. Alternatively, the downward vision determination unit 407 may be configured.

このように本実施形態では、下方視判定部407は、運転者の顔の向きと開眼度とを検出して、顔の向きの下方への変化と開眼度の減少の変化とが時間的に同期したときに、運転者が下方視に向かっていると判断しているので、より正確な下方視判断を行うことができる。これにより、本実施形態によれば、下方視の誤判断に伴う警報の出力を防止することができる。   As described above, in the present embodiment, the downward-sight determination unit 407 detects the driver's face direction and the degree of eye opening, and the change in the face direction downward and the decrease in the degree of eye opening are temporally detected. Since it is determined that the driver is looking downward when synchronized, a more accurate downward determination can be made. Thereby, according to this embodiment, the output of the warning accompanying the misjudgment of a downward view can be prevented.

また、本実施形態では、三次元顔モデル410に、目の形状の変化に対応した形状パラメータを登録している。そして、下方視判定部407は、運転者の顔の向きと開眼度とを検出して、顔の向きの下方への変化と開眼度の減少の変化とが時間的に同期したときに、さらに目の形状を示す形状パラメータが下方視の範囲にあるか否かを判断して、形状パラメータが下方視の範囲にある場合に、下方視の推定を確定している。このため、本実施形態によれば、運転者の下方視判断をより一層正確に行うことができる。   In the present embodiment, shape parameters corresponding to changes in the shape of the eyes are registered in the three-dimensional face model 410. Then, the downward-viewing determination unit 407 detects the driver's face direction and the degree of eye opening, and when the downward change in the face direction and the change in the decrease in the degree of eye opening are synchronized in time, Whether or not the shape parameter indicating the shape of the eye is in the range of the downward view is determined, and when the shape parameter is in the range of the downward view, the estimation of the downward view is determined. For this reason, according to the present embodiment, the driver's downward view determination can be made more accurately.

また、本実施形態では、運転者の顔の目の形状を、二次元の撮像画像だけでなく、三次元の顔モデルを用いて推定(特定)しているので、撮像装置201に対する垂直方向の相対的な顔の位置および顔の向きの影響を受けることが少ない。このため、本実施形態によれば、より正確に目の形状を推定することができ、これにより、より正確に運転者の下方視を判定することができる。   In the present embodiment, the shape of the eyes of the driver's face is estimated (specified) using not only a two-dimensional captured image but also a three-dimensional face model. Less affected by relative face position and face orientation. For this reason, according to the present embodiment, the shape of the eyes can be estimated more accurately, and thereby the driver's downward view can be determined more accurately.

また、本実施形態では、運転者が下方視であると判定された場合には、処理部408は、運転者に警告を促す動作の一例として警報を、モニタ装置11の音声出力装置から出力させるので、運転者の脇見運転を防止することができる。   In the present embodiment, when it is determined that the driver is looking downward, the processing unit 408 outputs an alarm from the audio output device of the monitor device 11 as an example of an operation that prompts the driver to warn. Therefore, it is possible to prevent the driver from looking aside.

なお、本実施形態では、視線方向の下方への変化の一例として、開眼度の減少の変化を用いているが、公知の手法で視線方向を直接検知して、顔の向きの下方への変化との同期を判断するように、下方視判定部407を構成してもよい。   In this embodiment, as an example of the downward change in the line-of-sight direction, a change in the degree of eye opening is used. However, the change in the face direction is detected by directly detecting the line-of-sight direction using a known method. The downward-viewing determination unit 407 may be configured to determine the synchronization with.

また、本実施形態では、運転者の顔の向きの下方への変化と開眼度の減少の変化との時間的な同期と形状パラメータの値とにより運転者の下方視の判断を行っているが、形状パラメータを用いずに、運転者の顔の向きの下方への変化と開眼度の減少の変化とが時間的に同期した場合には、運転者が下方視の状態にあるとの判断を確定するように下方視判断部407を構成してもよい。   In the present embodiment, the driver's downward view is determined based on the temporal synchronization of the downward change in the driver's face direction and the change in the reduction in the degree of eye opening and the value of the shape parameter. If the change in the downward direction of the driver's face and the change in the decrease in the degree of eye opening are synchronized in time without using the shape parameter, it is determined that the driver is in the downward viewing state. The downward view determination unit 407 may be configured so as to be confirmed.

本実施形態では、三次元顔モデル410に、標準の目の状態から下方視に至るまでの目の形状の変化を形状パラメータとともに登録して、下方視の判定を行っているが、さらに、下方視以外の判定を行うように、三次元顔モデル410、形状パラメータ判定部405、下方視判定部407等を構成してもよい。   In the present embodiment, the change in the shape of the eye from the standard eye state to the downward view is registered in the three-dimensional face model 410 together with the shape parameter to determine the downward view. The three-dimensional face model 410, the shape parameter determination unit 405, the downward vision determination unit 407, and the like may be configured so as to perform determinations other than visual.

例えば、三次元顔モデル410に、さらに、標準の目の状態からあくびをしたときまでの目の形状の段階的な変化を形状パラメータとともに登録し、あくびの判定を行うように三次元顔モデル410、形状パラメータ判定部405、下方視判定部407等を構成することができる。   For example, in the three-dimensional face model 410, a stepwise change in the shape of the eye from the standard eye state to when yawning is registered together with the shape parameter, and the yawn is determined. The shape parameter determination unit 405, the downward view determination unit 407, and the like can be configured.

また、三次元顔モデル410に、さらに、標準の目の状態から目を凝らす状態までの目の形状の段階的な変化までの目の形状の段階的な変化を形状パラメータとともに登録し、まぶしくて目を細めたことを判定するように、三次元顔モデル410、形状パラメータ判定部405、下方視判定部407等を構成してもよい。   In addition, the gradual change of the eye shape from the standard eye state to the squinting state is registered in the three-dimensional face model 410 together with the shape parameter. The three-dimensional face model 410, the shape parameter determination unit 405, the downward view determination unit 407, and the like may be configured so as to determine that the eyes are narrowed.

また、形状パラメータを、上記非特許文献「Active Appearance Model 探索による目領域構造の自動抽出 森山 剛 金出 武雄 Jeffrey F. Cohn 小沢 慎治『画像の認識・理解シンポジウム(MIRU2006)』」や非特許文献「Costen, N., Cootes, T.F., Taylor, C.J.: Compensating for ensemble-specificity effects when building facial models. Image and Vision Computing 20, 673−682」に示されているように、個人内差と個人間差とに分類して登録されるように三次元顔モデル410を構成してもよい。   In addition, the shape parameters are extracted from the above-mentioned non-patent document “Automatic Extraction of Eye Region Structure by Active Appearance Model Search Takeshi Moriyama Takeo Kanade Jeffrey F. Cohn Shinji Ozawa“ Image Recognition and Understanding Symposium (MIRU2006) ”” and non-patent document “ Costen, N., Cootes, TF, Taylor, CJ: Compensating for ensemble-specificity effects when building facial models.Image and Vision Computing 20, 673-682 '' The three-dimensional face model 410 may be configured to be classified and registered.

また、本実施形態では、運転者の脇見運転の判断を行うために、下方視の判定を行っているが、これに限定されるものではない、インタフェースとの対話等、人間的なやり取りにおいて、本実施形態の手法の下方視の検出を用いるように、三次元顔モデル410、形状パラメータ判定部405、下方視判定部407等を構成してもよい。   Further, in the present embodiment, in order to determine the driver's side-view driving, the determination of the downward view is performed, but is not limited to this, in human interaction such as dialogue with the interface, The three-dimensional face model 410, the shape parameter determination unit 405, the downward view determination unit 407, and the like may be configured so as to use the downward view detection of the method of the present embodiment.

本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、請求の範囲に記載された発明とその均等の範囲に含まれる。   Although several embodiments of the present invention have been described, these embodiments are presented by way of example and are not intended to limit the scope of the invention. These novel embodiments can be implemented in various other forms, and various omissions, replacements, and changes can be made without departing from the scope of the invention. These embodiments and modifications thereof are included in the scope and gist of the invention, and are included in the invention described in the claims and the equivalents thereof.

1 車両
14 ECU
201 撮像装置
401 入力部
402 顔データ計測部
403 モデル生成部
404 照合部
405 形状パラメータ判定部
406 開眼度算出部
407 下方視判定部
408 処理部
410 三次元顔モデル
1 Vehicle 14 ECU
201 imaging device 401 input unit 402 face data measurement unit 403 model generation unit 404 collation unit 405 shape parameter determination unit 406 eye opening degree calculation unit 407 downward vision determination unit 408 processing unit 410 three-dimensional face model

Claims (4)

被験者の三次元顔形状と、被験者の目の位置と、目の標準の状態から被験者の下方視の状態までの変化を示している目の形状の変化の状態と形状パラメータとが対応付けられた変化情報と、が登録された三次元顔モデルを記憶する記憶部と、
撮像装置で運転者を撮像するごとに、撮像された前記運転者の撮像画像を、逐次、前記三次元顔形状と照合して、顔の向きを特定する照合部と、
前記運転者を撮像するごとに、前記撮像画像における目の開眼の状態を示す開眼度を算出する開眼度算出部と、
前記形状パラメータを変化させて、前記撮像画像における前記目の形状の状態に対応する形状パラメータを特定する形状パラメータ判定部と、
前記顔の向きの下方への変化と、前記運転者の視線方向としての前記開眼度の減少の変化とが同期しているか否かを判断し、同期している場合に、特定された前記形状パラメータが下方視を示す範囲内であるか否かまたは特定された前記形状パラメータの時系列変化が下方視側へ所定量を超える変化であるか否かを判定し、前記形状パラメータが下方視を示す範囲内である場合または前記形状パラメータの時系列変化が下方視側へ所定量を超える変化である場合に、前記運転者は下方視状態であると判定する下方視判定部と、を備えている下方視判定装置。
The three-dimensional face shape of the subject, the eye position of the subject, the eye shape change state indicating the change from the normal state of the eye to the state of the subject's downward view, and the shape parameter are associated. A storage unit for storing change information and a registered three-dimensional face model;
Each time the driver is imaged by the imaging device, the captured image of the driver is sequentially verified with the three-dimensional face shape, and a collation unit that identifies the orientation of the face;
Each time the driver is imaged, an eye opening degree calculation unit that calculates an eye opening degree indicating an eye opening state in the captured image;
A shape parameter determining unit that changes the shape parameter to identify a shape parameter corresponding to a state of the shape of the eye in the captured image;
It is determined whether or not the change in the downward direction of the face and the change in the decrease in the degree of eye opening as the driver's line-of-sight direction are synchronized , and the identified shape when synchronized It is determined whether the parameter is within a range indicating downward viewing or whether the time-series change of the specified shape parameter is a change exceeding a predetermined amount toward the downward viewing side, and the shape parameter A downward-viewing determination unit that determines that the driver is in the downward-viewing state when the shape parameter is within the range shown or when the time-series change of the shape parameter is a change exceeding a predetermined amount toward the downward-viewing side. A downward-viewing determination device.
前記運転者が下方視状態であると判定された場合には、警報を出力する処理部、
をさらに備えた請求項1に記載の下方視判定装置。
When it is determined that the driver is in a downward looking state, a processing unit that outputs an alarm,
Further downward gaze determination device according to claim 1 comprising a.
前記被験者の撮像画像に基づいて、前記三次元顔形状と前記目の位置とを含む三次元顔構造データと、前記目の形状の変化の状態と前記形状パラメータとが対応付けられた前記変化情報と、を求める計測部と、
計測された前記三次元顔構造データと前記変化情報とを、前記三次元顔モデルとして前記記憶部に登録するモデル生成部と、
をさらに備えた請求項またはに記載の下方視判定装置。
The change information in which the three-dimensional face structure data including the three-dimensional face shape and the eye position, the change state of the eye shape, and the shape parameter are associated with each other based on the captured image of the subject. And a measurement unit for
A model generation unit that registers the measured three-dimensional face structure data and the change information in the storage unit as the three-dimensional face model;
The downward-viewing determination apparatus according to claim 1 or 2 , further comprising:
下方視判定装置で実行される下方視判定方法であって、
前記下方視判定装置は、被験者の三次元顔形状と、被験者の目の位置と、目の標準の状態から被験者の下方視の状態までの変化を示している目の形状の変化の状態と形状パラメータとが対応付けられた変化情報と、が登録された三次元顔モデルを記憶する記憶部、を備え、
運転者を撮像するごとに、撮像された前記運転者の撮像画像を、逐次、前記三次元顔形状と照合して、顔の向きを特定し、
前記運転者を撮像するごとに、前記撮像画像における目の開眼の状態を示す開眼度を算出し、
前記形状パラメータを変化させて、前記撮像画像における前記目の形状の状態に対応する形状パラメータを特定し、
前記顔の向きの下方への変化と、前記運転者の視線方向としての前記開眼度の減少の変化とが同期しているか否かを判断し、同期している場合に、特定された前記形状パラメータが下方視を示す範囲内であるか否かまたは特定された前記形状パラメータの時系列変化が下方視側へ所定量を超える変化であるか否かを判定し、前記形状パラメータが下方視を示す範囲内である場合または前記形状パラメータの時系列変化が下方視側へ所定量を超える変化である場合に、前記運転者は下方視状態であると判定する、
ことを含む下方視判定方法。
A downward vision determination method executed by the downward vision determination device,
The downward-viewing determination device includes a three-dimensional face shape of the subject, a position of the subject's eyes, and a change state and shape of the eye shape indicating a change from a standard state of the eye to a state of the subject's downward view A storage unit for storing change information associated with parameters and a registered three-dimensional face model,
Each time the driver is imaged, the captured image of the driver is sequentially compared with the three-dimensional face shape to identify the orientation of the face,
Every time the driver is imaged, an eye opening degree indicating an eye opening state in the captured image is calculated,
Change the shape parameter to identify the shape parameter corresponding to the state of the eye shape in the captured image,
It is determined whether or not the change in the downward direction of the face and the change in the decrease in the degree of eye opening as the driver's line-of-sight direction are synchronized , and the identified shape when synchronized It is determined whether the parameter is within a range indicating downward viewing or whether the time-series change of the specified shape parameter is a change exceeding a predetermined amount toward the downward viewing side, and the shape parameter The driver determines that the driver is in the downward-viewing state when the shape parameter is within the range shown or when the time-series change of the shape parameter is a change exceeding a predetermined amount toward the downward-viewing side ,
A method for determining downward vision including the above.
JP2014252941A 2014-12-15 2014-12-15 Downward view determination device and downward view determination method Active JP6572538B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014252941A JP6572538B2 (en) 2014-12-15 2014-12-15 Downward view determination device and downward view determination method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014252941A JP6572538B2 (en) 2014-12-15 2014-12-15 Downward view determination device and downward view determination method

Publications (2)

Publication Number Publication Date
JP2016115118A JP2016115118A (en) 2016-06-23
JP6572538B2 true JP6572538B2 (en) 2019-09-11

Family

ID=56141890

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014252941A Active JP6572538B2 (en) 2014-12-15 2014-12-15 Downward view determination device and downward view determination method

Country Status (1)

Country Link
JP (1) JP6572538B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102015211444A1 (en) * 2015-06-22 2016-12-22 Robert Bosch Gmbh A method and apparatus for distinguishing blink events and instrument views using an eye opening width
JP6922686B2 (en) 2017-11-20 2021-08-18 トヨタ自動車株式会社 Operating device
CN110866864A (en) 2018-08-27 2020-03-06 阿里巴巴集团控股有限公司 Face pose estimation/three-dimensional face reconstruction method and device and electronic equipment
JP7378681B2 (en) * 2021-08-12 2023-11-13 三菱電機株式会社 Occupant condition determination device, occupant condition determination method, and occupant condition determination system

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3855790B2 (en) * 2002-02-12 2006-12-13 日産自動車株式会社 Driver status detection device
JP4840146B2 (en) * 2007-01-09 2011-12-21 株式会社デンソー Sleepiness detection device
JP4793269B2 (en) * 2007-01-09 2011-10-12 株式会社デンソー Sleepiness detection device
JP4893507B2 (en) * 2007-07-04 2012-03-07 オムロン株式会社 Aside look detection device and method, and program
JP5493593B2 (en) * 2009-08-26 2014-05-14 アイシン精機株式会社 Sleepiness detection apparatus, sleepiness detection method, and program

Also Published As

Publication number Publication date
JP2016115118A (en) 2016-06-23

Similar Documents

Publication Publication Date Title
EP3033999B1 (en) Apparatus and method for determining the state of a driver
EP3488382B1 (en) Method and system for monitoring the status of the driver of a vehicle
JP2016115117A (en) Determination device and determination method
CN112590794A (en) Method and apparatus for determining an estimate of the ability of a vehicle driver to take over control of a vehicle
US9928404B2 (en) Determination device, determination method, and non-transitory storage medium
JP5664603B2 (en) On-vehicle acoustic device and program
US9606623B2 (en) Gaze detecting apparatus and method
CN110765807A (en) Driving behavior analysis method, driving behavior processing method, driving behavior analysis device, driving behavior processing device and storage medium
CN111665513B (en) Facial feature detection device and facial feature detection method
JP7290930B2 (en) Occupant modeling device, occupant modeling method and occupant modeling program
JP6572538B2 (en) Downward view determination device and downward view determination method
JP2020126638A (en) Method and device for adjusting driver assistance apparatus automatically for personalization and calibration according to driver's status
JP6479272B1 (en) Gaze direction calibration apparatus, gaze direction calibration method, and gaze direction calibration program
JP2017199302A (en) Determination device, determination method, determination program and storage medium
JP2016115120A (en) Opened/closed eye determination device and opened/closed eye determination method
JPWO2019163124A1 (en) 3D position estimation device and 3D position estimation method
US7599546B2 (en) Image information processing system, image information processing method, image information processing program, and automobile
JP2016192177A (en) Vehicle detection system, vehicle detection device, vehicle detection method and vehicle detection program
US20220230474A1 (en) Activity identification method and apparatus
JP7263734B2 (en) Visual recognition target determination device
JP6459856B2 (en) Vehicle driving support device, vehicle driving support method, and program
JP7267467B2 (en) ATTENTION DIRECTION DETERMINATION DEVICE AND ATTENTION DIRECTION DETERMINATION METHOD
WO2017217044A1 (en) Viewing direction estimation device
JPWO2019123582A1 (en) Object information generator and object information generator
KR102486161B1 (en) Vehicle, Control Method of the vehicle and Image tracking apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171110

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181119

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190108

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190226

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190716

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190729

R151 Written notification of patent or utility model registration

Ref document number: 6572538

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151