JP2007022428A - Vehicle device control device and vehicle device control method - Google Patents

Vehicle device control device and vehicle device control method Download PDF

Info

Publication number
JP2007022428A
JP2007022428A JP2005209977A JP2005209977A JP2007022428A JP 2007022428 A JP2007022428 A JP 2007022428A JP 2005209977 A JP2005209977 A JP 2005209977A JP 2005209977 A JP2005209977 A JP 2005209977A JP 2007022428 A JP2007022428 A JP 2007022428A
Authority
JP
Japan
Prior art keywords
occupant
angle
cervical vertebra
driver
change
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2005209977A
Other languages
Japanese (ja)
Inventor
Shogo Watanabe
省吾 渡辺
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP2005209977A priority Critical patent/JP2007022428A/en
Publication of JP2007022428A publication Critical patent/JP2007022428A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Automotive Seat Belt Assembly (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To reduce a load applied to the cervical vertebrae of a driver at collision of a vehicle. <P>SOLUTION: A control device 106 calculates an angle of the cervical vertebrae of the driver based on an image photographed from a side of the driver by a camera 101 and calculates a variation speed of the calculated angle of the cervical vertebrae of the driver. Further, a seat belt control device 108 or a head rest control device 109 is controlled based on the calculated variation speed of the angle of the cervical vertebrae of the driver such that the angle of the cervical vertebrae of the driver does not exceed a predetermined angle. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、車両に搭載されたシートベルトやヘッドレストの動作を制御する車両デバイス制御装置、および車両デバイス制御方法に関する。   The present invention relates to a vehicle device control apparatus and a vehicle device control method for controlling operations of a seat belt and a headrest mounted on a vehicle.

次のような車両デバイス制御装置が特許文献1によって知られている。この車両デバイス制御装置によれば、車両の衝突時に、乗員の体格に応じてエアバッグやシートベルトなどのデバイスを制御する。   The following vehicle device control apparatus is known from Patent Document 1. According to this vehicle device control device, devices such as airbags and seat belts are controlled in accordance with the occupant's physique at the time of a vehicle collision.

特開2004−338517号公報JP 2004-338517 A

しかしながら、従来の装置においては、乗員の体格に応じてエアバッグやシートベルトの動作を制御していたため、各乗員の体格に応じたデバイス制御を行う必要があり、処理が重くなるという問題が生じていた。   However, in the conventional apparatus, since the operation of the airbag and the seat belt is controlled according to the occupant's physique, it is necessary to perform device control according to each occupant's physique, which causes a problem that processing becomes heavy. It was.

本発明は、撮像手段によって乗員の側方から複数フレーム撮像された各々の画像に基づいて、乗員の頚椎角度を算出し、算出した乗員の頚椎角度の複数フレーム間における変化の状況を検出し、検出した乗員の頚椎角度の変化の状況に応じて、乗員保護装置を制御することを特徴とする。   The present invention calculates the occupant's cervical spine angle based on each image captured from the occupant's side by a plurality of frames by the imaging means, detects the change state of the calculated occupant's cervical spine angle between the multiple frames, The occupant protection device is controlled in accordance with the detected change in the cervical spine angle of the occupant.

本発明によれば、乗員の頚椎角度の変化の状況に応じて、乗員保護装置を制御するようにした。これによって、乗員保護装置の制御を行うために乗員の頚椎角度の変化の状況を検出するだけでよく、処理の負荷を低減することができる。   According to the present invention, the occupant protection device is controlled in accordance with the state of change of the cervical vertebra angle of the occupant. Accordingly, it is only necessary to detect the change of the cervical vertebra angle of the occupant in order to control the occupant protection device, and the processing load can be reduced.

図1は、本実施の形態における車両デバイス制御装置の一実施の形態の構成を示すブロック図である。車両デバイス制御装置100は車両に搭載され、車両室内に設置され運転者の側部から運転者の頭部および体部を撮像するカメラ101と、カメラ101で撮像した画像を格納する画像メモリ102と、カメラ101による撮像範囲に光を照射する投光装置103と、車両Gセンサなどの車両の衝突を検出する衝突検出装置104と、自車両の車速を検出する車速センサ105と、CPU、メモリ、およびその他周辺回路を含み、後述する種々の処理を実行する制御装置106と、制御装置104によって、後述する処理で算出される運転者の頚椎角度の時系列データを記憶する頚椎角度記憶メモリ107と、運転席のシートベルトのテンション(張力)を制御するシートベルト制御装置108と、運転席のヘッドレストの傾きを制御するヘッドレスト制御装置109とを備えている。   FIG. 1 is a block diagram showing a configuration of an embodiment of a vehicle device control apparatus in the present embodiment. A vehicle device control apparatus 100 is mounted on a vehicle and is installed in a vehicle compartment. The camera 101 captures the driver's head and body from the driver's side, and the image memory 102 stores an image captured by the camera 101. , A light projecting device 103 that irradiates light to an imaging range of the camera 101, a collision detection device 104 that detects a vehicle collision such as a vehicle G sensor, a vehicle speed sensor 105 that detects the vehicle speed of the host vehicle, a CPU, a memory, And other peripheral circuits, and a control device 106 that executes various processes to be described later, and a cervical angle storage memory 107 that stores time series data of the driver's cervical vertebra angles calculated by the control device 104 in a process that will be described later. A seat belt control device 108 for controlling the tension of the seat belt in the driver's seat and a head belt for controlling the inclination of the headrest in the driver's seat. And a dressed control unit 109.

カメラ101は、例えばCCDやCMOSなどの撮像素子を有した高速カメラであり、図2に示すように、運転車側部の例えばドアトリムに運転者側に光軸が向くように設置され、自車両の走行中に連続的に運転者の側部から運転者の頭部および体部を撮像して、各フレームごとに画像メモリ102に出力する。投光装置103は、照射する光量を複数段階に変化させることができ、図2に示すように、カメラ101の近傍に設置され、カメラ101による撮像範囲に光を照射する。   The camera 101 is a high-speed camera having an image sensor such as a CCD or a CMOS, for example. As shown in FIG. 2, the camera 101 is installed on the side of the driver vehicle, for example, on the door trim so that the optical axis faces the driver. During the driving, the driver's head and body are continuously imaged from the side of the driver and output to the image memory 102 for each frame. The light projecting device 103 can change the amount of light to be irradiated in a plurality of stages, and is installed in the vicinity of the camera 101 as shown in FIG.

なお、本実施の形態では説明の簡略化のため、カメラ101および投光装置103を運転手の側部に設置して、運転者に対してシートベルトやヘッドレストといった乗員保護装置、すなわち車両デバイスの制御を行う例について説明するが、運転者以外の乗員、例えば助手席の乗員や後部座席の乗員に対しても同様に乗員保護装置の制御を行うことが可能である。   In this embodiment, for simplification of description, the camera 101 and the light projector 103 are installed on the side of the driver, and the passenger protection device such as a seat belt or a headrest, that is, a vehicle device is provided to the driver. Although an example of performing control will be described, it is possible to similarly control the occupant protection device for passengers other than the driver, for example, passengers in the front passenger seat and passengers in the rear seat.

制御装置106は、車速センサ105からの出力に基づいて自車両が走行を開始したと判断した場合には、画像メモリ102から撮像画像の読み込みを開始し、各撮像画像に対してエッジ抽出用のフィルタを適用し二値化して、撮像画像に含まれる物体の輪郭を抽出する。これによって、例えば図3に示すように、撮像画像内から運転席のシート、および運転者の輪郭を抽出することができる。このように撮像画像内に存在する対象の輪郭を抽出した二値化画像上に、監視領域3aを設定する。この監視領域3aは、あらかじめカメラ101の設置位置や設置角度などに基づいて決定された、撮像画像内における運転者の頭部および体部が含まれる領域に対して設定される。   When the control device 106 determines that the host vehicle has started running based on the output from the vehicle speed sensor 105, the control device 106 starts reading the captured image from the image memory 102, and extracts an edge for each captured image. A filter is applied and binarized to extract the contour of the object included in the captured image. Thereby, for example, as shown in FIG. 3, the seat of the driver's seat and the contour of the driver can be extracted from the captured image. Thus, the monitoring area 3a is set on the binarized image obtained by extracting the contour of the target existing in the captured image. The monitoring area 3a is set for an area including the driver's head and body in the captured image, which is determined in advance based on the installation position and installation angle of the camera 101.

さらに、図4(a)に示すように、この監視領域3aを運転者の頭部が含まれる頭部監視領域4aと運転者の体部が含まれる体部監視領域4bとに分割する。そして、頭部監視領域4a内で抽出された運転者の頭部の輪郭(頭部領域)の長手方向の主軸の角度を運転者の頭部領域の傾きとして算出する。すなわち、図4(a)に示すように、画像水平方向に対する頭部領域の傾きθhを算出する。また、体部監視領域4b内で抽出されている運転者の体部の輪郭(体部領域)の長手方向の主軸の角度を運転者の体部領域の傾きとして算出する。すなわち、図4(b)に示すように、画像水平方向に対する体部領域の傾きθbを算出する。   Further, as shown in FIG. 4A, the monitoring area 3a is divided into a head monitoring area 4a including the driver's head and a body monitoring area 4b including the driver's body. Then, the angle of the main axis in the longitudinal direction of the contour (head region) of the driver's head extracted in the head monitoring region 4a is calculated as the inclination of the driver's head region. That is, as shown in FIG. 4A, the inclination θh of the head region with respect to the horizontal direction of the image is calculated. Further, the angle of the main axis in the longitudinal direction of the contour (body part region) of the driver's body extracted in the body part monitoring region 4b is calculated as the inclination of the driver's body region. That is, as shown in FIG. 4B, the inclination θb of the body region with respect to the image horizontal direction is calculated.

そして、図4(c)に示すように、算出した頭部領域の傾きθhと体部領域の傾きθbとの差分を算出することによって、運転者の頭部と体部とのなす角、すなわち運転者の頚椎角度θを算出して、算出した頚椎角度θを頚椎角度記憶メモリ107に記憶する。この処理をカメラ101で連続して撮像される複数フレームの画像に対して実行することによって、運転者の頚椎角度θの時系列データを得ることができる。   Then, as shown in FIG. 4C, by calculating the difference between the calculated inclination θh of the head region and the inclination θb of the body region, the angle formed by the driver's head and body portion, The driver's cervical spine angle θ is calculated, and the calculated cervical spine angle θ is stored in the cervical spine angle storage memory 107. By executing this process on a plurality of frames of images that are continuously captured by the camera 101, time-series data of the driver's cervical vertebra angle θ can be obtained.

次に、衝突検出装置103によって自車両の衝突が検出された場合には、上述した処理で算出した運転者の頚椎角度θの衝突に伴う変化を検出し、運転者の頚椎への負荷を軽減するように、シートベルト制御装置108およびヘッドレスト制御装置109を制御する。具体的には次のように処理する。   Next, when a collision of the host vehicle is detected by the collision detection device 103, a change accompanying the collision of the driver's cervical vertebra angle θ calculated by the above-described processing is detected, and the load on the driver's cervical vertebra is reduced. Thus, the seat belt control device 108 and the headrest control device 109 are controlled. Specifically, the processing is as follows.

まず、頚椎角度記憶メモリ107に記憶されている運転者の頚椎角度θの時系列データを読み込んで、フレーム間での頚椎角度θの変化速度を算出する。すなわち、頚椎角度記憶メモリ107に記憶されている頚椎角度θのフレーム間での変化量を、カメラ101のフレームレートで割ることによって、フレーム間での頚椎角度θの変化速度を算出する。   First, the time series data of the driver's cervical vertebra angle θ stored in the cervical vertebra angle memory 107 is read, and the change rate of the cervical vertebra angle θ between frames is calculated. That is, the rate of change of the cervical vertebra angle θ between frames is calculated by dividing the amount of change of the cervical vertebra angle θ stored in the cervical vertebra angle storage memory 107 between frames by the frame rate of the camera 101.

そして、自車両の衝突を検出した場合の、このフレーム間での頚椎角度θの変化速度に基づいて、運転者の頚椎角度θが所定の角度を超えて運転者の頚椎に負荷がかかるのを防止するために、次のようにシートベルト制御装置108およびヘッドレスト制御装置109を制御する。なお、本実施の形態では、人間の首(頚部)の動きの範囲は、一般的に前後方向ともに60度程度であることを加味して、運転者の運転者の頚椎角度θが±60度を超えないように、シートベルト制御装置108およびヘッドレスト制御装置109を制御するようにする。   Then, based on the change speed of the cervical vertebra angle θ between the frames when a collision of the host vehicle is detected, the driver's cervical vertebra angle θ exceeds a predetermined angle and a load is applied to the cervical vertebra of the driver. In order to prevent this, the seat belt control device 108 and the headrest control device 109 are controlled as follows. In the present embodiment, the range of movement of the human neck (neck) is generally about 60 degrees in the front-rear direction, and the driver's cervical spine angle θ is ± 60 degrees. The seat belt control device 108 and the headrest control device 109 are controlled so as not to exceed.

このために、自車両の衝突を検出した時点の運転者の頚椎角度θが、上述した変化速度で変化した場合に、所定の角度、すなわち±60度を超えるまでに要する時間を余裕時間Tとして次式(1)および(2)により算出する。なお、次式(2)において、θthは閾値としての所定の角度を表し、本実施の形態では、θth=60°とする。
∂θ/∂t=∂(θh−θb)/∂t ・・・(1)
T=(θth−|θh−θb|)∂θ/∂t ・・・(2)
For this reason, when the driver's cervical vertebra angle θ at the time of detecting the collision of the host vehicle changes at the above-described change speed, the time required to exceed a predetermined angle, that is, ± 60 degrees, is defined as a margin time T. It calculates with following Formula (1) and (2). In the following equation (2), θth represents a predetermined angle as a threshold value, and in this embodiment, θth = 60 °.
∂θ / ∂t = ∂ (θh−θb) / ∂t (1)
T = (θth− | θh−θb |) ∂θ / ∂t (2)

さらに、シートベルト装置およびヘッドレスト装置へ指示を出してから、これらの機器が応答するまでの推定遅れ時間を加味して、シートベルト制御装置108およびヘッドレスト制御装置109への制御信号を出力するようにする。すなわち、推定遅れ時間がTdである場合には、自車両の衝突を検出した時点から余裕時間Tの推定遅れ時間Td前、すなわち自車両の衝突を検出した時点からT−Tdが経過した時点で、シートベルト制御装置108およびヘッドレスト制御装置109への制御信号を出力する。これによって、各車両デバイスの応答遅れ時間を加味した制御を行うことができる。   Furthermore, the control signals to the seat belt control device 108 and the headrest control device 109 are output in consideration of the estimated delay time from when an instruction is given to the seat belt device and the headrest device until these devices respond. To do. That is, when the estimated delay time is Td, the estimated delay time Td before the margin time T from the time when the own vehicle collision is detected, that is, when T-Td has elapsed from the time when the own vehicle collision is detected. Then, control signals to the seat belt control device 108 and the headrest control device 109 are output. Thereby, it is possible to perform control in consideration of the response delay time of each vehicle device.

次に、シートベルト制御装置108およびヘッドレスト制御装置109のそれぞれによる、シートベルトおよびヘッドレストの動作制御方法について説明する。本実施の形態では、自車両の衝突に伴って運転者が前傾する場合、すなわち運転者の頚椎角度θが前方に変化する場合には、シートベルトのテンションを緩めて運転者の頚椎角度θが前方に60度以上変化しないようにする。また、自車両の衝突に伴って、運転者が後傾する場合、すなわち運転者の頚椎角度θが後方に変化する場合には、ヘッドレストを前方に移動させて運転者の頭部を支え、運転者の頚椎角度θが後方に60度以上変化しないようにする。   Next, the operation control method of the seat belt and the headrest by the seat belt control device 108 and the headrest control device 109 will be described. In the present embodiment, when the driver leans forward in accordance with the collision of the host vehicle, that is, when the driver's cervical vertebra angle θ changes forward, the tension of the seat belt is released to reduce the driver's cervical vertebra angle θ. Should not change more than 60 degrees forward. Also, when the driver tilts backward due to the collision of the host vehicle, that is, when the driver's cervical vertebra angle θ changes backward, the headrest is moved forward to support the driver's head and drive The person's cervical spine angle θ should not be changed more than 60 degrees backward.

自車両の衝突に伴って運転者が前傾する場合には、シートベルト制御装置108は、上述した各車両デバイスの応答遅れ時間を加味した信号出力タイミングになったときに、シートベルトのテンションを上述した運転者の頚椎角度θの変化速度に合わせて徐々に緩める。例えば、運転者の頚椎角度θの変化速度と、シートベルトのテンションとを微小な時間間隔で検出を繰り返し、検出結果に基づいて、運転者の頚椎角度θが閾値として設定した60度を超えないように、シートベルトのテンションを徐々に緩めていく。   When the driver leans forward due to the collision of the host vehicle, the seat belt control device 108 adjusts the tension of the seat belt at the signal output timing taking into account the response delay time of each vehicle device described above. The driver gradually relaxes in accordance with the change speed of the driver's cervical spine angle θ. For example, the change rate of the driver's cervical vertebra angle θ and the tension of the seat belt are repeatedly detected at minute time intervals, and the driver's cervical vertebra angle θ does not exceed 60 degrees set as a threshold based on the detection result. In this way, the seat belt tension is gradually released.

なお、シートベルトのテンションを緩めるに当たっては、運転者の体部の移動速度が頭部の移動速度よりも若干遅くなるように制御することで、頚椎角度θが急激に変化した際の頚椎の過屈曲による靭帯組織の損傷を防止することができる。また、運転者の上体を保護するというシートベルト本来の役割を損なわないよう、ある一定のテンションを緩められる上限として設定しておき、それ以上は緩めないようにする。   In order to loosen the tension of the seat belt, the cervical spine excess when the cervical spine angle θ changes suddenly is controlled by controlling the movement speed of the driver's body to be slightly slower than the movement speed of the head. Damage to the ligament tissue due to bending can be prevented. In addition, a certain tension is set as an upper limit that can be loosened so that the original role of the seat belt for protecting the driver's upper body is not lost, and no further loosening is done.

また、自車両の衝突に伴って運転者が後傾する場合には、ヘッドレスト制御装置109は、運転者の頚椎角度θが後方に60度変化した位置に相当するヘッドレスト位置を推定し、上述した各車両デバイスの応答遅れ時間を加味した信号出力タイミングになったときに、ヘッドレストの位置をこの推定位置まで移動させる。これによって、運転者の頚椎角度θが後方に60度以上変化しないようにする。   When the driver tilts backward due to the collision of the host vehicle, the headrest control device 109 estimates the headrest position corresponding to the position where the driver's cervical vertebra angle θ has changed 60 degrees backward, and has been described above. When the signal output timing takes into account the response delay time of each vehicle device, the position of the headrest is moved to this estimated position. This prevents the driver's cervical spine angle θ from changing more than 60 degrees backward.

このために、運転者の頭部とヘッドレストとの間の距離を算出して運転者の頭部とヘッドレストの位置関係を検出し、この位置関係に基づいて、現在のヘッドレスト位置から、上述した推定位置に相当する位置までの距離を推定して、その距離だけヘッドレストを前方に移動させる。   For this purpose, the distance between the driver's head and the headrest is calculated to detect the positional relationship between the driver's head and the headrest, and based on this positional relationship, the above-described estimation is performed from the current headrest position. The distance to the position corresponding to the position is estimated, and the headrest is moved forward by that distance.

まず、運転者の頭部とヘッドレストとの画像上での位置関係、すなわち距離を検出するために、次のように処理を行う。すなわち、制御装置106は、カメラ101の露光タイミング、すなわちカメラ101による撮像タイミングと、投光装置103による発光タイミングとを図5に示すように制御して画像の撮像を開始する。この図5に示す例では、投光装置103を周期Tで発光した場合に、カメラ101による撮像周期を周期Tよりも短くし、例えばT/2とする。これによって、カメラ101の撮像タイミングの2回に1回の割合で、撮像と発光とが一致するタイミングと一致しないタイミングとが交互に発生するようになる。   First, in order to detect the positional relationship on the image of the driver's head and headrest, that is, the distance, the following processing is performed. That is, the control device 106 starts image capturing by controlling the exposure timing of the camera 101, that is, the imaging timing by the camera 101 and the light emission timing by the light projecting device 103 as shown in FIG. In the example shown in FIG. 5, when the light projecting device 103 emits light with a period T, the imaging period of the camera 101 is shorter than the period T, for example, T / 2. As a result, the timing at which imaging and light emission coincide with each other and the timing at which they do not coincide alternately occur at a rate of once every two imaging timings of the camera 101.

また、本実施の形態では、投光装置103の光量レベルを、例えば低、中、高の3段階に変化させることができ、図5に示した発光タイミング5aごとに、低→中→高の順で光量レベルを変化させるようにする。そして、光量レベルが低→中→高と変化する時間3T(3周期分)を1サイクルとして、自車両の走行中はこれを繰り返し行うようにする。   Further, in the present embodiment, the light amount level of the light projecting device 103 can be changed in, for example, three stages of low, medium, and high, and low → medium → high for each light emission timing 5a shown in FIG. Change the light level in order. Then, a time 3T (three cycles) in which the light amount level changes from low to medium to high is set as one cycle, and this is repeatedly performed while the host vehicle is traveling.

なお、この低、中、および高の各光量レベルは、次のような光量とする。光量レベルが低の場合の光量は、基準光量として定義され、この基準光量で光を照射した状態で撮像した撮像画像内から後述する処理で本実施の形態で基準位置とするヘッドレストの画像内での位置が検出できるような光量とする。すなわち、撮像画像内からヘッドレストの輪郭が検出できる程度の十分な明るさが得られる光量とする。   The low, medium, and high light quantity levels are as follows. The light amount when the light amount level is low is defined as the reference light amount, and within the image of the headrest that is used as the reference position in the present embodiment in the process described later from within the captured image captured with light irradiated with this reference light amount The amount of light is such that the position can be detected. That is, the amount of light is such that a sufficient brightness is obtained so that the contour of the headrest can be detected from the captured image.

そして、光量レベルが中または高の場合の光量は、基準光量で検出可能なヘッドレストの輪郭に加えて、基準位置に対してその相対位置を検出したい対象物体の輪郭を検出することができるような光量とする。すなわち、本実施の形態では、対象物体を運転者の頭部とし、ヘッドレスト位置と運転者の頭部との位置関係を検出できるように、撮像画像内からヘッドレストの輪郭および運転者の頭部の輪郭が検出できる程度の十分な明るさが得られる光量とする。   In addition to the contour of the headrest that can be detected with the reference light amount, the light amount when the light level is medium or high can detect the contour of the target object whose relative position is to be detected with respect to the reference position. Use light intensity. That is, in this embodiment, the contour of the headrest and the driver's head are taken from the captured image so that the target object is the driver's head and the positional relationship between the headrest position and the driver's head can be detected. The amount of light is such that sufficient brightness is obtained to detect the contour.

このように、発光装置103から照射する光の光量を変化させながら画像を撮像することによって、発光タイミング5aの1サイクル期間中(3周期中)には、次の画像A〜画像Fの6枚の画像がカメラ101によって撮像されることになる。
画像A:光量レベル低で発光時の画像
画像B:発光なし状態時の画像
画像C:光量レベル中で発光時の画像
画像D:発光なし状態時の画像
画像E:光量レベル高で発光時の画像
画像F:発光なし状態時の画像
In this way, by capturing an image while changing the amount of light emitted from the light emitting device 103, during the one cycle period (three periods) of the light emission timing 5a, the next six images A to F are obtained. Are captured by the camera 101.
Image A: Image when light is emitted at low light level Image B: Image when light is not emitted Image C: Image when light is emitted while at light level Image D: Image when light is not emitted Image E: Light when level is high Image Image F: Image when no light is emitted

このように撮像した各画像において、任意の発光タイミング5aで撮像した画像とその次のタイミングで撮像した発光なし状態の画像を算出する。これによって、例えば、画像Aと画像Bとの差分画像を算出した場合には、画像Aは画像内にヘッドレストの輪郭で囲まれる領域とそれ以外の背景領域とを含む画像であり、画像Bは背景領域のみを含む画像であることから、これらの差分画像を算出することによって、背景を除去してヘッドレストの輪郭領域のみを含む画像を得ることができる。   In each image captured in this manner, an image captured at an arbitrary light emission timing 5a and an image of no light emission captured at the next timing are calculated. Thus, for example, when a difference image between the image A and the image B is calculated, the image A is an image including an area surrounded by the outline of the headrest and the other background area in the image, and the image B is Since the image includes only the background region, by calculating these difference images, it is possible to remove the background and obtain an image including only the headrest contour region.

また、画像Cと画像Dとの差分画像を算出した場合には、画像Cは画像内にヘッドレストの輪郭で囲まれる領域、運転者の頭部の輪郭で囲まれる領域、およびそれ以外の背景領域とを含む画像であり、画像Dは背景領域のみを含む画像であることから、これらの差分画像を算出することによって、背景を除去してヘッドレストの輪郭領域、および運転者の頭部の輪郭領域を含む画像を得ることができる。なお、画像Eと画像Fとの差分画像を算出した場合については、画像Cと画像Dとの差分画像を算出した場合と同様のため説明を省略する。   In addition, when the difference image between the image C and the image D is calculated, the image C includes an area surrounded by the contour of the headrest, an area surrounded by the contour of the driver's head, and other background areas. Since the image D is an image including only the background region, by calculating these difference images, the background is removed and the contour region of the headrest and the contour region of the driver's head are calculated. Can be obtained. In addition, since the case where the difference image of the image E and the image F is calculated is the same as the case where the difference image of the image C and the image D is calculated, description is abbreviate | omitted.

そして、このように算出した各差分画像に対して、エッジ抽出用のフィルタを適用し二値化して、各差分画像に含まれる輪郭領域を抽出し、抽出した輪郭領域の面積値を算出する。すなわち、画像Aと画像Bとの差分画像においては、ヘッドレストの輪郭領域を抽出して面積値を算出し、画像Cと画像Dとの差分画像においては、ヘッドレストの輪郭領域、および運転者の東部の輪郭領域を抽出して面積値を算出する。   Then, an edge extraction filter is applied to each difference image calculated in this way, and binarization is performed to extract a contour region included in each difference image, and an area value of the extracted contour region is calculated. That is, in the difference image between the image A and the image B, the contour area of the headrest is extracted to calculate the area value, and in the difference image between the image C and the image D, the contour area of the headrest and the eastern part of the driver The contour value is extracted to calculate the area value.

上述した輪郭領域の面積値算出処理を各差分画像に対して実行し、連続して算出される差分画像間の面積値の変化量が所定の閾値以上となるか否かを判定していく。ここで、所定の閾値には、連続して算出される差分画像において、各差分画像に含まれる輪郭の数が変化したと判定可能な値が設定される。例えば、本実施の形態では、画像Aと画像Bとの差分画像においてはヘッドレストの輪郭領域の輪郭領域のみが抽出されたのに対して、画像Cと画像Dとの差分画像においては、ヘッドレストの輪郭領域、および運転者の頭部の輪郭領域が抽出されているため、これらの抽出された輪郭領域数の変化を検出することができるような閾値が設定される。   The area value calculation process of the contour region described above is executed for each difference image, and it is determined whether or not the amount of change in the area value between the difference images calculated continuously is equal to or greater than a predetermined threshold value. Here, a value that can be determined that the number of contours included in each difference image has changed in the difference image calculated continuously is set as the predetermined threshold. For example, in the present embodiment, only the contour region of the headrest contour region is extracted in the difference image between the image A and the image B, whereas in the difference image between the image C and the image D, the headrest region is extracted. Since the contour region and the contour region of the driver's head are extracted, a threshold value is set so that a change in the number of extracted contour regions can be detected.

そして、連続して算出される差分画像間の面積値の変化量が所定の閾値以上になったと判定した場合には、差分画像に含まれる輪郭の数が変化した、すなわち、その差分画像内には、基準位置とするヘッドレストの輪郭と、基準位置との位置関係を判定する対象物体としての運転者の頭部の輪郭とが含まれるようになったと判断する。そして、このヘッドレストの輪郭と運転者の頭部の輪郭とを含む差分画像に対して、次に説明する領域間最近接距離算出処理を行って、運転者の頭部とヘッドレストとの間の距離を算出する。   And when it determines with the amount of change of the area value between the difference images calculated continuously becoming more than a predetermined threshold, the number of the contours contained in the difference image changed, that is, in the difference image Determines that the contour of the headrest as the reference position and the contour of the driver's head as a target object for determining the positional relationship with the reference position are included. Then, the difference between the headrest contour and the driver's head contour is subjected to an inter-region closest distance calculation process described below, and the distance between the driver's head and the headrest is calculated. Is calculated.

領域間最近接距離算出処理では、差分画像内で抽出された2つの輪郭、すなわち図3に示すようなヘッドレストの輪郭および運転者の頭部の輪郭が最も近接している部分の距離3bを算出する。図6は、画像内に存在する2つの輪郭間の距離の算出方法を模式的に示した図である。この図6に示す処理をヘッドレストの輪郭および運転者の頭部の輪郭に対して行うことによって、ヘッドレストの輪郭および運転者の頭部の輪郭が最も近接している部分の距離3bを算出することが可能になる。   In the closest distance calculation process between areas, the distance 3b of the portion where the two contours extracted in the difference image, that is, the contour of the headrest and the contour of the driver's head as shown in FIG. To do. FIG. 6 is a diagram schematically showing a method for calculating the distance between two contours existing in an image. By performing the processing shown in FIG. 6 on the contour of the headrest and the contour of the driver's head, the distance 3b of the portion where the contour of the headrest and the contour of the driver's head are closest is calculated. Is possible.

この図6では、図6(a)に示すように、差分画像内に輪郭6aおよび6bとが存在しており、この輪郭6aと輪郭6bとの間の距離を算出する場合の具体例を示している。まず、図6(a)に示す差分画像内から抽出された2つの輪郭のそれぞれをその輪郭で囲まれる範囲が1画素に縮退するまで縮小させていく。これによって、図6(b)に示す縮退後の画像を得ることができる。   In FIG. 6, as shown in FIG. 6A, contours 6a and 6b exist in the difference image, and a specific example in the case of calculating the distance between the contour 6a and the contour 6b is shown. ing. First, each of the two outlines extracted from the difference image shown in FIG. 6A is reduced until the range surrounded by the outlines is reduced to one pixel. As a result, a degenerated image shown in FIG. 6B can be obtained.

そして、この縮退後の画像内において、アクティブな画素を抽出し、その抽出したアクティブな画素の数を縮退前の差分画像内に含まれていた輪郭で囲まれた領域の数、すなわち輪郭数として検出する。これによって、図6(b)に示す縮退後の画像により縮退前の図6(a)に示す差分画像内における輪郭数(領域数)は2つであると検出することができる。   Then, in this image after degeneration, active pixels are extracted, and the number of extracted active pixels is set as the number of regions surrounded by the contours included in the difference image before degeneration, that is, the number of contours. To detect. Accordingly, it is possible to detect that the number of contours (number of regions) in the difference image shown in FIG. 6A before the reduction is two from the image after the reduction shown in FIG. 6B.

次に、図6(a)に示した差分画像に対して、差分画像内に含まれる各輪郭を1画素膨張させる。すなわち図6(c)に示すように、輪郭6aおよび6bを輪郭の外側に向けて1画素分拡大する。そして、この輪郭を1画素膨張させた後の画像に対して、図6(b)で上述したように、各輪郭を1画素に縮退するまで縮小させていく。これによって、図6(d)に示すように、各輪郭を1画素膨張させた差分画像の縮退後の画像を得ることができ、このときのアクティブな画素を抽出することによって、各輪郭を1画素膨張させた差分画像内に存在する輪郭数を検出することができる。   Next, each contour included in the difference image is expanded by one pixel with respect to the difference image shown in FIG. That is, as shown in FIG. 6C, the outlines 6a and 6b are enlarged by one pixel toward the outside of the outline. Then, as described above with reference to FIG. 6B, each contour is reduced until it is reduced to one pixel with respect to the image after the outline is expanded by one pixel. As a result, as shown in FIG. 6D, it is possible to obtain a reduced image of the differential image obtained by expanding each contour by one pixel. By extracting the active pixel at this time, each contour is set to 1 It is possible to detect the number of contours present in the differential image that has undergone pixel expansion.

この処理を、各輪郭を1画素ずつ膨張させながら繰り返し行い、差分画像内から検出される輪郭数の数が変化するまで継続する。例えば、図6(e)に示す各画素をn−1画素膨張させた差分画像においては、図6(f)に示すように輪郭数が2つであったときに、図6(g)に示す各画素をn画素膨張させた差分画像においては、図6(h)に示すように輪郭数が1つに変化した場合には、その時点で輪郭数の検出処理を終了する。この図6(g)および(h)に示す例では、差分画像内に存在する輪郭6aと輪郭6bとを1画素ずつ膨張させていき、その結果、n画素膨張させた時点で、2つの輪郭が接して結合したことによって、縮退後の画像において輪郭数は1と検出されていることを示している。   This process is repeated while expanding each contour pixel by pixel, and is continued until the number of contours detected from within the difference image changes. For example, in the differential image obtained by expanding each pixel shown in FIG. 6E by n−1 pixels, when the number of contours is two as shown in FIG. 6F, the difference image shown in FIG. In the difference image in which each pixel shown is expanded by n pixels, as shown in FIG. 6H, when the number of contours changes to one, the contour number detection processing ends at that point. In the example shown in FIGS. 6G and 6H, the contour 6a and the contour 6b existing in the difference image are expanded one pixel at a time, and as a result, when two pixels are expanded, the two contours are expanded. Indicates that the number of contours is detected as 1 in the degenerated image.

したがって、2つの輪郭6aおよび6bをn画素ずつ拡大したことによって、2つの輪郭が接したことから、各輪郭のそれぞれの膨張させた画素の合計、すなわち2n画素を2つの輪郭間の距離として算出することができる。   Therefore, since the two contours 6a and 6b are enlarged by n pixels, the two contours are in contact with each other, so that the sum of each expanded pixel of each contour, that is, 2n pixels is calculated as the distance between the two contours. can do.

上述した処理をヘッドレストの輪郭と運転者の頭部の輪郭とを含む差分画像に対して実行することによって、2つの輪郭間の距離を算出することができる。そして、算出したヘッドレストの輪郭と運転者の頭部の輪郭との間の距離に基づいて、運転者の頚椎角度θが後方に60度変化する位置に相当するヘッドレスト位置を推定して、その位置までヘッドレスト位置を移動させることによって、運転者の頚椎角度θが後方に60度以上変化しないようにすることができ、運転者の頚椎への負荷を低減することができる。   The distance between the two contours can be calculated by performing the above-described processing on the difference image including the contour of the headrest and the contour of the driver's head. Then, based on the calculated distance between the headrest contour and the contour of the driver's head, the headrest position corresponding to the position where the driver's cervical vertebra angle θ changes 60 degrees backward is estimated. By moving the headrest position to the end, the driver's cervical spine angle θ can be prevented from changing more than 60 degrees backward, and the load on the driver's cervical spine can be reduced.

図7は、本実施の形態における車両デバイス制御装置100の処理を示すフローチャートである。図7に示す処理は、車速センサ105からの出力に基づいて、自車両が走行を開始したと判断した場合に起動するプログラムとして制御装置106により実行される。   FIG. 7 is a flowchart showing processing of the vehicle device control apparatus 100 in the present embodiment. The processing shown in FIG. 7 is executed by the control device 106 as a program to be started when it is determined that the host vehicle has started running based on the output from the vehicle speed sensor 105.

ステップS10において、画像メモリ102からの画像の読み込みを開始してステップS20へ進む。ステップS20では、撮像画像に対してエッジ抽出用のフィルタを適用し二値化して、撮像画像に含まれる物体の輪郭を抽出する。その後、ステップS30へ進み、上述したように二値化画像上に、監視領域3aを設定し、さらに監視領域3aを運転者の頭部が含まれる頭部監視領域4aと運転者の体部が含まれる体部監視領域4bとに分割する。そして、頭部監視領域4aおよび体部監視領域4bのそれぞれから、頭部領域の傾きθhおよび体部領域の傾きθbを算出して、運転者の頚椎角度θを算出する。その後、ステップS40へ進む。   In step S10, reading of an image from the image memory 102 is started, and the process proceeds to step S20. In step S20, an edge extraction filter is applied to the captured image and binarized to extract the contour of the object included in the captured image. Thereafter, the process proceeds to step S30, where the monitoring area 3a is set on the binarized image as described above, and the monitoring area 3a includes the head monitoring area 4a including the driver's head and the driver's body part. It is divided into the body part monitoring area 4b included. Then, the inclination θh of the head region and the inclination θb of the body region are calculated from the head monitoring region 4a and the body monitoring region 4b, respectively, and the driver's cervical vertebra angle θ is calculated. Thereafter, the process proceeds to step S40.

ステップS40では、衝突検出装置103によって自車両の衝突が検出されたか否かを判断する。その結果、自車両の衝突が検出されたと判断した場合には、ステップS50へ進む。ステップS50では、頚椎角度記憶メモリ107に記憶されている運転者の頚椎角度θの時系列データを読み込んで、フレーム間での頚椎角度θの変化速度を算出する。その後、ステップS60へ進み、上述したように、自車両の衝突を検出した時点の運転者の頚椎角度θが、算出した変化速度で変化した場合に、所定の角度を超えるまでの余裕時間Tを式(1)および(2)により算出する。また、シートベルト装置、ヘッドレスト装置の応答遅れ時間Tdを算出する。その後、ステップS70へ進む。   In step S40, it is determined whether or not a collision of the host vehicle has been detected by the collision detection device 103. As a result, if it is determined that a collision of the host vehicle has been detected, the process proceeds to step S50. In step S50, the time-series data of the cervical vertebra angle θ of the driver stored in the cervical vertebra angle storage memory 107 is read, and the change speed of the cervical vertebra angle θ between frames is calculated. Thereafter, the process proceeds to step S60, and as described above, when the driver's cervical vertebra angle θ at the time of detecting the collision of the host vehicle changes at the calculated change speed, the margin time T until the predetermined angle is exceeded is set. It calculates by Formula (1) and (2). Further, the response delay time Td of the seat belt device and the headrest device is calculated. Thereafter, the process proceeds to step S70.

ステップS70では、運転者の頚椎角度の変化方向に基づいて、運転者が衝突に伴って前傾を開始しているか、あるいは後傾を開始しているかを判断する。その結果、運転者が前傾を開始していると判断した場合には、ステップS80へ進んで、シートベルト制御装置108を制御し、図8で後述するシートベルト制御処理を実行して処理を終了する。一方、運転者が後傾を開始していると判断した場合には、ステップS90へ進んで、ヘッドレスト制御装置109を制御し、図9で後述するヘッドレスト制御処理を実行して処理を終了する。   In step S70, based on the change direction of the cervical spine angle of the driver, it is determined whether the driver has started forward tilting or has started backward tilting due to the collision. As a result, if it is determined that the driver has started to lean forward, the process proceeds to step S80, the seat belt control device 108 is controlled, and the seat belt control process described later in FIG. finish. On the other hand, if it is determined that the driver has started to tilt backward, the process proceeds to step S90, the headrest control device 109 is controlled, a headrest control process described later in FIG. 9 is executed, and the process is terminated.

図8は、図7のステップS80で実行されるシートベルト制御処理の流れを示すフローチャートである。ステップS81において、上述したシートベルト装置の応答遅れ時間を加味した信号出力タイミングになったか否かを判断する。信号出力タイミングになったと判断した場合には、ステップS82へ進む。ステップS82では、上述したように、運転者の頚椎角度θの変化速度に合わせて、シートベルトのテンションを徐々に緩める。その後、ステップS83へ進む。   FIG. 8 is a flowchart showing the flow of the seat belt control process executed in step S80 of FIG. In step S81, it is determined whether or not the signal output timing has taken into account the response delay time of the seat belt device described above. If it is determined that the signal output timing has come, the process proceeds to step S82. In step S82, as described above, the tension of the seat belt is gradually released in accordance with the changing speed of the driver's cervical vertebra angle θ. Thereafter, the process proceeds to step S83.

ステップS83では、上述したように、シートベルトのテンションが、運転者の上体を保護するというシートベルト本来の役割を損なわないように設定された、一定の上限に到達したか否かを判断する。その結果、シートベルトのテンションが上限まで緩められたと判断した場合には、ステップS84へ進む。ステップS84では、上限まで緩められたシートベルトのテンションを保持して、図7に示す処理に復帰する。   In step S83, as described above, it is determined whether or not the tension of the seat belt has reached a certain upper limit set so as not to impair the original role of the seat belt for protecting the upper body of the driver. . As a result, when it is determined that the tension of the seat belt has been relaxed to the upper limit, the process proceeds to step S84. In step S84, the tension of the seat belt loosened to the upper limit is held, and the process returns to the process shown in FIG.

図9は、図7のステップS90で実行されるヘッドレスト制御処理の流れを示すフローチャートである。ステップS91において、上述したヘッドレスト装置の応答遅れ時間を加味した信号出力タイミングになったか否かを判断する。信号出力タイミングになったと判断した場合には、ステップS92へ進む。ステップS92では、上述したように、カメラ101による撮像タイミングと、投光装置103による発光タイミングとを図5に示すように制御して、画像の撮像を開始する。その後、ステップS93へ進む。   FIG. 9 is a flowchart showing the flow of the headrest control process executed in step S90 of FIG. In step S91, it is determined whether or not the signal output timing has taken into account the response delay time of the headrest device described above. If it is determined that the signal output timing has come, the process proceeds to step S92. In step S92, as described above, the imaging timing by the camera 101 and the light emission timing by the light projecting device 103 are controlled as shown in FIG. Thereafter, the process proceeds to step S93.

ステップS93では、上述したように、任意の発光タイミング5aで撮像した画像とその次のタイミングで撮像した発光なし状態の画像を算出する。その後、ステップS94へ進み、差分画像内からヘッドレストの輪郭と運転者の頭部の輪郭とを抽出したか否かを判断する。その結果、ヘッドレストの輪郭と運転者の頭部の輪郭とを抽出したと判断した場合には、ステップS95へ進む。   In step S93, as described above, an image captured at an arbitrary light emission timing 5a and an image of no light emission captured at the next timing are calculated. Then, it progresses to step S94 and it is judged whether the outline of a headrest and the outline of a driver | operator's head were extracted from the difference image. As a result, if it is determined that the contour of the headrest and the contour of the driver's head have been extracted, the process proceeds to step S95.

ステップS95では、図6で上述したように、差分画像内に含まれるヘッドレストの輪郭と運転者の頭部の輪郭とを1画素に縮退するまで縮小させ、差分画像内に存在する輪郭(領域)の数を検出する。その後、ステップS96へ進み、上述したように、検出した輪郭数が、各領域を1画素膨張させる前の輪郭数から変化したか否かを判断する。その結果、輪郭数が変化しないと判断した場合には、ステップS97へ進み、差分画像内に含まれる各輪郭を1画素膨張させて、ステップS95へ戻る。これに対して、輪郭数が変化したと判断した場合には、ステップS98へ進む。   In step S95, as described above with reference to FIG. 6, the contour of the headrest and the contour of the driver's head included in the difference image are reduced until they are reduced to one pixel, and the contour (region) existing in the difference image is present. Detect the number of Thereafter, the process proceeds to step S96, and as described above, it is determined whether or not the detected number of contours has changed from the number of contours before each region is expanded by one pixel. As a result, when it is determined that the number of contours does not change, the process proceeds to step S97, each contour included in the difference image is expanded by one pixel, and the process returns to step S95. On the other hand, if it is determined that the number of contours has changed, the process proceeds to step S98.

ステップS98では、上述した領域間最近接距離算出処理を実行して、輪郭数が変化した時点における各輪郭のそれぞれの膨張させた画素の合計、すなわち2n画素を2つの輪郭間の距離として算出する。その後、ステップS99へ進み、算出したヘッドレストの輪郭と運転者の頭部の輪郭との間の距離に基づいて、運転者の頚椎角度θが後方に60度変化する位置に相当するヘッドレスト位置を推定する。その後、ステップS100へ進み、推定した位置までヘッドレスト位置を移動させて、運転者の頚椎角度θが後方に60度以上変化しないように制御し、図7に示す処理に復帰する。   In step S98, the closest distance calculation process between the regions described above is executed, and the sum of the expanded pixels of each contour at the time when the number of contours changes, that is, 2n pixels, is calculated as the distance between the two contours. . Thereafter, the process proceeds to step S99, and the headrest position corresponding to the position where the driver's cervical spine angle θ changes 60 degrees backward is estimated based on the calculated distance between the headrest contour and the driver's head contour. To do. Thereafter, the process proceeds to step S100, the headrest position is moved to the estimated position, and the control is performed so that the driver's cervical vertebra angle θ does not change backward by 60 degrees or more, and the process returns to the process shown in FIG.

以上説明した本実施の形態によれば、以下のような作用効果を得ることができる。
(1)運転者の側方から撮像した画像に基づいて運転者の頚椎角度θを算出し、自車両の衝突が検出された場合に、運転者の頚椎角度θが、±60度の範囲を超えないように、シートベルトおよびヘッドレストを制御するようにした。これによって、自車両が衝突したときでも、運転者の頚椎角度θが一般的な人間の首の動く範囲である60度以上変化しないようにすることができ、運転者の頚椎への負荷を低減することができる。
According to the present embodiment described above, the following operational effects can be obtained.
(1) The driver's cervical spine angle θ is calculated based on an image captured from the side of the driver, and when a collision of the host vehicle is detected, the driver's cervical spine angle θ falls within a range of ± 60 degrees. The seat belt and headrest were controlled so as not to exceed. As a result, even when the host vehicle collides, the driver's cervical vertebra angle θ can be prevented from changing by 60 degrees or more, which is a general movement range of the human neck, and the load on the cervical vertebra of the driver is reduced. can do.

(2)衝突によって運転者が前傾する場合には、運転者の頚椎角度θの変化速度に合わせてシートベルトのテンションを徐々に緩めるようにした。これによって、運転者はシートベルトに押さえつけられることなく体部を前傾させることができ、頭部のみが前傾して頚椎を損傷することを防止することができる。 (2) When the driver leans forward due to a collision, the tension of the seat belt is gradually relaxed in accordance with the changing speed of the driver's cervical vertebra angle θ. As a result, the driver can tilt the body forward without being pressed against the seat belt, and only the head can be prevented from tilting forward and damaging the cervical spine.

(3)また、シートベルトのテンションは、ある一定のテンションを上限として、それ以上は緩めないようにした。これによって、運転者の上体を保護するというシートベルと本来の役割を損なうことなく、運転者の頚椎への負荷を低減することができる。 (3) Also, the tension of the seat belt is set so that it does not loosen beyond a certain tension. Thus, the load on the cervical spine of the driver can be reduced without impairing the original function of the seat bell that protects the upper body of the driver.

(4)衝突によって運転者が後傾する場合には、運転者の頚椎角度θが後方に60度変化する位置に相当するヘッドレスト位置を推定し、当該推定位置にヘッドレストを移動するようにした。これによって、運転者の頭部をヘッドレストで支えて、運転者の頚椎が後方に60度変化するのを防ぐことができ、運転者の頚椎への負荷を低減することができる。 (4) When the driver tilts backward due to a collision, the headrest position corresponding to a position where the driver's cervical vertebra angle θ changes 60 degrees backward is estimated, and the headrest is moved to the estimated position. As a result, the driver's head can be supported by the headrest, and the driver's cervical vertebra can be prevented from changing backward by 60 degrees, and the load on the driver's cervical vertebra can be reduced.

(5)差分画像内における運転者の頭部の輪郭とヘッドレストの輪郭との間の距離を算出するために、差分画像内に含まれる各輪郭を1画素に縮退するまで縮小して、そのときのアクティブな画素の数を差分画像内に存在する輪郭数として検出した。そして、差分画像に含まれる各輪郭を1画素ずつ膨張させて、検出される輪郭数が変化した時点の膨張させた画素数に基づいて、差分画像内における運転者の頭部の輪郭とヘッドレストの輪郭との間の距離を算出するようにした。これによって、車両内に運転者の頭部とヘッドレストとの間の距離を計測する特別な計測機器を設置する必要がなく、コスト的に有利となる。 (5) In order to calculate the distance between the contour of the head of the driver and the contour of the headrest in the difference image, each contour included in the difference image is reduced to one pixel and then reduced. The number of active pixels was detected as the number of contours present in the difference image. Then, each contour included in the difference image is expanded one pixel at a time, and based on the number of expanded pixels when the detected number of contours changes, the contour of the driver's head and the headrest in the difference image The distance between the contours was calculated. This eliminates the need to install a special measuring device for measuring the distance between the driver's head and the headrest in the vehicle, which is advantageous in terms of cost.

(6)自車両の衝突を検出した時点の運転者の頚椎角度θが、算出した変化速度で変化した場合に±60度を超えるまでの余裕時間Tを算出し、さらにシートベルト装置およびヘッドレスト装置の各車両デバイスへ指示を出してから、これらの車両デバイスが応答するまでの応答遅れ時間を加味して、シートベルト制御装置108およびヘッドレスト制御装置109への制御信号の出力タイミングを決定するようにした。これによって、運転者の頚椎角度の変化速度および各車両デバイスの応答遅れ時間を加味して、最適な信号出力のタイミングを決定することができる。 (6) When the driver's cervical vertebra angle θ at the time of detecting a collision of the host vehicle changes at the calculated change speed, a margin time T until it exceeds ± 60 degrees is calculated, and further, a seat belt device and a headrest device The output timing of the control signal to the seat belt control device 108 and the headrest control device 109 is determined in consideration of the response delay time until the vehicle devices respond after giving an instruction to each of the vehicle devices. did. Thus, the optimum signal output timing can be determined in consideration of the change speed of the driver's cervical spine angle and the response delay time of each vehicle device.

―変形例―
なお、上述した実施の形態の車両デバイス制御装置は、以下のように変形することもできる。
(1)上述した実施の形態では、運転者の頭部領域の傾きθhおよび体部領域の傾きθbを算出するに当たって、転者の頭部の輪郭の長手方向、および運転者の体部の輪郭の長手方向をそれぞれの主軸とし、その傾きを算出する例について説明した。しかしこれに限定されず、例えば、上述した図6(b)の各輪郭を1画素に縮退するまで縮小したときのアクティブな画素を、各輪郭の重心として検出し、重心を原点としたときのx軸およびy軸についての2次モーメントμ11、μ20、μ02に基づいて、主軸の傾きを算出してもよい。
-Modification-
In addition, the vehicle device control apparatus of embodiment mentioned above can also be deform | transformed as follows.
(1) In the above-described embodiment, in calculating the inclination θh of the driver's head region and the inclination θb of the body region, the longitudinal direction of the contour of the driver's head and the contour of the driver's body The example in which the longitudinal direction of each is the principal axis and the inclination is calculated has been described. However, the present invention is not limited to this. For example, the active pixel when the respective contours in FIG. 6B described above are reduced to one pixel is detected as the centroid of each contour, and the centroid is used as the origin. The inclination of the main axis may be calculated based on the secondary moments μ11, μ20, and μ02 about the x axis and the y axis.

すなわち、μ11、μ20、μ02は、次式(3)〜(5)で算出され、このときの原点(重心)を通る慣性主軸の傾きθは、式(6)によって算出される。なお、次式(3)〜(5)において、f(i,j)は座標(i,j)における画素値を表す。

Figure 2007022428
Figure 2007022428
Figure 2007022428
Figure 2007022428
That is, μ11, μ20, and μ02 are calculated by the following equations (3) to (5), and the inclination θ of the inertial main axis that passes through the origin (center of gravity) at this time is calculated by equation (6). In the following formulas (3) to (5), f (i, j) represents a pixel value at coordinates (i, j).
Figure 2007022428
Figure 2007022428
Figure 2007022428
Figure 2007022428

(2)上述した実施の形態では、上述した図6に示す方法により、差分画像内に存在する2つの輪郭間の距離を算出する例について説明した。しかしこれに限定されず、例えば、図10に示すように、上述した変形例(1)と同様に、各輪郭の重心10aおよび10bを算出し、それぞれの重臣10aおよび10bを直線と、それぞれの輪郭の交点間距離10cを2つの輪郭菅野距離として算出してもよい。 (2) In the above-described embodiment, the example in which the distance between the two contours existing in the difference image is calculated by the method shown in FIG. However, the present invention is not limited to this. For example, as shown in FIG. 10, the center of gravity 10a and 10b of each contour is calculated as in the modification (1) described above. The distance 10c between the intersections of the contours may be calculated as two contour saddle distances.

(3)上述した実施の形態では、自車両の衝突を検出した場合に、運転者の頚椎に負荷をかけないように乗員保護装置、すなわちシートベルトあるいはヘッドレストを制御する例について説明した。しかしこれに限定されず、衝突を検出しなくても、車両が大幅に揺れたことを検出した場合や、急ブレーキや急加速を検出した場合など、運転者の頚椎に負荷がかかる状況を検出した場合に、上述した処理を実行してシートベルトあるいはヘッドレストを制御するようにしてもよい。また、車両の挙動に関わらず、車両の走行中は常に運転者の頚椎角度の変化の状況を監視して、シートベルトあるいはヘッドレストを制御するようにしてもよい。 (3) In the above-described embodiment, the example in which the occupant protection device, that is, the seat belt or the headrest is controlled so as not to apply a load to the driver's cervical spine when the collision of the host vehicle is detected has been described. However, the present invention is not limited to this, and even if a collision is not detected, a situation in which the driver's cervical spine is loaded, such as when the vehicle is shaken significantly, or when sudden braking or acceleration is detected, is detected. In this case, the above-described processing may be executed to control the seat belt or the headrest. Further, regardless of the behavior of the vehicle, the seat belt or the headrest may be controlled by always monitoring the change of the cervical vertebra angle of the driver while the vehicle is running.

(4)上述した実施の形態では、車間デバイス制御装置100を車両に搭載する例について説明したが、これに限定されず、その他の移動体に搭載するようにしてもよい。 (4) In the above-described embodiment, the example in which the inter-vehicle device control apparatus 100 is mounted on the vehicle has been described. However, the present invention is not limited to this, and may be mounted on another moving body.

なお、本発明の特徴的な機能を損なわない限り、本発明は、上述した実施の形態における構成に何ら限定されない。   Note that the present invention is not limited to the configurations in the above-described embodiments as long as the characteristic functions of the present invention are not impaired.

特許請求の範囲の構成要素と実施の形態との対応関係について説明する。カメラ101は撮像手段に、制御装置106は頚椎角度算出手段、変化速度算出手段、および制御手段に相当する。なお、以上の説明はあくまでも一例であり、発明を解釈する際、上記の実施形態の記載事項と特許請求の範囲の記載事項の対応関係に何ら限定も拘束もされない。   The correspondence between the constituent elements of the claims and the embodiment will be described. The camera 101 corresponds to imaging means, and the control device 106 corresponds to cervical vertebra angle calculating means, change speed calculating means, and control means. The above description is merely an example, and when interpreting the invention, there is no limitation or restriction on the correspondence between the items described in the above embodiment and the items described in the claims.

本実施の形態における車両デバイス制御装置の一実施の形態の構成を示すブロック図である。It is a block diagram which shows the structure of one Embodiment of the vehicle device control apparatus in this Embodiment. カメラ101および投光装置103の設置例を示す図である。It is a figure which shows the example of installation of the camera 101 and the light projection apparatus 103. FIG. 撮像画像内から運転席のシート、および運転者の輪郭を抽出して、監視領域3aを設定した場合の具体例を示す図である。It is a figure which shows the specific example at the time of extracting the seat of a driver's seat and the driver | operator's outline from the captured image, and setting the monitoring area | region 3a. 運転者の頚椎角度θの算出例を模式的に示す図である。It is a figure which shows typically the calculation example of a driver | operator's cervical-vertebra angle (theta). カメラ101による撮像タイミングと投光装置103の発光タイミングの具体例を示す図である。It is a figure which shows the specific example of the imaging timing by the camera 101, and the light emission timing of the light projection apparatus 103. FIG. 画像内に存在する2つの輪郭間の距離の算出方法を模式的に示した図である。It is the figure which showed typically the calculation method of the distance between the two outlines which exist in an image. 車両デバイス制御装置100の処理を示すフローチャート図である。FIG. 5 is a flowchart showing processing of the vehicle device control apparatus 100. シートベルト制御処理の流れを示すフローチャート図である。It is a flowchart figure which shows the flow of a seatbelt control process. ヘッドレスト制御処理の流れを示すフローチャート図である。It is a flowchart figure which shows the flow of a headrest control process. 変形例(2)における画像内に存在する2つの輪郭間の距離の算出方法を模式的に示した図である。It is the figure which showed typically the calculation method of the distance between the two outlines which exist in the image in a modification (2).

符号の説明Explanation of symbols

100 車両デバイス制御装置100
101 カメラ
102 画像メモリ
103 投光装置
104 衝突検出装置
105 車速センサ
106 制御装置
107 頚椎角度記憶メモリ
108 シートベルト制御装置
109 ヘッドレスト制御装置
100 vehicle device control apparatus 100
DESCRIPTION OF SYMBOLS 101 Camera 102 Image memory 103 Light projection apparatus 104 Collision detection apparatus 105 Vehicle speed sensor 106 Control apparatus 107 Cervical vertebra angle memory 108 Seat belt control apparatus 109 Headrest control apparatus

Claims (7)

撮像手段によって乗員の側方から複数フレーム撮像された各々の画像に基づいて、乗員の頚椎角度を算出する頚椎角度算出手段と、
前記頚椎角度算出手段で算出した前記乗員の頚椎角度の複数フレーム間における変化の状況を検出する頚椎角度変化検出手段と、
前記頚椎角度変化検出手段で検出した前記乗員の頚椎角度の変化の状況に応じて、乗員保護装置を制御する制御手段とを備えることを特徴とする車両デバイス制御装置。
A cervical vertebra angle calculating means for calculating the cervical vertebra angle of the occupant based on each image captured from the side of the occupant by the imaging means;
Cervical spine angle change detecting means for detecting a change state between a plurality of frames of the cervical spine angle of the occupant calculated by the cervical spine angle calculating means;
A vehicle device control apparatus comprising: control means for controlling an occupant protection device in accordance with a change in the cervical vertebra angle of the occupant detected by the cervical vertebra angle change detection means.
請求項1に記載の車両デバイス制御装置において、
前記頚椎角度変化検出手段は、前記乗員の頚椎角度の複数フレーム間における変化の状況として、前記乗員の頚椎角度の複数フレーム間における変化速度を算出する変化速度算出手段を含み、
前記制御手段は、前記変化速度算出手段で算出した前記乗員の頚椎角度の変化速度に基づいて、前記頚椎角度算出手段で算出した前記乗員の頚椎角度が所定角度を超えないように、乗員保護装置を制御することを特徴とする車両デバイス制御装置。
The vehicle device control apparatus according to claim 1,
The cervical vertebra angle change detection means includes a change speed calculation means for calculating a change speed between a plurality of frames of the occupant's cervical vertebra angle as a situation of change between the cervical vertebra angles of the occupant,
The control means is based on the change speed of the cervical vertebra angle of the occupant calculated by the change speed calculation means, so that the cervical vertebra angle of the occupant calculated by the cervical vertebra angle calculation means does not exceed a predetermined angle. The vehicle device control apparatus characterized by controlling.
請求項2に記載の車両デバイス制御装置において、
前記乗員保護装置はシートベルトであり、
前記制御手段は、前記頚椎角度変化検出手段で検出した前記乗員の頚椎角度の変化の状況に基づいて、乗員が前傾することを検出した場合には、前記変化速度算出手段で算出した前記乗員の頚椎角度の変化速度に応じて、前記シートベルトの張力を緩めることを特徴とする車両デバイス制御装置。
The vehicle device control apparatus according to claim 2,
The occupant protection device is a seat belt;
When the control means detects that the occupant leans forward based on the change of the cervical vertebra angle of the occupant detected by the cervical vertebra angle change detection means, the occupant calculated by the change speed calculation means A vehicle device control apparatus characterized by loosening the tension of the seat belt in accordance with the change rate of the cervical spine angle.
請求項2または3に記載の車両デバイス制御装置において、
前記乗員保護装置はヘッドレストであり、
前記制御手段は、前記頚椎角度変化検出手段で検出した前記乗員の頚椎角度の変化の状況に基づいて、乗員が後傾することを検出した場合には、前記変化速度算出手段で算出した前記乗員の頚椎角度の変化速度に基づいて、前記乗員の頚椎角度が所定角度となる位置を推定し、その推定位置に前記ヘッドレストの位置を移動することを特徴とする車両デバイス制御装置。
In the vehicle device control apparatus according to claim 2 or 3,
The occupant protection device is a headrest;
When the control means detects that the occupant tilts backward based on the change of the cervical vertebra angle of the occupant detected by the cervical vertebra angle change detection means, the occupant calculated by the change speed calculation means A vehicle device control apparatus that estimates a position at which the cervical vertebra angle of the occupant becomes a predetermined angle based on a change speed of the cervical vertebra angle, and moves the position of the headrest to the estimated position.
請求項2〜4のいずれか一項に記載の車両デバイス制御装置において、
前記制御手段は、前記変化速度算出手段で算出された前記乗員の頚椎角度の変化速度に基づいて、乗員の頚椎角度が前記所定角度となるまでに要する余裕時間、および前記乗員保護装置の応答遅れ時間を算出し、算出した前記余裕時間、および前記応答遅れ時間を加味して、前記乗員保護装置を制御することを特徴とする車両デバイス制御装置。
In the vehicle device control apparatus according to any one of claims 2 to 4,
The control means is based on the change speed of the occupant's cervical vertebra angle calculated by the change speed calculation means, and the time required for the occupant's cervical spine angle to reach the predetermined angle, and the response delay of the occupant protection device A vehicle device control apparatus that calculates time and controls the occupant protection apparatus in consideration of the calculated margin time and the response delay time.
請求項1〜5のいずれか一項に記載の車両デバイス制御装置において、
自車両の衝突を検出する衝突検出手段をさらに備え、
前記制御手段は、前記衝突検出手段で自車両の衝突を検出した場合に、前記乗員保護装置を制御することを特徴とする車両デバイス制御装置。
In the vehicle device control apparatus according to any one of claims 1 to 5,
It further comprises a collision detection means for detecting a collision of the host vehicle,
The vehicle device control apparatus, wherein the control means controls the occupant protection device when a collision of the host vehicle is detected by the collision detection means.
撮像手段によって乗員の側方から複数フレーム撮像された各々の画像に基づいて、乗員の頚椎角度を算出し、
算出した前記乗員の頚椎角度の複数フレーム間における変化の状況を検出し、
検出した前記乗員の頚椎角度の変化の状況に応じて、乗員保護装置を制御することを特徴とする車両デバイス制御方法。
The cervical spine angle of the occupant is calculated based on each image captured from the occupant's side by a plurality of frames by the imaging means,
Detecting the situation of change between a plurality of frames of the calculated cervical vertebra angle of the occupant,
A vehicle device control method, comprising: controlling an occupant protection device according to a detected change in the cervical vertebra angle of the occupant.
JP2005209977A 2005-07-20 2005-07-20 Vehicle device control device and vehicle device control method Withdrawn JP2007022428A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005209977A JP2007022428A (en) 2005-07-20 2005-07-20 Vehicle device control device and vehicle device control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005209977A JP2007022428A (en) 2005-07-20 2005-07-20 Vehicle device control device and vehicle device control method

Publications (1)

Publication Number Publication Date
JP2007022428A true JP2007022428A (en) 2007-02-01

Family

ID=37783735

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005209977A Withdrawn JP2007022428A (en) 2005-07-20 2005-07-20 Vehicle device control device and vehicle device control method

Country Status (1)

Country Link
JP (1) JP2007022428A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017205368A (en) * 2016-05-20 2017-11-24 マツダ株式会社 Driver state detector
JP2019170623A (en) * 2018-03-28 2019-10-10 マツダ株式会社 Driver state determination device
JP2019189123A (en) * 2018-04-27 2019-10-31 株式会社Subaru Occupant protection device
US11491951B2 (en) 2018-04-27 2022-11-08 Subaru Corporation Occupant protection device

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017205368A (en) * 2016-05-20 2017-11-24 マツダ株式会社 Driver state detector
JP2019170623A (en) * 2018-03-28 2019-10-10 マツダ株式会社 Driver state determination device
JP7102850B2 (en) 2018-03-28 2022-07-20 マツダ株式会社 Driver status judgment device
JP2019189123A (en) * 2018-04-27 2019-10-31 株式会社Subaru Occupant protection device
US10953829B2 (en) 2018-04-27 2021-03-23 Subaru Corporation Occupant protection device
US11491951B2 (en) 2018-04-27 2022-11-08 Subaru Corporation Occupant protection device

Similar Documents

Publication Publication Date Title
JP7003612B2 (en) Anomaly detection device and anomaly detection program
EP3169051A1 (en) Imaging system and operating method thereof
US10561356B2 (en) Driver&#39;s physical condition detection device and method
WO2016199345A1 (en) Road surface display device
KR20010005883A (en) Occupant type and position detection system
JP2005300315A (en) Object detection device
JP2009205386A (en) In-vehicle camera system and control method thereof
WO2015125299A1 (en) Local location computation device and local location computation method
JP2010113506A (en) Occupant position detection device, occupant position detection method, and occupant position detection program
JP2005199814A (en) On-vehicle application selecting system, and on-vehicle application selecting device
JP2006349492A (en) On-vehicle fog determination device
JP2007022428A (en) Vehicle device control device and vehicle device control method
JP2008162430A (en) Headrest control device
WO2001039018A1 (en) System and method for detecting obstacles to vehicle motion
JP4529768B2 (en) On-vehicle object detection device and object detection method
US7311326B2 (en) Distance detecting apparatus, air bag system controlling apparatus, and method of detecting distance
JP4321410B2 (en) Object detection apparatus and method
JP2003208602A (en) Rear-side side alarm device for vehicle
JP4601376B2 (en) Image abnormality determination device
JP2008276307A (en) Video image processing apparatus, video image processing system, and navigation device
JP2010026657A (en) Driver state detection device
JP2008257399A (en) Image processor
JP4092509B2 (en) Object determination apparatus and object determination method
JP2008166926A (en) Backlight judging apparatus, and object imaging method
US11951923B2 (en) Vehicle turn-over determination apparatus and vehicle

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080527

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20090805