WO2012172865A1 - 乗員検知装置 - Google Patents

乗員検知装置 Download PDF

Info

Publication number
WO2012172865A1
WO2012172865A1 PCT/JP2012/060584 JP2012060584W WO2012172865A1 WO 2012172865 A1 WO2012172865 A1 WO 2012172865A1 JP 2012060584 W JP2012060584 W JP 2012060584W WO 2012172865 A1 WO2012172865 A1 WO 2012172865A1
Authority
WO
WIPO (PCT)
Prior art keywords
occupant
specific part
detected
detection
data
Prior art date
Application number
PCT/JP2012/060584
Other languages
English (en)
French (fr)
Inventor
小池俊博
Original Assignee
本田技研工業株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 本田技研工業株式会社 filed Critical 本田技研工業株式会社
Priority to JP2013520456A priority Critical patent/JP5636102B2/ja
Priority to EP12799913.4A priority patent/EP2706384A4/en
Priority to US14/124,049 priority patent/US20140098232A1/en
Publication of WO2012172865A1 publication Critical patent/WO2012172865A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • B60R21/01Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents
    • B60R21/015Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting the presence or position of passengers, passenger seats or child seats, and the related safety parameters therefor, e.g. speed or timing of airbag inflation in relation to occupant position or seat belt use
    • B60R21/01512Passenger detection systems
    • B60R21/0153Passenger detection systems using field detection presence sensors
    • B60R21/01538Passenger detection systems using field detection presence sensors for image processing, e.g. cameras or sensor arrays
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • B60R21/01Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents
    • B60R21/015Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting the presence or position of passengers, passenger seats or child seats, and the related safety parameters therefor, e.g. speed or timing of airbag inflation in relation to occupant position or seat belt use
    • B60R21/01512Passenger detection systems
    • B60R21/01542Passenger detection systems detecting passenger motion
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • B60R21/01Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents
    • B60R21/015Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting the presence or position of passengers, passenger seats or child seats, and the related safety parameters therefor, e.g. speed or timing of airbag inflation in relation to occupant position or seat belt use
    • B60R21/01512Passenger detection systems
    • B60R21/01552Passenger detection systems detecting position of specific human body parts, e.g. face, eyes or hands

Definitions

  • the present invention relates to an occupant detection device that detects the position of a specific part of the occupant by imaging the behavior of the occupant seated in a vehicle seat by an imaging means such as a video camera.
  • JP 2004-144512 A Japanese Patent Application Laid-Open No. 2004-144512
  • JP 2005-284975A includes a threshold value for the duration of time when a driver's line of sight is detected by a camera and the line of sight is gazing at an object (navigation device or the like).
  • a traveling safety device that determines that a person is looking aside when time is exceeded is disclosed.
  • the sunlight includes not only the infrared region, but it is impossible to completely eliminate the influence of sunlight that can have the greatest effect on the captured image.
  • the timing of turning on the auxiliary light may be delayed when the vehicle enters the tunnel.
  • an image for appropriately detecting the position of the part cannot be obtained. Note that the above-mentioned problem when a vehicle enters a tunnel or the like is the same in the travel safety device according to JP2005-284975A.
  • the present invention has been made in consideration of such a problem, and it is ensured that the occupant is surely not affected by external noise, the influence of external light, or the loss of detected data when the auxiliary light lighting is delayed.
  • An object of the present invention is to provide an occupant detection device capable of detecting a behavior.
  • An occupant detection device includes an imaging unit that is disposed in a vehicle interior and that sequentially and intermittently captures an image of a predetermined area including a seat in the vehicle interior and outputs the image sequentially.
  • Position detecting means for detecting the position of a specific part of the body of the occupant seated on the seat in the image output from the imaging means, and the position of the occupant based on the position of the specific part detected by the position detecting means
  • An occupant state detection device for detecting a state, a storage unit that sequentially stores data corresponding to the images sequentially output from the imaging unit during a predetermined period; and the position detection unit Detectability determination means for determining whether or not the position of the specific part can be detected by means of, wherein the position detection means sequentially outputs from the imaging means by the detection possibility determination means.
  • the position of the specific part is detected based on the latest image.
  • the detectability determination unit determines that the position of the specific part in the latest image cannot be detected.
  • the data corresponding to the image output from the imaging unit in the past than the latest image The position of the specific part is detected based on past data stored in a storage unit.
  • the position of the specific part (head position, etc.) cannot be detected from the latest image, the position of the specific part is detected based on the past image.
  • the past data is a first past as data corresponding to the image output from the imaging unit before the predetermined time interval with respect to the latest image among the past data stored in the storage unit.
  • the image is taken intermittently, so the storage capacity of the storage means can be reduced, and even when the position of a specific part in the latest image cannot be detected, the latest image is temporally updated. Since the position of the specific part is detected using the closest image (one before the latest image), it is possible to suppress a decrease in the detection accuracy of the specific part position.
  • the past data is the first past data and the second past data as data corresponding to the image output from the imaging means before the predetermined time interval with respect to the first past data.
  • the position detecting means detects the position of the specific part based on a change in the position of the specific part detected in the first past data and the second past data, so that the latest image Even if it is impossible to detect the position of a specific part in the image, in addition to the image closest to the latest image in time (one previous to the latest image), it is next closest to the latest image (two before the latest image). Since the position of the specific part is detected using the image, the detection accuracy of the specific part position can be improved.
  • the vehicle includes a deceleration detection unit that detects the deceleration of the vehicle, and the position detection unit determines that the position of the specific part in the latest image cannot be detected by the detection possibility determination unit.
  • the position of the specific part is detected based on the past data stored in the storage means and the deceleration detected by the deceleration detection means, so that the specific part in the case of using the past image is detected.
  • the position detection accuracy can be further improved.
  • the past data stored in the storage means represents coordinate data of the position of the specific part detected by the position detecting means or distance data between the position of the specific part and a specific part in the vehicle interior. It is numerical data, and the occupant state detecting means detects only the occupant state based on the numerical data stored in the storage means, and stores only the numerical data of the specific part position, not the image data itself. Therefore, the storage capacity of the storage means can be reduced, and the operation load can also be reduced.
  • the position of the occupant is detected using the past image.
  • the effect of being able to reliably detect the occupant's behavior without being affected by the detection data loss or the like when the vehicle is delayed is achieved.
  • FIG. 1 is a configuration diagram of an airbag system including an occupant detection device according to a first embodiment of the present invention. It is a flowchart provided for operation
  • 4A to 4D are explanatory diagrams used for predicting the head position when the latest image data is missing. It is explanatory drawing with which it uses for the linear prediction of the head position at the time of the newest image data defect
  • FIG. 1 shows a configuration of an airbag system 12 including an occupant detection device 10 according to the first embodiment of the present invention.
  • the occupant detection device 10 basically includes a camera 14 such as a video camera and an occupant detection ECU (Electronic Control Unit) 16 (occupant detection control device).
  • a camera 14 such as a video camera
  • an occupant detection ECU (Electronic Control Unit) 16 occupant detection control device.
  • the airbag system 12 includes the occupant detection device 10, an airbag ECU 18, an inflator / airbag assembly 20, and a G sensor 30 (a longitudinal acceleration sensor).
  • the inflator / airbag assembly 20 is mounted in the driver's seat steering for the driver occupant and in the instrument panel for the passenger occupant. When the side curtain airbag is disposed, the inflator / airbag assembly 20 is mounted, for example, in the vicinity of the inside of both C pillars.
  • the camera 14 is disposed, for example, on the roof portion in the vicinity of the upper center portion of the front windshield in the vehicle interior. You may arrange
  • the camera 14 includes at least the head (specific part) including the face of the driver seated in the driver's seat of the vehicle in the imaging region, and can capture images in the visible light region or the infrared region, for example.
  • the image data D including the driver's head is sequentially output.
  • the camera 14 is preferably a stereo camera including two cameras that can directly measure the distance and detect the position of the head (such as the distance from the mounting position of the inflator / airbag assembly 20 to the head). Even in the case of a monocular camera, the position of the head (in this case, the mounting position of the inflator / airbag assembly 20 with reference to a known position (fixed position, reference position) of a fixed object such as a rearview mirror in the vehicle interior The distance from the head to the head can be detected.
  • the image data D is sequentially output from the camera 14, for example, sequentially at a time interval on the order of milliseconds, and stored in the storage unit 22 constituting the occupant detection ECU 16.
  • the output time interval of the image data D from the camera 14 can be selected to an appropriate value according to the application by a camera control ECU (not shown).
  • the storage unit 22 stores the latest image data Dn, the previous image data D1 output before it, and the previous two image data D2 output before that. ing.
  • the occupant detection ECU 16 deletes the two previous image data D2 before the update from the storage unit 22, and sets two previous image data D1 before the update.
  • the latest image data Dn before update is set as the previous image data D1
  • the new image data D received from the camera 14 is set as the latest image data Dn.
  • the storage unit 22 can be configured by, for example, a FIFO (First In First Out) memory.
  • the occupant detection ECU 16 and the airbag ECU 18 are computers including a microcomputer, a CPU (Central Processing Unit), a ROM (including EEPROM), a RAM (Random Access Memory), a RAM (Random Access Memory), other A / D converters, It has an input / output device such as a D / A converter, a timer as a timekeeping unit, etc., and functions as various function realization units (function realization means) when the CPU reads and executes programs recorded in the ROM. .
  • the RAM includes a video RAM that temporarily stores the image data D as it is, if necessary.
  • the video RAM is also arranged in the storage unit 22.
  • the occupant detection ECU 16 includes, in addition to the storage unit 22, a specific part detection availability determination unit 24, a position detection unit 26, and an occupant state detection unit 28.
  • the longitudinal acceleration G value is input to the position detection unit 26 and the airbag ECU 18 from the G sensor 30 which is a front collision acceleration sensor.
  • the specific part detection availability determination unit 24 determines whether a head as a specific part is included in the latest image data Dn by pattern matching or the like. When the head is included, the determination result “possible (specific site can be detected)” is output to the position detection unit 26, and when the head is not included, the determination result “impossible (specific site) Is output to the position detection unit 26.
  • the position detection unit 26 determines the position of a specific part of the body of the occupant seated on the seat from the latest image data Dn stored in the storage unit 22, for example, the position of the head. Is detected. Further, when the determination result is “impossible”, the position detection unit 26 determines that the latest image is based on the previous image data D1 and the previous image data D2 stored in the storage unit 22. Detection is performed by predicting the position of the head of an occupant seated in the seat when data Dn is not acquired.
  • the position detection unit 26 in addition to the previous image data D1 and the second previous image data D2 stored in the storage unit 22, in addition to G Based on the longitudinal acceleration G value output from the sensor 30 (actually, deceleration because of a collision), the position of the head of the occupant seated on the seat when the latest image data Dn is not acquired is predicted. By doing so, it can also be detected.
  • the occupant state detection unit 28 detects the occupant state based on the position of the head detected by the position detection unit 26.
  • the state of the occupant is the presence / absence determination in the predetermined area of the head (occupant presence / absence state), the size determination of whether the head is an adult or a child (the occupant is an adult) And whether the head position is a predetermined distance or more away from the position of the inflator / airbag assembly 20.
  • the occupant state detected in this way is supplied as a corresponding code from the occupant state detection unit 28 to the airbag ECU 18.
  • the camera 14 determines whether an adult or a child is an adult or a child.
  • the camera 14 determines whether the child is an adult or a child. Since it is detected whether it is present or not, it can be detected with higher accuracy and at a lower cost than in the prior art.
  • the airbag ECU 18 determines whether to deploy the airbag in the inflator / airbag assembly 20 (deployment or non-deployment) based on the contents of the supplied code.
  • step S1 the occupant detection ECU 16 acquires the image data D from the camera 14 and imports it into the storage unit 22 as the latest image data Dn.
  • step S2 the specific part detection availability determination unit 24 detects whether or not the head as a specific part is included in the latest image data Dn captured in the storage unit 22 by pattern matching or the like.
  • step S2 When the specific part detection availability determination unit 24 includes the head as the specific part (step S2: YES), the specific part detection availability determination unit 24 sends information indicating that the position detection is possible to the position detection unit 26, while If the head as a part is not included (step S2: NO), information indicating that position detection is “impossible” is sent to the position detection unit 26.
  • step S2 YES
  • step S2 NO
  • both the image data D1 immediately before the latest image data Dn at the time t0 and the image data D2 before the time t0 before entering the tunnel can both detect the head.
  • time points t2, t1, t0, and t-1 correspond to the image acquisition timing of the process in step S1.
  • step S2 when the specific part detection availability determination unit 24 determines that the head can be detected as the specific part from the latest image data Dn (step S2: YES), in step S3, the position detection unit 26 updates the latest part. Based on the image data Dn, a distance Dis (occupant state) of the head from, for example, the position of the inflator / airbag assembly 20 is calculated, and the occupant state detection unit 28 determines whether the occupant state is an adult state based on the size of the head. A child is detected. The occupant state detected by the occupant state detection unit 28 is stored in the storage unit 22 in association with the latest image data Dn.
  • a distance Dis occupant state of the head from, for example, the position of the inflator / airbag assembly 20
  • step S5 the occupant state (distance Dis information and adult / child identification information) is supplied from the occupant state detection unit 28 to the airbag ECU 18, and the airbag ECU 18 supplies the occupant state (distance Dis of the distance Dis). Deployment / non-deployment of the airbag is determined based on the information, the identification information of adult or child) and the longitudinal acceleration G value from the G sensor 30.
  • step S2 when the specific part detection availability determination unit 24 determines that detection of the head as the specific part is “impossible” from the latest image data Dn, such as time t0 in FIG. (S2: NO), in step S4, the position detector 26 predicts the current head position (near time t0).
  • the occupant 52 is an adult from the two previous image data D2 and the previous image data D1, and the time t2
  • the airbag ECU 18 executes a predetermined program to deploy or undeploy the airbag.
  • the airbag deployment or non-deployment program by the airbag ECU 18 is determined for each vehicle type, but is not considered for deployment when the occupant is a child, taking into account the longitudinal acceleration G value by the G sensor 30 and the like. Further, even when the occupant is an adult and is a deployment target, if the head 56 is located at a position where the distance Dis from the inflator / airbag assembly 20 is closer than the threshold, the distance Dis is farther than the threshold. The amount of gas discharged by the inflator is reduced compared to the case where the head 56 is located. Further, even if an adult is determined to lean on the side windshield, the side curtain airbag is not deployed.
  • the storage unit 22 stores in the storage unit 22 the latest image data Dn (information on the distance Dis and information on adults and children). Or the predicted image data D is updated and stored as the latest image data Dn, and the latest latest image data Dn stored in the storage unit 22 is updated and stored as the previous image data D1, The immediately preceding image data D1 stored in the storage unit 22 is updated and stored as the immediately preceding image data D2.
  • step S2 NO
  • the occupant state is also determined using the longitudinal acceleration G value that is the output of the G sensor 30.
  • Dis 900 [mm]
  • Dis 700 [mm]
  • the occupant detection device 10 is basically configured to continuously or predeterminedly display an image of a predetermined area that is disposed in the vehicle interior and includes the seat 50 in the vehicle interior.
  • the position of the head 56 as the specific part of the body of the occupant 52 seated on the seat 50 in the image output from the camera 14 and the image output from the camera 14 is output intermittently at intervals of A position detection unit 26 as a position detection unit to detect, and an occupant state detection unit 28 as an occupant state detection unit that detects the state of the occupant 52 based on the position of the head 56 detected by the position detection unit 26.
  • the occupant detection device 10 further serves as storage means for sequentially storing data corresponding to the images that are sequentially output from the camera 14 at predetermined time intervals for a predetermined period, for example, from time t2 to time t0.
  • a specific part detection availability determination unit 24 as a detection availability determination unit that determines whether the position of the head 56 can be detected by the position detection unit 26.
  • the position detection unit 26 includes: It is determined that the position of the head 56 in the latest image (latest image data Dn) as the currently output image among the images sequentially output from the camera 14 can be detected by the specific part detection availability determination unit 24.
  • the position of the head 56 (the distance Dis from the inflator / airbag assembly 20 in the first embodiment) is determined.
  • the latest image (latest image data Dn) if it is determined by the specific part detection availability determination unit 24 that the position of the head 56 in the latest image (latest image data Dn) cannot be detected, the latest image (latest image data Dn).
  • the past data stored in the storage unit 22 as data corresponding to the image output from the camera 14 in the past (in the first embodiment, the previous image data D1 and the previous image data D2) Based on this, the position of the head 56 is predicted and detected.
  • the past images are detected. Since the position of the head 56 is detected based on the data D1, D2), the state of the occupant 52 is reliably determined regardless of the influence of external noise, external light, and the like, and the influence of detection data loss when the auxiliary light lighting is delayed. Can be detected, and the reliability of the system is improved.
  • the previous image data D1 (first past data) is used. It is preferable to use the previous image data D2 (second past data). However, except when the collision is detected, if only the previous image data D1 is used as the latest image data Dn, the image is intermittently displayed. Therefore, the storage capacity of the storage unit 22 can be reduced.
  • the image closest to the latest image in time (image data D1 immediately before representing the image immediately before the latest image) ) Is used to detect the position of a specific part such as the head 56, so that it is possible to suppress a decrease in detection accuracy of the specific part position due to data loss.
  • the position detection unit 26 is updated by the specific part detection availability determination unit 24 by providing the G sensor 30 as a deceleration detection unit that detects the deceleration of the vehicle.
  • the past data the previous and second previous image data D1 stored in the storage unit 22 is determined. , D2
  • the position of the head 56 based on the deceleration G value detected by the G sensor 30 the position detection accuracy of the head 56 when using a past image can be further improved. .
  • the past data stored in the storage unit 22 is the coordinate data of the position of the head detected by the position detection unit 26 (for example, xyz three-dimensional data based on the position of the room mirror that is a fixed position) or the head 56.
  • the distance Dis is represented as numerical data representing the distance data between the position of the vehicle and the inflator / airbag assembly 20 which is a specific part of the vehicle interior, and the occupant state detection unit 28 stores the numerical value stored in the storage unit 22.
  • the storage capacity of the storage unit 22 is reduced by storing only the numerical data of the specific part position, not the image data itself output from the camera 14. It is possible to reduce the operation load associated with the arithmetic processing.
  • FIG. 8 shows a configuration of an armpit warning device 60 including an occupant detection device 10A according to the second embodiment of the present invention.
  • the occupant detection device 10 ⁇ / b> A includes a camera 14 and an armpit determination ECU 70.
  • the armpit warning device 60 includes the occupant detection device 10A and a warning device 66.
  • the camera 14, the storage unit 22, and the specific part detection availability determination unit 24 can use those of the occupant detection device 10 shown in FIG.
  • the camera 14 sequentially outputs a face image as the image data D every predetermined time.
  • the storage unit 22 sequentially stores the latest image data Dn, the previous image data D1, and the second previous image data D2, and is updated every predetermined time.
  • the image data stored in the storage unit 22 may be the image data itself of the camera 14 or data detected by the line of sight / face orientation detection unit 62.
  • the specific part detection availability determination unit 24 determines whether or not a face image exists in the latest image data Dn by pattern matching.
  • the line-of-sight / face-direction detection unit 62 as line-of-sight / face direction detection means performs recognition processing such as feature amount calculation and shape determination on the face image output from the camera 14 using the driver's eyeball as a detection target. Then, the positions of the left and right eyes (for example, the center position of the iris, the center position of the Purkinje image that is an infrared reflection image on the cornea surface, the center position of the eyeball, etc.) are detected. Then, by the processing based on the detection result, the driver's line-of-sight direction is detected, and the angle (gaze angle) formed by the line-of-sight direction with respect to the front direction of the driver seated on the driver's seat is calculated.
  • recognition processing such as feature amount calculation and shape determination on the face image output from the camera 14 using the driver's eyeball as a detection target. Then, the positions of the left and right eyes (for example, the center position of the iris, the center position of the Purkinje
  • the line-of-sight / face orientation detection unit 62 detects the face center position and the left and right face edge positions based on the face image output from the camera 14, and based on these detection results, for example, the human face is
  • the driver's face direction is detected by a cylinder method or the like that calculates the face direction by approximating the shape.
  • the look-ahead determination unit 64 uses a timer 72 (time measuring means) so that the line-of-sight direction or the face-direction direction detected by the line-of-sight / face direction detection unit 62 falls within a predetermined look-ahead direction area stored in the storage unit 68 in advance.
  • a predetermined time each looking-aside determination time
  • the alarm device 66 When the alarm device 66 receives a signal indicating the result of the determination that it is in the sideways state, the sound (sound) from a speaker (not shown), vibrations by a vibrator (not shown) incorporated in the steering wheel, and a light source attached to the camera 14 position. A warning is given to the driver by light irradiation or the like.
  • the line-of-sight / face If the direction detection unit 62 detects the latest (current) line-of-sight direction and face direction by prediction based on past images, preferably, the previous image data D1 and the previous image data D2.
  • the aside look determination unit 64 can determine the look aside regardless of the influence of external noise, external light, and the like, and the influence of the detection data loss when the auxiliary light lighting is delayed, thereby improving the reliability of the system.
  • the present invention is not limited to the above-described embodiment.
  • the driver's drowsiness detection / alarm device technology when the time during which the driver's eyes are closed is equal to or longer than the threshold time. It is a matter of course that various configurations can be adopted on the basis of the description in this specification, such as applying an alarm for generating a warning that the device is in a dozing state.

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Traffic Control Systems (AREA)
  • Air Bags (AREA)
  • Geophysics And Detection Of Objects (AREA)

Abstract

 外来ノイズ及び外光等の影響や、補助光点灯が遅れた場合の検出データ欠損等の影響によらず確実に乗員の状態を検出する乗員検知装置を提供する。特定部位検出可否判定部(24)により最新画像における頭部(56)等の特定部位の位置の検出が不可能であると判定された場合には、当該最新画像よりも過去にカメラ(14)から出力された画像に応じたデータとして記憶部(22)に記憶されている過去データに基づいて頭部(56)の位置を予測して検出する。

Description

乗員検知装置
 この発明は、車両の座席に着座している乗員の挙動をビデオカメラ等の撮像手段により撮像し、前記乗員の特定部位の位置を検出する乗員検知装置に関する。
 従来から、車両の室内に配置されたカメラを用いて乗員を撮影し、該撮影された乗員の頭部を検出することで乗員の有無を判定する乗員検知システムが特開2004-144512号公報(JP2004-144512A)で提案されている。
 このJP2004-144512Aの乗員検知システムでは、その段落[0067]に、可視光の一部をカットした赤外領域の画像を用いることにより、周囲の明るさの変化に影響されることなく常に明るさの安定した画像に基づいて乗員状態を検知することができるとされている。
 また、特開2005-284975号公報(JP2005-284975A)の段落[0015]には、カメラにより運転者の視線を検知し、視線が対象物(ナビゲーション装置等)を注視している継続時間が閾時間を超えた場合に脇見状態であると判定する走行安全装置が開示されている。
 しかしながら、太陽光は少なからず赤外領域も含んでおり、撮像画像に最も大きな影響を与え得る太陽光の影響を完全に排除することは不可能であることから、場合によっては撮像画像がサチュレーション(飽和)を起こす可能性があり、また、車両のトンネル進入時等においては補助光を点灯するタイミングが遅れる可能性があるため、結果として、上記JP2004-144512Aに係る乗員検知システムでは、乗員の頭部位置を適切に検出するための画像が得られない虞があるという問題がある。なお、車両のトンネル進入時等における上記の問題は、上記JP2005-284975Aに係る走行安全装置でも同様である。
 この発明は、このような課題を考慮してなされたものであり、外来ノイズや外光の影響、及び補助光点灯が遅れた場合の検出データの欠損等の影響によらずに確実に乗員の挙動を検出することを可能とする乗員検知装置を提供することを目的とする。
 この発明に係る乗員検知装置は、車両の室内に配置されて前記車両の室内の座席を含む所定領域の画像を連続的又は所定の時間間隔で間欠的に撮像して逐次出力する撮像手段と、前記撮像手段から出力された前記画像における前記座席に着座した乗員の身体の特定部位の位置を検出する位置検出手段と、前記位置検出手段により検出された前記特定部位の位置に基づいて前記乗員の状態を検出する乗員状態検出手段と、を備える乗員検知装置であって、所定期間の間に前記撮像手段から逐次出力される前記画像に応じたデータを逐次記憶する記憶手段と、前記位置検出手段による前記特定部位の位置の検出が可能か否かを判定する検出可否判定手段と、を備え、前記位置検出手段は、前記検出可否判定手段により前記撮像手段から逐次出力される画像のうち現在出力されている画像としての最新画像における前記特定部位の位置の検出が可能であると判定された場合には、当該最新画像に基づいて前記特定部位の位置を検出し、前記検出可否判定手段により前記最新画像における前記特定部位の位置の検出が不可能であると判定された場合には、当該最新画像よりも過去に前記撮像手段から出力された画像に応じたデータとして前記記憶手段に記憶されている過去データに基づいて前記特定部位の位置を検出することを特徴とする。
 この発明によれば、最新画像による特定部位(頭部位置等)の位置検出が不可能である場合には過去の画像により特定部位の位置検出を行うため、外来ノイズ及び外光等の影響や、補助光点灯が遅れた場合の検出データ欠損等の影響によらず確実に乗員の状態を検出することができ、システムの信頼性が向上する。
 前記過去データは、前記記憶手段に記憶されている前記過去データのうち前記最新画像に対して前記所定の時間間隔だけ前に前記撮像手段から出力された前記画像に応じたデータとしての第1過去データとすることで、間欠的に画像を撮像するため、記憶手段の記憶容量を低減することができるとともに、最新画像における特定部位の位置検出が不可能である場合にも時間的に最新画像に最も近い(最新画像より1つ前の)画像を用いて特定部位の位置検出を行うため、特定部位位置の検出精度の低下を抑制することができる。
 この場合、前記過去データは、前記第1過去データ及び該第1過去データに対して前記所定の時間間隔だけ前に前記撮像手段から出力された前記画像に応じたデータとしての第2過去データであり、前記位置検出手段は、前記第1過去データと前記第2過去データとにおいて検出される前記特定部位の位置の変化に基づいて前記特定部位の位置を検出するようにすることで、最新画像における特定部位の位置検出が不可能である場合にも時間的に最新画像に最も近い(最新画像より1つ前の)画像に加えて最新画像に次に近い(最新画像より2つ前の)画像を用いて特定部位の位置検出を行うため特定部位位置の検出精度を向上させることができる。
 さらに、前記車両の減速度を検出する減速度検出手段を備え、前記位置検出手段は、前記検出可否判定手段により前記最新画像における前記特定部位の位置の検出が不可能であると判定された場合には、前記記憶手段に記憶された前記過去データと前記減速度検出手段により検出された前記減速度とに基づいて前記特定部位の位置を検出することにより、過去画像を用いる場合の特定部位の位置検出精度をさらに向上させることができる。
 前記記憶手段に記憶される前記過去データは、前記位置検出手段により検出される前記特定部位の位置の座標データ又は前記特定部位の位置と前記車両の室内の特定部位との間の距離データを表す数値データであり、前記乗員状態検出手段は、前記記憶手段に記憶された前記数値データに基づいて前記乗員の状態を検出することで、画像データそのものではなく特定部位位置の数値データのみを記憶するため、記憶手段の記憶容量を低減することができ、動作負荷も低減することができる。
 この発明によれば、撮像画像による乗員の位置の検出が不可能である場合に過去の画像を用いて乗員の位置を検出するようにしたので、外来ノイズや外光の影響、及び補助光点灯が遅れた場合の検出データの欠損等の影響によらずに確実に乗員の挙動を検出することができるという効果が達成される。
この発明の第1実施例に係る乗員検知装置を備えるエアバッグシステムの構成図である。 図1例の乗員検知装置及びエアバッグシステムの動作説明に供されるフローチャートである。 車両のトンネル進入時の補助光点灯等を説明するタイムチャートである。 図4A~図4Dは、最新画像データ欠損時の頭部位置の予測に供される説明図である。 最新画像データ欠損時の頭部位置の線形予測に供される説明図である。 最新画像データ欠損時の頭部位置のさらに前後GセンサのG値を考慮した予測に供される説明図である。 最新画像データ欠損時の頭部位置の線形予測と前後Gセンサを考慮した予測の比較説明図である。 この発明の第2実施例に係る乗員検知装置を備える脇見警報装置の構成図である。
 以下、この発明の実施形態について図面を参照して説明する。
[第1実施例]
 図1は、この発明の第1実施例に係る乗員検知装置10を備えるエアバッグシステム12の構成を示している。
 乗員検知装置10は、基本的には、ビデオカメラ等のカメラ14と、乗員検知ECU(Electronic Control Unit)16(乗員検知制御装置)と、から構成されている。
 エアバッグシステム12は、この乗員検知装置10と、エアバッグECU18と、インフレータ・エアバッグアセンブリ20と、Gセンサ30(前後加速度センサ)と、から構成される。
 インフレータ・エアバッグアセンブリ20は、運転席乗員用に運転席のステアリング内及び助手席乗員用にインストルメントパネル内に、それぞれ装着されている。サイドカーテンエアバッグが配置される場合、インフレータ・エアバッグアセンブリ20は、例えば両Cピラーの内側近傍に装着されている。
 カメラ14は、例えば、車両の室内のフロントウインドシールドの上方中央部近傍のルーフ部に配置されている。インストルメントパネル又はダッシュボード上にカメラ14を配置してもよい。
 この実施形態において、カメラ14は、少なくとも車両の運転席に着座した運転者の顔を含む頭部(特定部位)を撮影対象として撮像領域に含み、例えば可視光領域又は赤外領域にて撮像可能であって、運転者の頭部を含む画像データDを逐次出力する。
 カメラ14は、距離を直接測定して頭部の位置(インフレータ・エアバッグアセンブリ20の装着位置から頭部までの距離等)を検出することができる2台からなるステレオカメラであることが好ましいが、単眼カメラであっても、車室内の固定物、例えば、ルームミラー等の既知位置(固定位置、基準位置)を基準として、頭部の位置(この場合、インフレータ・エアバッグアセンブリ20の装着位置から頭部までの距離)を検出することができる。
 カメラ14から画像データDが逐次、例えばミリ秒オーダの時間間隔で順次出力され、乗員検知ECU16を構成する記憶部22に記憶される。なお、カメラ14からの画像データDの出力時間間隔は、図示しないカメラ制御用ECUにより用途に応じた適切な値に選択することができる。
 記憶部22には、最新画像データDnと、その前に出力された1つ前の画像データD1と、さらにその前に出力された2つ前の画像データD2と、が記憶されるようになっている。この場合、乗員検知ECU16は、カメラ14から新しい画像データDを受け取ると、記憶部22から更新前の2つ前の画像データD2を削除し、更新前の1つ前の画像データD1を2つ前の画像データD2にする。また、更新前の最新画像データDnを1つ前の画像データD1にし、カメラ14から受け取った新しい画像データDを最新画像データDnとする。記憶部22は、例えば、FIFO(First In First Out:先入れ先出し)メモリで構成することができる。
 乗員検知ECU16及びエアバッグECU18は、マイクロコンピュータを含む計算機であり、CPU(中央処理装置)、メモリであるROM(EEPROMも含む。)、RAM(ランダムアクセスメモリ)、その他、A/D変換器、D/A変換器等の入出力装置、計時部としてのタイマ等を有しており、CPUがROMに記録されているプログラムを読み出し実行することで各種機能実現部(機能実現手段)として機能する。なお、RAMには、必要に応じて、画像データDをそのまま一時的に記憶するビデオRAMが含まれる。ビデオRAMは、記憶部22にも配されている。
 乗員検知ECU16は、記憶部22の他に、特定部位検出可否判定部24と、位置検出部26と、乗員状態検出部28と、を備える。
 位置検出部26及びエアバッグECU18には、前突用の加速度センサであるGセンサ30から前後加速度G値が入力されている。
 特定部位検出可否判定部24は、パターンマッチング等により最新画像データDnの中に特定部位としての頭部が含まれているか否かを判定する。頭部が含まれている場合には、判定結果「可能(特定部位検出可能)」を位置検出部26に出力し、頭部が含まれていない場合には、判定結果「不可能(特定部位検出不可能)」を位置検出部26に出力する。
 位置検出部26は、判定結果が「可能」である場合には、記憶部22に記憶されている最新画像データDnから前記座席に着座した乗員の身体の特定部位の位置、例えば頭部の位置を検出する。また、位置検出部26は、判定結果が「不可能」である場合には、記憶部22に記憶されている1つ前の画像データD1と2つ前の画像データD2とに基づき、最新画像データDnの未取得時における前記座席に着座した乗員の頭部の位置を予測することで検出する。
 さらに、位置検出部26は、判定結果が「不可能」である場合には、記憶部22に記憶されている1つ前の画像データD1と2つ前の画像データD2との他、さらにGセンサ30から出力される前後加速度G値(実際には、衝突の場合であるので、減速度)に基づき、最新画像データDnの未取得時における前記座席に着座した乗員の頭部の位置を予測することで検出することもできる。
 乗員状態検出部28は、位置検出部26により検出された頭部の位置に基づいて、前記乗員の状態を検出する。ここで、乗員の状態とは、頭部の所定領域内での有無判断(乗員の有無状態)、頭部の大きさが大人であるか子供であるかの大きさ判断(乗員が大人であるか子供であるかの判断)、及び頭部の位置がインフレータ・エアバッグアセンブリ20の位置から所定距離以上離れているか否か等の状態を検出する。このようにして検出された乗員状態は、乗員状態検出部28からエアバッグECU18に、対応するコードとして供給される。なお、従来技術では、大人であるか子供であるかをシート下に配した重量センサの測定値により判定しているのに比較して、この実施形態では、カメラ14により大人であるか子供であるかを検出しているので、従来技術に比較して精度よく且つ廉価に検出することができる。
 エアバッグECU18は、供給されたコードの内容に基づき、インフレータ・エアバッグアセンブリ20中のエアバッグを展開させるか否か(展開か非展開か)を決定する。
 次に、基本的には以上のように構成される第1実施例に係る乗員検知装置10を備えるエアバッグシステム12の動作について、図2のフローチャートを参照して説明する。
 ステップS1において、乗員検知ECU16は、カメラ14から画像データDを取得し、最新画像データDnとして記憶部22に取り込む。
 ステップS2において、特定部位検出可否判定部24は、記憶部22に取り込まれた最新画像データDn中に、特定部位としての頭部が含まれているか否かをパターンマッチング等により検出する。
 特定部位検出可否判定部24は、特定部位としての頭部が含まれている場合には(ステップS2:YES)、位置検出が「可能」との情報を位置検出部26に送出する一方、特定部位としての頭部が含まれていない場合には(ステップS2:NO)、位置検出が「不可能」との情報を位置検出部26に送出する。
 特定部位としての頭部が含まれていないとして位置検出が「不可能」と検出する例として、例えば、図3のタイムチャートに示すように、時点taにおいて、当該乗員検知装置10を搭載した車両がトンネル等に進入した場合において、その時点taから一定時間td経過後の時点tbでは、補助光が自動的に点灯するので、その直後の時点t-1における画像データDには、頭部の画像が含まれるが(ステップS2:YES)、トンネルに進入した時点taの直後の時点t0の最新画像データDnは、露出不足で頭部を検出することができない(ステップS2:NO)ことが分かる。その一方、トンネルに進入する時点taの前であって時点t0の最新画像データDnの1つ前の画像データD1と、2つ前の画像データD2は、共に頭部を検出することができることが分かる。なお、時点t2、t1、t0、t-1(等時間間隔)は、ステップS1の処理の画像取得タイミングに対応する。
 ステップS2において、特定部位検出可否判定部24により最新画像データDnから特定部位として頭部が検出可能と判断された場合には(ステップS2:YES)、ステップS3において、位置検出部26により、最新画像データDnに基づき、頭部の、例えばインフレータ・エアバッグアセンブリ20の位置からの距離Dis(乗員状態)が計算されるとともに、乗員状態検出部28により頭部の大きさにより乗員状態として大人か子供かが検出される。乗員状態検出部28により検出された乗員状態は、最新画像データDnに対応付けられて記憶部22に記憶される。
 ステップS5において、乗員状態(距離Disの情報と、大人か子供かの識別情報)は、乗員状態検出部28からエアバッグECU18に供給され、エアバッグECU18は、供給された乗員状態(距離Disの情報と、大人か子供かの識別情報)及びGセンサ30からの前後加速度G値に基づき、エアバッグの展開・非展開を決定する。
 一方、ステップS2の判定において、図3の時点t0等、特定部位検出可否判定部24により最新画像データDnから特定部位としての頭部の検出が「不可能」と判断された場合には(ステップS2:NO)、ステップS4において、位置検出部26は、現在(時点t0近傍)の頭部位置を予測する。
 現在の頭部位置を予測する際に、例えば、図4Aに示すように、座席(前席)50上に乗員52(ここでは、理解の便宜のために助手席に着座している乗員を描いている。)が着座しており、フロントウインドシールド54の中央上部にカメラ14が配置されているとき、図4Bに示すように、時点t2での2つ前の画像データD2から乗員52が大人で、インフレータ・エアバッグアセンブリ20(図4B、図4C、図4Dでは、理解の便宜のためにA/Bと記載している。)からの距離DisがDis=900[mm]であることが検出されており、時点t1で図4Cに示すように、1つ前の画像データD1から乗員52が大人で、インフレータ・エアバッグアセンブリ20からの距離DisがDis=600[mm]であることが検出されているものとする。
 このとき、図5に示すように、時点t0で取得できなかった最新画像データDnとして、2つ前の画像データD2と1つ前の画像データD1とから、乗員52は大人であり、時点t2でのDis=900[mm]と、時点t1でのDis=600[mm]を参照して線形予測し、頭部56は、さらに、2点鎖線で示す方向(前方)に300[mm]動き、インフレータ・エアバッグアセンブリ20からの距離DisがDis=300[mm]であると予測することができる。
 これらの乗員状態、ここでは大人であること及び頭部56の位置がインフレータ・エアバッグアセンブリ20の位置から300[mm]の位置にあることがエアバッグECU18に通知されると、エアバッグECU18は、予め定められたプログラムを実行して、エアバッグを展開乃至非展開する。
 エアバッグECU18によるエアバッグの展開乃至非展開のプログラムは、車種毎に決定されるが、Gセンサ30による前後加速度G値等を勘案し、乗員が子供の場合には、展開対象とはされない。また、乗員が大人であって展開対象である場合であっても、インフレータ・エアバッグアセンブリ20からの距離Disが閾値よりも近い位置に頭部56がある場合は、距離Disが閾値よりも遠い位置に頭部56がある場合に比較してインフレータによるガス吐出量が少なくされる。さらに、大人であっても、サイドウインドシールドに寄りかかっていると判断される場合には、サイドカーテンエアエアバッグは展開されない。
 このようにして、エアバッグECU18によるエアバッグの展開乃至非展開にかかわらず、ステップS6において、記憶部22には、カメラ14により直接撮像された最新画像データDn(距離Disの情報と大人と子供の識別情報を含む)又は予測された画像データDが最新画像データDnとして更新記憶され、記憶部22に記憶されていた直前の最新画像データDnが1つ前の画像データD1として更新記憶され、記憶部22に記憶されていた直前の1つ前の画像データD1が2つ前の画像データD2として更新記憶される。
 なお、最新画像データDnを撮像できなかった場合には(ステップS2:NO)、図5を参照した線形予測する他に、Gセンサ30の出力である前後加速度G値をも用いて乗員状態、ここでは、インフレータ・エアバッグアセンブリ20からの距離Disを補正することが好ましい。
 Gセンサ30の出力である前後加速度G値を用いて、インフレータ・エアバッグアセンブリ20からの距離Disを補正する処理例について、図6を参照して説明する。
 すなわち、最新の時点t0でノイズ等により最新画像データDnの欠損が発生した際には、時点t2において、2つ前の画像データD2により乗員が大人であり、インフレータ・エアバッグアセンブリ20からの距離DisがDis=900[mm]と検出され、時点t1において、1つ前の画像データD1により乗員が大人であり、インフレータ・エアバッグアセンブリ20からの距離DisがDis=700[mm]であるということが検出されて記憶部22に記憶されているものとする。
 このとき、図7に示すように、Gセンサ30による前後加速度G値を考慮しない場合(単純予測)には、最新画像データDnとして、乗員が大人であり、線形予測によりインフレータ・エアバッグアセンブリ20からの距離DisがDis=500[mm]であることが予測される(図7中、「G補正無」)。しかし、時点t0で減速加速度G値がG=a×G(図6参照)となっていた場合には、前後加速度G値をも考慮した最新画像データDnとしては、乗員が大人であり、インフレータ・エアバッグアセンブリ20からの距離Disを、Dis=500[mm]ではなくDis=300[mm]と減速加速度G値により頭部56の移動量をより多く補正することができる。
 以上説明したように上述した第1実施例によれば、乗員検知装置10は、基本的に、車両の室内に配置されて前記車両の室内の座席50を含む所定領域の画像を連続的又は所定の時間間隔で間欠的に撮像して逐次出力する撮像手段としてのカメラ14と、カメラ14から出力された前記画像における座席50に着座した乗員52の身体の特定部位としての頭部56の位置を検出する位置検出手段としての位置検出部26と、位置検出部26により検出された頭部56の位置に基づいて乗員52の状態を検出する乗員状態検出手段としての乗員状態検出部28と、を備える。
 乗員検知装置10は、さらに、所定期間、例えば、時点t2~時点t0までの間にカメラ14から所定時間毎に当時間間隔で逐次出力される前記画像に応じたデータを逐次記憶する記憶手段としての記憶部22と、位置検出部26による頭部56の位置の検出が可能か否かを判定する検出可否判定手段としての特定部位検出可否判定部24と、を備え、位置検出部26は、特定部位検出可否判定部24によりカメラ14から逐次出力される画像のうち現在出力されている画像としての最新画像(最新画像データDn)における頭部56の位置の検出が可能であると判定された場合には、当該最新画像(最新画像データDn)に基づいて頭部56の位置(この第1実施例では、インフレータ・エアバッグアセンブリ20からの距離Dis)を検出する一方、特定部位検出可否判定部24により最新画像(最新画像データDn)における頭部56の位置の検出が不可能であると判定された場合には、当該最新画像(最新画像データDn)よりも過去にカメラ14から出力された画像に応じたデータとして記憶部22に記憶されている過去データ(この第1実施例では、1つ前の画像データD1と2つ前の画像データD2)に基づいて頭部56の位置を予測して検出するようにしている。
 このように、カメラ14により周期的に撮像しながら、最新画像(最新画像データDn)による頭部56の位置の検出が不可能である場合には過去の画像(1つ及び2つ前の画像データD1、D2)により頭部56の位置の検出を行うため、外来ノイズ及び外光等の影響や、補助光点灯が遅れた場合の検出データ欠損等の影響によらず確実に乗員52の状態を検出することができ、システムの信頼性が向上する。
 なお、最新画像データDnが欠損した場合に、特定部位である頭部56の最新位置(現在位置)を予測するための過去データとしては、1つ前の画像データD1(第1過去データ)と2つ前の画像データD2(第2過去データ)を利用することが好ましいが、衝突検知時以外は、最新画像データDnとして、1つ前の画像データD1のみを利用すれば、間欠的に画像を撮像するため記憶部22の記憶容量を低減することができる。すなわち、最新画像における頭部56等の特定部位の位置検出が不可能である場合にも時間的に最新画像に最も近い画像(最新画像より1つ前の画像を表す1つ前の画像データD1)を用いて頭部56等の特定部位の位置検出を行うため、データ欠損による、特定部位位置の検出精度の低下を抑制することができる。
 さらに、前記車両の減速度を検出する減速度検出手段としてのGセンサ30を備えることで、図7を参照して説明したように、位置検出部26は、特定部位検出可否判定部24により最新画像(最新画像データDn)における頭部56の位置の検出が不可能であると判定された場合には、記憶部22に記憶された前記過去データ(1つ前及び2つ前の画像データD1、D2)とGセンサ30により検出された減速度G値とに基づいて頭部56の位置を検出することにより、過去画像を用いる場合の頭部56の位置検出精度をさらに向上させることができる。
 記憶部22に記憶される前記過去データを、位置検出部26により検出される頭部の位置の座標データ(例えば、固定位置であるルームミラーの位置を基準とするxyz3次元データ)又は頭部56の位置と前記車両の室内の特定部位であるインフレータ・エアバッグアセンブリ20との間の距離データを表す数値データとしての距離Disとし、乗員状態検出部28は、記憶部22に記憶された前記数値データに基づいて乗員52の状態を検出することで、カメラ14から出力された画像データそのものではなく特定部位位置の数値データのみを記憶するようにすることで、記憶部22の記憶容量を低減することができ、演算処理に伴う動作負荷も低減することができる。
 [第2実施例]
 図8は、この発明の第2実施例に係る乗員検知装置10Aを備える脇見警報装置60の構成を示している。
 乗員検知装置10Aは、カメラ14と、脇見判定ECU70とを備える。脇見警報装置60は、この乗員検知装置10Aと、警報装置66と、から構成される。
 カメラ14と記憶部22と特定部位検出可否判定部24は、図1に示した乗員検知装置10のものを利用することができる。
 カメラ14は、所定時間毎に、画像データDとして、逐次、顔画像を出力する。記憶部22には、最新画像データDnと、1つ前の画像データD1と、2つ前の画像データD2とが逐次記憶され、且つ所定時間毎に更新される。記憶部22に記憶される画像データは、カメラ14の撮像データそのものでもよく、視線・顔向き検出部62により検出されたデータでもよい。
 特定部位検出可否判定部24は、最新画像データDnの中にパターンマッチングにより顔画像が存在するか否かを判定する。
 視線・顔向き検出手段としての視線・顔向き検出部62は、カメラ14から出力された顔画像に対して、運転者の眼球を検知対象物とした特徴量算出及び形状判別等の認識処理を行い、左右の眼の位置(例えば、虹彩の中心位置や、角膜表面における赤外線の反射像であるプルキニエ像の中心位置や、眼球中心位置等)を検出する。そして、この検出結果に基づく処理によって、運転者の視線方向を検出し、さらに、運転席に着座した運転者の正面方向に対する視線方向のなす角度(注視角度)を算出する。
 また、視線・顔向き検出部62は、カメラ14から出力された顔画像に基づき、顔中心位置と、左右の顔端位置とを検出し、これらの検出結果に基づき、たとえば人の顔をシリンダ形状に近似して顔向きを算出するシリンダ法等によって、運転者の顔向き方向を検知する。
 脇見判定部64は、タイマ72(計時手段)を利用して、視線・顔向き検出部62により検出された視線方向又は顔向き方向が、予め記憶部68に記憶された所定脇見方向領域内に所定時間(各脇見判定時間)に亘って継続して含まれる場合に、運転者が脇見状態であると判定して、判定結果の信号を警報装置66に出力する。
 警報装置66は、脇見状態であるとの判定結果の信号を受信したとき、図示しないスピーカからの音(音声)、ステアリングホイールに組み込んだ図示しないバイブレータによる振動、カメラ14位置に取り付けた光源からの光照射等により運転者に対して警報を付与する。
 この図8例の脇見警報装置60によっても、特定部位検出可否判定部24によって、最新画像データDnによる視線方向及び顔向き方向の検出が不可能であると判定された場合には、視線・顔向き検出部62が、過去の画像、好ましくは、1つ前の画像データD1と2つ前の画像データD2により、最新(現在)の視線方向及び顔向き方向を予測により検出するようにすれば、外来ノイズ及び外光等の影響や、補助光点灯が遅れた場合の検出データ欠損等の影響によらず脇見判定部64により脇見を判定することが可能となり、システムの信頼性が向上する。
 なお、この発明は、上述の実施形態に限らず、例えば、乗員である運転者の居眠り検知・警報装置技術(運転者の眼を閉じている時間が閾値時間以上である場合には、乗員状態が居眠り状態にあるとして警報を発生する)に適用する等、この明細書の記載内容に基づき、種々の構成を採り得ることはもちろんである。

Claims (5)

  1.  車両の室内に配置されて前記車両の室内の座席を含む所定領域の画像を連続的又は所定の時間間隔で間欠的に撮像して逐次出力する撮像手段(14)と、
     前記撮像手段(14)から出力された前記画像における前記座席に着座した乗員(52)の身体の特定部位(56)の位置を検出する位置検出手段(26)と、
     前記位置検出手段(26)により検出された前記特定部位(56)の位置に基づいて前記乗員(52)の状態を検出する乗員状態検出手段(28)と、を備える乗員検知装置(10)であって、
     所定期間の間に前記撮像手段(14)から逐次出力される前記画像に応じたデータを逐次記憶する記憶手段(22)と、
     前記位置検出手段(26)による前記特定部位(56)の位置の検出が可能か否かを判定する検出可否判定手段(24)と、を備え、
     前記位置検出手段(26)は、前記検出可否判定手段(24)により前記撮像手段(14)から逐次出力される画像のうち現在出力されている画像としての最新画像における前記特定部位(56)の位置の検出が可能であると判定された場合には、当該最新画像に基づいて前記特定部位(56)の位置を検出し、前記検出可否判定手段(24)により前記最新画像における前記特定部位(56)の位置の検出が不可能であると判定された場合には、当該最新画像よりも過去に前記撮像手段(14)から出力された画像に応じたデータとして前記記憶手段(22)に記憶されている過去データに基づいて前記特定部位(56)の位置を検出する
     ことを特徴とする乗員検知装置。
  2.  請求項1記載の乗員検知装置において、
     前記過去データは、前記記憶手段(22)に記憶されている前記過去データのうち前記最新画像に対して前記所定の時間間隔だけ前に前記撮像手段(14)から出力された前記画像に応じたデータとしての第1過去データ(D1)である
     ことを特徴とする乗員検知装置。
  3.  請求項2記載の乗員検知装置において、
     前記過去データは、前記第1過去データ(D1)及び該第1過去データ(D1)に対して前記所定の時間間隔だけ前に前記撮像手段(14)から出力された前記画像に応じたデータとしての第2過去データ(D2)であり、
     前記位置検出手段(26)は、前記第1過去データ(D1)と前記第2過去データ(D2)とにおいて検出される前記特定部位(56)の位置の変化に基づいて前記特定部位(56)の位置を検出する
     ことを特徴とする乗員検知装置。
  4.  請求項1~3のいずれか1項に記載の乗員検知装置において、
     さらに、前記車両の減速度を検出する減速度検出手段(30)を備え、
     前記位置検出手段(26)は、前記検出可否判定手段(24)により前記最新画像における前記特定部位(56)の位置の検出が不可能であると判定された場合には、前記記憶手段(22)に記憶された前記過去データと前記減速度検出手段(30)により検出された前記減速度とに基づいて前記特定部位(56)の位置を検出する
     ことを特徴とする乗員検知装置。
  5.  請求項1~4のいずれか1項に記載の乗員検知装置において、
     前記記憶手段(22)に記憶される前記過去データは、前記位置検出手段(26)により検出される前記特定部位(56)の位置の座標データ又は前記特定部位(56)の位置と前記車両の室内の特定部位との間の距離データを表す数値データであり、
     前記乗員状態検出手段(28)は、前記記憶手段(22)に記憶された前記数値データに基づいて前記乗員(52)の状態を検出する
     ことを特徴とする乗員検知装置。
PCT/JP2012/060584 2011-06-17 2012-04-19 乗員検知装置 WO2012172865A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2013520456A JP5636102B2 (ja) 2011-06-17 2012-04-19 乗員検知装置
EP12799913.4A EP2706384A4 (en) 2011-06-17 2012-04-19 PASSENGER DETECTION DEVICE
US14/124,049 US20140098232A1 (en) 2011-06-17 2012-04-19 Occupant sensing device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2011-134703 2011-06-17
JP2011134703 2011-06-17

Publications (1)

Publication Number Publication Date
WO2012172865A1 true WO2012172865A1 (ja) 2012-12-20

Family

ID=47356863

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2012/060584 WO2012172865A1 (ja) 2011-06-17 2012-04-19 乗員検知装置

Country Status (4)

Country Link
US (1) US20140098232A1 (ja)
EP (1) EP2706384A4 (ja)
JP (1) JP5636102B2 (ja)
WO (1) WO2012172865A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019207625A1 (ja) * 2018-04-23 2019-10-31 三菱電機株式会社 乗員検知装置、乗員検知方法及び乗員検知システム
JP2020135037A (ja) * 2019-02-13 2020-08-31 株式会社東海理化電機製作所 頭部判別装置、コンピュータプログラム、および記憶媒体

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8937552B1 (en) * 2013-01-02 2015-01-20 The Boeing Company Heads down warning system
DE102014207009A1 (de) * 2014-04-11 2015-10-15 Siemens Aktiengesellschaft Erkennung einer Sitzbelegung mittels einer Kamera
IL246387A (en) * 2016-06-22 2017-05-29 Pointgrab Ltd METHOD AND SYSTEM FOR DETERMINING A BODY POSITION OF PRESENT
KR101996414B1 (ko) * 2016-12-30 2019-07-04 현대자동차주식회사 보행자 시선을 고려한 충돌 방지 및 충격 완화 장치 및 방법
US10121084B2 (en) * 2017-03-07 2018-11-06 Wipro Limited Method and a system for detecting drowsiness state of a vehicle user
DE102017011827A1 (de) * 2017-12-21 2019-06-27 Daimler Ag Verfahren zum Betrieb einer Insassenschutzvorrichtung
JP2019189101A (ja) * 2018-04-26 2019-10-31 アイシン精機株式会社 乗員情報判定装置
US10825196B2 (en) * 2019-02-15 2020-11-03 Universal City Studios Llc Object orientation detection system
WO2020213638A1 (ja) * 2019-04-18 2020-10-22 日本電気株式会社 人物特定装置、人物特定方法および記録媒体
US11514684B2 (en) 2020-02-07 2022-11-29 Infineon Technologies Austria Ag Dual use of safety-capable vehicle scanner for collaborative vehicle assembly and driving surveillance
US11292342B1 (en) 2020-12-14 2022-04-05 Ford Global Technologies, Llc Systems and methods for alerting a driver to check back seat occupancy in a vehicle

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004144512A (ja) 2002-10-22 2004-05-20 Denso Corp 乗員検知システム
JP2005284975A (ja) 2004-03-30 2005-10-13 Honda Motor Co Ltd 走行安全装置
JP2006275988A (ja) * 2005-03-30 2006-10-12 Denso It Laboratory Inc 対象物検出前処理装置及び対象物検出前処理方法
JP2008150039A (ja) * 2008-02-08 2008-07-03 Toyota Motor Corp 乗員検知装置

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6393133B1 (en) * 1992-05-05 2002-05-21 Automotive Technologies International, Inc. Method and system for controlling a vehicular system based on occupancy of the vehicle
WO1994022693A1 (en) * 1993-03-31 1994-10-13 Automotive Technologies International, Inc. Vehicle occupant position and velocity sensor
US5366241A (en) * 1993-09-30 1994-11-22 Kithil Philip W Automobile air bag system
DE19736584A1 (de) * 1997-08-22 1999-02-25 Kostal Leopold Gmbh & Co Kg Verfahren zum Erkennen von Veränderungen im Innenraum eines Kraftfahrzeuges sowie ein Innenraumüberwachungssystem für ein Kraftfahrzeug
DE10024818A1 (de) * 2000-05-19 2001-11-22 Bayerische Motoren Werke Ag Vorrichtung zum Ansteuern eines Motorrad-Airbags
US6724920B1 (en) * 2000-07-21 2004-04-20 Trw Inc. Application of human facial features recognition to automobile safety
US6801662B1 (en) * 2000-10-10 2004-10-05 Hrl Laboratories, Llc Sensor fusion architecture for vision-based occupant detection
US6662093B2 (en) * 2001-05-30 2003-12-09 Eaton Corporation Image processing system for detecting when an airbag should be deployed
US6882287B2 (en) * 2001-07-31 2005-04-19 Donnelly Corporation Automotive lane change aid
EP1772321A3 (en) * 2002-02-02 2007-07-11 Qinetiq Limited Method of Identifying and Tracking Objects
US7607509B2 (en) * 2002-04-19 2009-10-27 Iee International Electronics & Engineering S.A. Safety device for a vehicle
DE10246055A1 (de) * 2002-10-02 2004-04-15 Robert Bosch Gmbh Vorrichtung zum Schutz von einem Fahrzeuginsassen
WO2004107266A1 (en) * 2003-05-29 2004-12-09 Honda Motor Co., Ltd. Visual tracking using depth data
DE102005023694A1 (de) * 2005-05-23 2006-12-07 Robert Bosch Gmbh Vorrichtung zur Insassenerkennung
US7308349B2 (en) * 2005-06-06 2007-12-11 Delphi Technologies, Inc. Method of operation for a vision-based occupant classification system
US20070146482A1 (en) * 2005-12-23 2007-06-28 Branislav Kiscanin Method of depth estimation from a single camera

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004144512A (ja) 2002-10-22 2004-05-20 Denso Corp 乗員検知システム
JP2005284975A (ja) 2004-03-30 2005-10-13 Honda Motor Co Ltd 走行安全装置
JP2006275988A (ja) * 2005-03-30 2006-10-12 Denso It Laboratory Inc 対象物検出前処理装置及び対象物検出前処理方法
JP2008150039A (ja) * 2008-02-08 2008-07-03 Toyota Motor Corp 乗員検知装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP2706384A4

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019207625A1 (ja) * 2018-04-23 2019-10-31 三菱電機株式会社 乗員検知装置、乗員検知方法及び乗員検知システム
JPWO2019207625A1 (ja) * 2018-04-23 2020-12-03 三菱電機株式会社 乗員検知装置、乗員検知方法及び乗員検知システム
JP2020135037A (ja) * 2019-02-13 2020-08-31 株式会社東海理化電機製作所 頭部判別装置、コンピュータプログラム、および記憶媒体
JP7288309B2 (ja) 2019-02-13 2023-06-07 株式会社東海理化電機製作所 頭部判別装置、コンピュータプログラム、および記憶媒体

Also Published As

Publication number Publication date
JP5636102B2 (ja) 2014-12-03
US20140098232A1 (en) 2014-04-10
EP2706384A4 (en) 2015-04-08
JPWO2012172865A1 (ja) 2015-02-23
EP2706384A1 (en) 2014-03-12

Similar Documents

Publication Publication Date Title
JP5636102B2 (ja) 乗員検知装置
JP6341055B2 (ja) 車載制御装置
EP3330148B1 (en) Automatic driving system for vehicles
US10040350B2 (en) Control apparatus and related method
JP4400624B2 (ja) 居眠り防止装置及び方法
JP5158063B2 (ja) 車両用表示装置
JP6705437B2 (ja) 脇見判定装置、脇見判定方法及び脇見判定のためのプログラム
WO2014119235A1 (ja) 覚醒度検出装置、および覚醒度検出方法
US9767374B2 (en) Driver check apparatus
JP4788624B2 (ja) 不注意警告装置、不注意警告装置の車両機器制御方法及び車両制御装置のプログラム
US10604160B2 (en) Driver condition detection system
US20180055438A1 (en) Driver's physical condition detection device and method
JP6730096B2 (ja) 乗員状態監視装置
JP4696792B2 (ja) 車載警報装置
JP6187155B2 (ja) 注視対象物推定装置
JPH07117593A (ja) 車両用警報装置
JP4148229B2 (ja) 車両用表示装置
JP2021066275A (ja) 車両制御装置
CN107867242A (zh) 用于在车辆中使用物体显示装置的方法、***和车辆
JP5511987B2 (ja) 車両用物体衝突警報システムおよび車両用物体衝突警報方法
JP2017206173A (ja) ドライバ状態検出装置
JP5466587B2 (ja) 車両用顔画像撮像装置
JP2018116426A (ja) ドライバ状態検出装置
JP2010026807A (ja) 車両用警報表示制御装置
JP2002279411A (ja) 運転注意力検出装置および居眠り運転検出装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12799913

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2013520456

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 14124049

Country of ref document: US

Ref document number: 2012799913

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE