WO2008041497A1 - Alarm device for vehicle and alarm method for vehicle - Google Patents

Alarm device for vehicle and alarm method for vehicle Download PDF

Info

Publication number
WO2008041497A1
WO2008041497A1 PCT/JP2007/068304 JP2007068304W WO2008041497A1 WO 2008041497 A1 WO2008041497 A1 WO 2008041497A1 JP 2007068304 W JP2007068304 W JP 2007068304W WO 2008041497 A1 WO2008041497 A1 WO 2008041497A1
Authority
WO
WIPO (PCT)
Prior art keywords
alarm
vehicle
unit
driver
obstacle
Prior art date
Application number
PCT/JP2007/068304
Other languages
English (en)
French (fr)
Inventor
Tomoharu Suzuki
Original Assignee
Aisin Seiki Kabushiki Kaisha
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aisin Seiki Kabushiki Kaisha filed Critical Aisin Seiki Kabushiki Kaisha
Priority to CN2007800345397A priority Critical patent/CN101536057B/zh
Priority to US12/441,863 priority patent/US8013758B2/en
Priority to EP07807656A priority patent/EP2061016B1/en
Priority to JP2008537451A priority patent/JP4924611B2/ja
Publication of WO2008041497A1 publication Critical patent/WO2008041497A1/ja

Links

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/19Sensors therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30264Parking

Definitions

  • the present invention relates to a vehicle alarm device and a vehicle alarm method.
  • Patent Document 1 Japanese Patent Application Laid-Open No. 2001-199296 (Page 6-10, FIG. 1)
  • the present invention has been made in view of such conventional problems, and it is an object of the present invention to provide a vehicular alarm device and a vehicular alarm method capable of appropriately issuing a warning to a driver. Do.
  • the alarm device for a vehicle comprises an obstacle detection unit for detecting an obstacle located behind the vehicle, and the obstacle detection unit.
  • an alarm output unit that outputs an alarm
  • a mirror that reflects the image of the obstacle
  • a gaze direction discrimination unit that discriminates the gaze direction of the driver of the vehicle
  • the gaze direction discrimination A determination unit that determines whether or not the driver's gaze is directed toward the mirror based on the gaze direction determined by the unit; and the alarm output according to the determination result of the determination unit.
  • a warning level setting unit for setting the level of the warning output from the unit.
  • the determination unit determines whether the line of sight of the driver is directed to the mirror or not based on the line of sight direction determined by the line of sight direction determining unit.
  • the alarm level setting unit determines the degree to which the line of sight of the person is pointing in the direction of the mirror; The level of the alarm output by the alarm output unit may be set based on the degree determined by the determination unit.
  • the alarm level setting unit may reduce the level of the alarm output from the alarm output unit when the degree is increased.
  • the determination unit may determine whether the driver's gaze is directed to the mirror! /, Based on the time that the driver's gaze is directed to the mirror.
  • the obstacle detection unit detects the obstacle and acquires position information of the obstacle with respect to the host vehicle, and the determination unit determines the driver as determined by the gaze direction determination unit.
  • the obstacle is reflected in the mirror based on the direction of the line of sight, the area reflected in the mirror, and the determined area and the position information acquired by the obstacle detection unit. If the line of sight of the driver faces in the direction of the mirror! /, The degree of! /, May be determined based on the determined proportion! /, .
  • the apparatus further comprises a storage unit storing a table in which the level of the alarm output by the alarm output unit is set, and the alarm level setting unit refers to the table stored in the storage unit to determine the alarm. You may set the level of
  • the information processing apparatus may further include an operation information acquisition unit that acquires operation information when the driver of the host vehicle operates the turn signal, and the alarm level setting unit acquires the operation information acquired by the operation information acquisition unit.
  • the level of the alarm output by the alarm output unit may be set in consideration of the above.
  • the warning level setting unit determines that the warning output unit outputs the most warning. You may set it to a high level! /.
  • An alarm device for a vehicle detects an obstacle located behind the vehicle and measures the distance between the vehicle and the detected obstacle.
  • the alarm output unit outputs based on a detection unit, an alarm output unit that outputs an alarm when the obstacle is detected by the obstacle detection unit, and the distance measured by the obstacle detection unit.
  • an alarm level setting unit that sets an alarm level.
  • an obstacle inspection for detecting an obstacle located behind the own vehicle And an alarm output step for outputting an alarm when the obstacle is detected, a line-of-sight direction determination step for determining the line-of-sight direction of the driver of the vehicle, and the determined line-of-sight direction.
  • an alarm level setting step of setting for setting.
  • an alarm can be appropriately output to the driver.
  • FIG. 1 is a block diagram showing a configuration of a vehicle alarm device according to an embodiment of the present invention.
  • FIG. 2 is a view for explaining an outline operation of the alarm device for a vehicle shown in FIG. 1;
  • FIG. 3 is a diagram showing the configuration of the vehicle.
  • FIG. 4 is a diagram for explaining detection of another vehicle.
  • FIG. 5 is a view showing a table for setting an alarm level.
  • FIG. 6 is a diagram showing the operation of acquiring the face direction and the gaze direction of the driver, in which (a) shows the reference face and eyes and (b) shows the face only sideways The state is shown, and (c) shows the state when the face and the eye are turned to the side.
  • FIG. 7 A diagram showing an operation of acquiring the line of sight of the driver.
  • FIG. 8 is a diagram showing an operation of specifying a mirror reflection area.
  • FIG. 9 is a diagram for explaining the amount of reflection of other vehicles.
  • FIG. 10 is a flowchart showing a vehicle alarm process executed by the CPU shown in FIG. 1;
  • FIG. 11 is a view showing a specific operation (1) of the alarm device for a vehicle.
  • FIG. 12 A diagram showing an alarm level in the case of the specific operation (1) shown in FIG. 11, (a) shows an alarm level of voice output from a speaker, (b) shows a display unit Indicates the message to be displayed.
  • FIG. 13 is a view showing a specific operation (2) of the alarm device for a vehicle.
  • FIG. 14 A diagram showing an alarm level in the case of the specific operation (2) shown in FIG. 13, (a) shows an alarm level of voice output from a speaker, (b), (c) , The message displayed by the display unit An example of the page is shown.
  • FIG. 1 The configuration of the alarm device for a vehicle according to the present embodiment is shown in FIG.
  • the alarm device 1 for a vehicle includes a radar 11, a camera 12, an image processing unit 13, and the like.
  • Operation information acquisition unit 14 display unit 15, speaker 16, time measurement unit 17, RAM 18,
  • the ROM 19 and the CPU 20 are provided.
  • the vehicle alarm device 1 allows the driver of the own vehicle 41 to approach the other vehicle 42. An alarm is issued when it is determined that the vehicle is not recognized.
  • the alarm device 1 for a vehicle is configured to set the level (alarm level) of the alarm to be output according to the degree that the driver recognizes the other vehicle 42 in order to appropriately issue the alarm. ing.
  • door mirrors 51L and 51R for reflecting the image of the other vehicle 42 are provided on the left and right of the own vehicle 41, respectively, for the driver 2 to confirm the rear of the own vehicle 41.
  • the radar 11 detects the other vehicle 42 as an obstacle approaching from behind, measures the distance between the own vehicle 41 and the other vehicle 42, and detects the position information of the other vehicle 42 relative to the own vehicle 41.
  • a laser radar, a millimeter wave radar, an ultrasonic radar, a doppler sound wave radar or the like is used.
  • the radar 11 is attached to the rear of the vehicle 41 as shown in FIG.
  • the radar 11 detects, for example, another vehicle 42 in the right and rear of the own vehicle 41 within the range of the detection angle ⁇ 1 and, as its position information, for example, The distance in the direction orthogonal to the rear side surface of the car 41 (for example, 10 m) and the distance in the direction orthogonal to the right side surface of the vehicle 41 (for example, 3 m) are detected.
  • the radar 11 detects the other vehicle 42, the radar 11 supplies the CPU 20 with distance information between the own vehicle 41 and the other vehicle 42, together with information indicating that the other vehicle 42 has been detected, to the CPU 20.
  • the camera 12 is for photographing the face of the driver 2 of the host vehicle 41.
  • the camera 12 is attached to the rod 53 of the handle, as shown in FIG.
  • the image processing unit 13 performs image processing on the face image of the driver 2 obtained by the camera 12 by photographing.
  • the image processing unit 13 binarizes the face image as image processing to generate a binary image, and further performs edge processing to generate an edge image.
  • the image processing unit 13 acquires a face image in which at least the outline of the face, the eyes, and the nose are represented by edges as general feature points of the driver 2.
  • the image processing unit 13 obtains the pupil center of the driver 2 and the Purkinje image from the face image of the driver 2.
  • Purkinje's image is an image of a point light source (camera) reflected on the surface of the eye
  • the vehicle 41 further includes a motor 51 M, switches 51 S and 52 S, and a seat position sensor 54.
  • the motor 51M is a motor for driving the door mirrors 51L, 51R vertically and horizontally, and is equipped with an encoder for detecting a rotational angle.
  • the switch 51S is a switch for driving the door mirrors 51L and 51R, and is operated by the driver 2. Power supply (not shown) and the motor 51M.
  • the switch 52S is a switch for operating when the driver 2 makes a lane change.
  • the power supply When operated by the driver 2, the power supply is connected to the left direction win force 52Lf, 52Lb or the right direction win force 52Rf, 52Rb.
  • the seat position sensor 54 is for detecting the position of the seat of the driver 2 with respect to the camera 12.
  • the operation information acquisition unit 14 acquires operation information of the driver 2.
  • the operation information acquisition unit 14 detects the rotation angle of the motor 51M when the driver 2 operates the switch 51S, thereby detecting the upper, lower, left, and right angles of the door mirrors 51L, 51R.
  • the operation information acquisition unit 14 also acquires operation information when the driver 2 operates the switch 52S. In addition, the operation information acquisition unit 14 acquires sheet position information from the sheet position sensor 54. The operation information acquisition unit 14 supplies the operation information to the CPU 20.
  • the display unit 15 includes, for example, a liquid crystal display and performs various displays, and is used as an alarm device with a display for alerting the driver 2 of the host vehicle 41.
  • the display unit 15 may be for a car navigation device.
  • the display unit 15 is controlled by the CPU 20 and performs display according to the set alarm level as an alarm output.
  • the speaker 16 emits car audio and radio sound, and is used as an alarm device by sound.
  • the speaker 16 is controlled by the CPU 20 and outputs an alarm at a volume according to the set alarm level.
  • the time measuring unit 17 measures time.
  • the RAM 18 is a working memory for storing data necessary for the CPU 20 to perform processing.
  • the ROM 19 is for storing data such as a program for the CPU 20 to execute processing and message data.
  • the ROM 19 stores program data of vehicle alarm processing described later as program data.
  • the ROM 19 stores a table for setting alarm levels as shown in FIG.
  • the amount of reflection X indicates the percentage (%) in which other vehicles are reflected with respect to the reflection area of the door mirror 51L or 51R (the area reflected on the door mirror 51L or 51R viewed by the driver 2).
  • the gaze time t is a time when the line of sight of the driver 2 is directed to the door mirror 51L or 51R. This gaze time t may be the time when the line of sight of the driver 2 is continuously directed toward the door mirror 51L or 51R! /, And the total time of the time frequently turned to a certain time It may be
  • This table shows the relationship between the reflection amount X and the fixation time t and the alarm level, and the alarm level is set to 0 to 10. And the smaller this number, the lower the alarm level.
  • the CPU 20 is for controlling the alarm device 1 for a vehicle.
  • the CPU 20 determines the line-of-sight direction ⁇ ⁇ 2 of the driver 2 shown in FIG. In order to determine the line-of-sight direction 2 of the driver 2, the CPU 20 acquires an edged face image of the driver 2 from the image processing unit 13.
  • the ROM 19 stores in advance the correspondence between the face angle of the driver 2 and the face image.
  • the CPU 20 refers to the correspondence relationship stored in the ROM 19 to acquire the face angle.
  • the CPU 20 calculates the angle of the eye of the driver 2.
  • the face angle is based on the position of the camera 12 and the eye angle is based on the face direction.
  • the CPU 20 calculates the angle of the line of sight from the relative positional relationship between the pupil center and the Purkinje image acquired by the image processing unit 13.
  • the CPU 20 determines the line of sight from the positional relationship between the central coordinates O of the pupil 63 in the image and the central coordinates of the Purkinje image 64. Calculate the direction ⁇ 2.
  • the CPU 20 determines the final driver 2's gaze direction based on the face angle and the eyeball angle. Determine ⁇ 2.
  • the CPU 20 determines that the line of sight of the driver 2 does not point in any direction of the door mirrors 51L and 51R, the CPU 20 refers to the table of the ROM 19.
  • the alarm level is 10 regardless of the ratio of the reflection amount X.
  • the CPU 20 sets the alarm level to 10.
  • the CPU 20 sets the alarm level. The degree to which the line of sight of the driver 2 points in the direction of the door mirror 51L or 51R is determined.
  • the CPU 20 reflects the reflection amount X of the other vehicle 42 against the mirror reflection area and the driver 2's line of sight toward the door mirror 51 L or 51 R This degree is determined based on the fixation time t.
  • the CPU 20 detects a three-dimensional face position based on the image of the driver 2 shown in the camera 12 and the sheet position information supplied from the operation information acquisition unit 14.
  • the CPU 20 When detecting the three-dimensional face position, the CPU 20 detects the line of sight direction 2 of the driver 2, the three-dimensional face position, and the top, bottom, left, and right directions of the door mirrors 51L and 51R supplied from the operation information acquisition unit 14. Based on the direction of the mirror angle, as shown in FIG. 8, the mirror reflection area when the driver 2 looks at the door mirror 51L or 51R is determined. In the example of FIG. 8, a mirror reflection area A1 when the driver 2 looks at the door mirror 51R is shown.
  • the CPU 20 determines the mirror reflection area A1
  • the CPU 20 obtains the position information of the other vehicle 42 previously acquired. Using the information, as shown in FIG. 9, the amount of reflection x (%) of the other vehicle 42 to the mirror reflection area A1 is obtained.
  • the CPU 20 acquires a watching time t in which the line of sight of the driver 2 is directed to the door mirror 51L or 51R.
  • the CPU 20 acquires from the time measuring unit 17 the time when the driver 2 of the own vehicle 41 looks at the door mirror 51 L or 51 R and the time when the driver 2 looks away.
  • the PU 20 obtains the gaze time t at which the driver 2 looks at the door mirror 51 L or 51 R from these acquired times.
  • the CPU 20 When the CPU 20 obtains the reflection amount x (%) of the other vehicle 42 and the gaze time t, the CPU 20 refers to the table in the ROM 19 and sets the alarm level.
  • the CPU 20 controls the display unit 15 and the speed 16 so as to output an alarm at the set alarm level.
  • the CPU 20 When the detection information is supplied from the radar 11, the CPU 20 reads data of a program for alarm processing for a vehicle from the ROM 19, and executes this processing according to the flowchart shown in FIG.
  • the CPU 20 obtains the position information of the other vehicle behind based on the distance information from the radar 11 (step S11).
  • the CPU 20 acquires the face image of the driver 2 from the image processing unit 13, and detects the line-of-sight direction 2 of the driver 2 based on the acquired face image (step S12).
  • the CPU 20 determines whether the line of sight of the driver 2 is directed to the door mirror 51L or 51R based on the detected line of sight direction 2 of the driver 2 (step S13).
  • the CPU 20 refers to the table of the ROM 19 (step S14).
  • the CPU 20 sets the alarm level to 10 because the gaze time t is 0 (step S15).
  • the CPU 20 controls the display unit 15 and the speed 16 to output an alarm in accordance with the set alarm level (step S16). Then, the CPU 20 ends this operation.
  • step S 13 when it is determined that the line of sight of the driver 2 is directed to the door mirror 51 L or 51 R (Yes in step S 13), the CPU 20 receives the operation information supplied from the operation information acquisition unit 14. Whether or not the switch 52S for the win forces 52Lf, 52Lb, 52Rf, 52Rb is operated is determined based on (step S17).
  • step S17 If it is determined that the switch 52S has been operated (Yes in step S17), the CPU 20 sets the alarm level to 0 (step S18), and terminates the vehicle alarm process.
  • step S17 when it is determined that the switch 52S is not operated (No in step S17), the CPU 20 controls the image of the driver 2 captured by the camera 12 and the sheet position information supplied from the operation information acquisition unit 14 Based on! /, Detect 3D face position (step S 19).
  • the CPU 20 detects the mirror angle of the door mirror 51L or 51R in the vertical and horizontal directions (step S20).
  • the CPU 20 controls the line of sight direction 2 of the driver 2, the detected three-dimensional face position, and the mirror angle of the door mirror 51L or 51R supplied from the operation information acquisition unit 14 in the vertical and horizontal directions.
  • the CPU 20 obtains the reflection amount x of the other vehicle 42 reflected in the mirror reflection area A1 (step S22).
  • the CPU 20 acquires from the time measuring unit 17 the start time and the end time at which the driver 2 gazes at the door mirror 51L or 51R, and acquires the gaze time t of the door mirror 51L or 51R based on the acquired times. (Step S23).
  • the CPU 20 refers to the table of the ROM 19 (step S24).
  • the CPU 20 sets the alarm level in accordance with the contents of the table referred to (step S2).
  • the CPU 20 controls the display unit 15 and speed 16 so as to output an alarm according to the set alarm level (step S16). Then, the CPU 20 ends this operation.
  • the mirror reflection amount X is 20% and Suppose that the gaze time t is 2 ⁇ 0 seconds.
  • the CPU 20 refers to the table shown in FIG. 5 (processing of step S24). Therefore, the CPU 20 sets the alarm level Lv to "4" (processing of step S25). Then, the CPU 20 controls the display unit 15 and the speaker 16 to output an alarm at this alarm level Lv (processing of step S16).
  • the speaker 16 outputs a voice whose alarm level Lv is set to “4” as shown in FIG. 12 (a), and the display unit 15 outputs a message as shown in FIG. 12 (b).
  • the mirror reflection amount X is 10%
  • the gaze time t is 0 ⁇ 5 ⁇ t 0l. 0 (seconds) It shall be.
  • the CPU 20 refers to the table shown in FIG. 5 (processing of step S24)
  • the alarm level Lv is “9”.
  • the CPU 20 sets the alarm level Lv to "9" (processing of step S25).
  • the CPU 20 controls the display unit 15 and the speaker 16 to output an alarm at this alarm level Lv (processing of step S16).
  • the speaker 16 outputs, for example, a voice whose alarm level Lv is set to “9” as shown in FIG. 14 (a) (for example, the volume is larger than that of the alarm level Lv “4”).
  • the display unit 15 may, for example, blink display characters as shown in FIG. 14 (b) or, as shown in FIG. The display is made in such a manner as to draw more attention to the driver 2 as compared with the case of FIG.
  • the CPU 20 acquires the gaze direction ⁇ ⁇ 2 of the driver 2 and looks at it.
  • the alarm level is set based on time t and the mirror reflection amount X of the other vehicle 42.
  • the CPU 20 refers to the table of the ROM 19 and sets the alarm level based on the gaze time t and the amount of reflection X.
  • the CPU 20 sets the alarm level based only on the fixation time t or only on the reflection amount X. You can also.
  • the data in the table shown in FIG. 5 is also an example, and it is not limited to the gaze time t, the amount of reflection, and the alarm level.
  • the CPU 20 determines an alarm level based on the information of the distance measured by the radar 11. It may be set. That is, when the position of the other vehicle 42 is far from the host vehicle 41, the CPU 20 sets the alarm level low, and raises the alarm level as it approaches.
  • the calculation method of the gaze direction ⁇ 2 in the above embodiment is not limited to this.
  • the detailed angle of the face can also be determined by finding the line of sight direction ⁇ 2 by detecting where the center point of the line connecting the center of the right eye and the center of the left eye is located. it can.
  • the obstacle is described as a vehicle.
  • obstacles are not limited to vehicles.
  • the obstacle may be a road installation such as a utility pole, a tree, or a planting, and the present embodiment can be applied when the vehicle is retracted.
  • the radar 11 is used to detect the other vehicle 42 as an obstacle.
  • a camera may be used to detect other vehicles 42.
  • the mirror that reflects the image of the obstacle may be a side mirror or a room mirror other than the door mirror.
  • the rearview mirror it is possible to cope with other vehicles located behind the host vehicle and not behind.
  • a door mirror and a rearview mirror may be combined.
  • the display unit and the speaker are used as means for outputting an alarm.
  • the vehicle alarm device sets the light intensity and the blinking interval of the light emitter according to the set alarm level, and the light emitter emits light such as an LED (Light Emitting Diode). You may make it blink.
  • LED Light Emitting Diode
  • the alarm device for a vehicle can also output an alarm by combining the display unit, the speaker, and the! / Shift force of the light emitter based on the set alarm level.
  • the present invention can issue an alarm at an appropriate level according to the situation when an obstacle behind the vehicle is detected. Therefore, the present invention is useful as an alarm device mounted on a vehicle such as an automobile or a motorcycle. Very expensive.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Ophthalmology & Optometry (AREA)
  • Traffic Control Systems (AREA)
  • Rear-View Mirror Devices That Are Mounted On The Exterior Of The Vehicle (AREA)
  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
  • Emergency Alarm Devices (AREA)

Description

明 細 書
車両用警報装置及び車両用警報方法
技術分野
[0001] 本発明は、車両用警報装置及び車両用警報方法に関するものである。
背景技術
[0002] 後方から障害物が近づいて来た場合、この障害物をセンサにより検知し、危険と判 断したときに警報を発する警報装置がある (例えば、特許文献 1参照)。
特許文献 1:特開 2001— 199296号公報(第 6— 10頁、図 1)
発明の開示
発明が解決しょうとする課題
[0003] しかし、従来の警報装置は、ドライバがその障害物を視認して!/、るかどうか関係なく
、警報を発する。このため、ドライバにとっては煩わしいものである。
[0004] 本発明は、このような従来の問題点に鑑みてなされたもので、運転者に適切に警報 を発することが可能な車両用警報装置及び車両用警報方法を提供することを目的と する。
課題を解決するための手段
[0005] この目的を達成するため、本発明の第 1の観点に係る車両用警報装置は、自車の 後方に位置する障害物を検出する障害物検出部と、前記障害物検出部により前記 障害物が検出された際、警報を出力する警報出力部と、前記障害物の像を反射する 鏡と、前記自車の運転者の視線方向を判別する視線方向判別部と、前記視線方向 判別部が判別した前記視線方向に基づ!/、て、前記運転者の視線が前記鏡の方向に 向いているか否力、を判定する判定部と、前記判定部の判定結果に従って、前記警報 出力部が出力する警報のレベルを設定する警報レベル設定部と、を備えたことを特 徴とする。
[0006] 前記判定部は、前記視線方向判別部が判別した前記視線方向に基づ!/、て前記運 転者の視線が前記鏡の方向に向いているか否かを判定するとともに、前記運転者の 視線が前記鏡の方向に向いている度合いを判別し、前記警報レベル設定部は、前 記判定部が判別した前記度合いに基づいて、前記警報出力部が出力する警報のレ ベルを設定するようにしてもよ!/、。
[0007] 前記警報レベル設定部は、前記度合いが大きくなると、前記警報出力部が出力す る警報のレベルを低減させるようにしてもょレ、。
[0008] 前記判定部は、前記運転者の視線が前記鏡の方向に向いて!/、る時間に基づ!/、て 前記度合レ、を判別するようにしてもょレ、。
[0009] 前記障害物検出部は、前記障害物を検出するとともに、前記自車に対する前記障 害物の位置情報を取得し、前記判定部は、前記視線方向判別部が判別した前記運 転者の視線方向に基づレ、て前記鏡に映り込む領域を判別し、判別した領域と前記 障害物検出部が取得した前記位置情報とに基づいて、前記障害物が前記鏡に映り 込んで!/、る割合を判別し、判別した割合に基づ!/、て前記運転者の視線が前記鏡の 方向に向いて!/、る度合!/、を判別するようにしてもよ!/、。
[0010] 前記警報出力部が出力する警報のレベルが設定されたテーブルを記憶する記憶 部をさらに備え、前記警報レベル設定部は、前記記憶部に記憶された前記テーブル を参照して、前記警報のレベルを設定するようにしてもよい。
[0011] 前記自車の運転者が方向指示器を操作したときの操作情報を取得する操作情報 取得部をさらに備え、前記警報レベル設定部は、前記操作情報取得部が取得した前 記操作情報も加味して、前記警報出力部が出力する警報のレベルを設定するように してもよい。
[0012] 前記判定部により前記運転者の視線が前記鏡の方向に向いて!/、な!/、と判定された 場合、前記警報レベル設定部は、前記警報出力部が出力する警報を最も高いレべ ルに設定するようにしてもよ!/、。
[0013] 本発明の第 2の観点に係る車両用警報装置は、自車の後方に位置する障害物を 検出するとともに、前記自車と検出した前記障害物の間の距離を計測する障害物検 出部と、前記障害物検出部により前記障害物が検出された際、警報を出力する警報 出力部と、前記障害物検出部が計測した前記距離に基づいて、前記警報出力部が 出力する警報のレベルを設定する警報レベル設定部と、を備えたことを特徴とする。
[0014] 本発明の車両用警報方法は、 自車の後方に位置する障害物を検出する障害物検 出ステップと、前記障害物が検出された際、警報を出力する警報出力ステップと、前 記自車の運転者の視線方向を判別する視線方向判別ステップと、判別した前記視 線方向に基づいて、前記運転者の視線が、前記障害物の像を反射する鏡の方向に 向いて!/、るか否かを判定する判定ステップと、該判定ステップでの判定結果に従って 、出力する警報のレベルを設定する警報レベル設定ステップと、を備えたことを特徴 とする。
発明の効果
[0015] 本発明によれば、運転者に適切に警報を出力することができる。
図面の簡単な説明
[0016] [図 1]本発明の実施形態に係る車両用警報装置の構成を示すブロック図である。
[図 2]図 1に示す車両用警報装置の概要動作を説明するための図である。
[図 3]自車の構成を示す図である。
[図 4]他車の検出について説明するための図である。
[図 5]警報レベルを設定するためのテーブルを示す図である。
[図 6]運転者の顔の向き、視線方向を取得する動作を示す図であり、(a)は、基準とな る顔、 目を示し、(b)は、顔だけを横に向けた状態を示し、(c)は、顔と眼球とを横に 向けたときの状態を示す。
[図 7]運転者の視線を取得する動作を示す図である。
[図 8]ミラー映り込みエリアを特定する動作を示す図である。
[図 9]他車の映り込み量について説明するための図である。
[図 10]図 1に示す CPUが実行する車両用警報処理を示すフローチャートである。
[図 11]車両用警報装置の具体的な動作(1)を示す図である。
[図 12]図 11に示す具体的な動作(1)の場合の警報レベルを示す図であり、(a)は、 スピーカが出力する音声の警報レベルを示し、(b)は、表示部が表示するメッセージ を示す。
[図 13]車両用警報装置の具体的な動作 (2)を示す図である。
[図 14]図 13に示す具体的な動作(2)の場合の警報レベルを示す図であり、 (a)は、 スピーカが出力する音声の警報レベルを示し、(b)、(c)は、表示部が表示するメッセ ージの一例を示す。
符号の説明
[0017] 1 車両用警報装置
2 運転者
11 レーダ (障害物検出部)
12 カメラ
13 画像処理部
14 操作情報取得部
15 表示部 (警報出力部)
16 スピーカ(警報出力部)
17 時間計測部
19 ROM
20 CPU (視線方向判別部、判定部、警報レベル設定部)
51L, 51R ドアミラー(鏡)
発明を実施するための最良の形態
[0018] 以下、本発明の実施形態に係る装置を図面を参照して説明する。
本実施形態に係る車両用警報装置の構成を図 1に示す。
本実施形態に係る車両用警報装置 1は、レーダ 11と、カメラ 12と、画像処理部 13と
、操作情報取得部 14と、表示部 15と、スピーカ 16と、時間計測部 17と、 RAM18と、
ROM19と、 CPU20と、を備える。
[0019] この車両用警報装置 1は、図 2に示すように、 自車 41の後側方に他車 42が接近し ている場合、自車 41の運転者がこの他車 42の接近を認識していないと判別されると きに警報を発するものである。
[0020] この車両用警報装置 1は、警報を適切に発するため、運転者が他車 42を認識して いる程度に応じて、出力する警報のレベル (警報レベル)を設定するように構成され ている。
[0021] 図 3に示すように、自車 41の左右には、それぞれ、運転者 2が自車 41の後方を確 認するため、他車 42の像を反射するドアミラー 51L, 51Rが備えられ、 4隅には、レ ーンチェンジするときに点滅させるウィン力 52Lf, 52Lb, 52Rf, 52Rbが備えられて いる。
[0022] レーダ 11は、後方から接近する障害物としての他車 42を検出するとともに、自車 4 1と他車 42との間の距離を計測し、 自車 41に対する他車 42の位置情報を取得する ものである。レーダ 11には、例えば、レーザレーダ、ミリ波レーダ、超音波レーダ、ドッ ブラー音波レーダ等が用いられる。レーダ 11は、図 3に示すように、自車 41の後部に 取り付けられる。
[0023] そして、図 4に示すように、レーダ 11は、例えば、検知角度 θ 1の範囲内にて、自車 41の右後方の他車 42を検出し、その位置情報として、例えば、自車 41の後側面に 直交する方向の距離 (例えば、 10m)と、自車 41の右側面に直交する方向の距離( 例えば、 3m)を検出する。レーダ 11は、他車 42を検出すると、他車 42を検出した旨 の情報とともに自車 41と他車 42との間の距離情報、位置情報を CPU20に供給する
[0024] カメラ 12は、自車 41の運転者 2の顔を撮影するためのものである。カメラ 12は、図 3 に示すように、ハンドルのロッド 53に取り付けられている。
[0025] 図 1に戻り、画像処理部 13は、カメラ 12が撮影によって得た運転者 2の顔画像に対 して画像処理を行うものである。画像処理部 13は、画像処理として、顔画像を 2値化 して 2値画像を生成し、さらに、エッジ化してエッジ画像を生成する。画像処理部 13 は、このようにして、運転者 2の一般的な特徴点として、少なくとも顔の輪郭、 目、鼻を エッジで表した顔画像を取得する。
[0026] また、画像処理部 13は、運転者 2の顔画像から、運転者 2の瞳孔中心とプルキニェ 像とを取得する。プルキニェ像は、眼球の表面に映り込んだ点光源 (カメラ)の像であ
[0027] また、自車 41は、モータ 51Mと、スィッチ 51S, 52Sと、シート位置センサ 54と、を 備える。
[0028] モータ 51Mは、ドアミラー 51L, 51Rを上下左右に駆動するモータであり、回転角 度を検出するエンコーダ付きのものである。
[0029] スィッチ 51Sは、ドアミラー 51L, 51R駆動用のスィッチであり、運転者 2に操作され て、電源(図示せず)とモータ 51Mとを接続する。
[0030] スィッチ 52Sは、運転者 2がレーンチェンジするときに操作するためのスィッチであり
、運転者 2によって操作されると、電源と左方向用のウィン力 52Lf, 52Lb又は右方向 用のウィン力 52Rf, 52Rbとを接続する。
[0031] シート位置センサ 54は、カメラ 12に対する運転者 2のシートの位置を検知するため のものである。
[0032] 操作情報取得部 14は、運転者 2の操作情報を取得するものである。操作情報取得 部 14は、運転者 2がスィッチ 51Sを操作したときのモータ 51Mの回転角度を検知す ることにより、ドアミラー 51L, 51Rの上下左右の角度を検出する。
[0033] また操作情報取得部 14は、運転者 2がスィッチ 52Sを操作したときの操作情報を取 得する。また、操作情報取得部 14は、シート位置センサ 54から、シートの位置情報を 取得する。操作情報取得部 14は、これらの操作情報を CPU20に供給する。
[0034] 表示部 15は、例えば、液晶ディスプレイを備え、各種の表示を行うものであり、自車 41の運転者 2に対して注意を喚起する表示による警報装置として用いられる。表示 部 15は、カーナビゲーシヨン装置用のものであってもよい。表示部 15は、 CPU20に よって制御され、警報の出力として、設定された警報レベルに応じた表示を行う。
[0035] スピーカ 16は、カーオーディオ、ラジオの音声を発するものであり、音による警報装 置として用いられる。スピーカ 16は、 CPU20によって制御され、設定された警報レべ ルに応じた音量で警報を出力する。
[0036] 時間計測部 17は、時間を計測するものである。 RAM18は、 CPU20が処理に必 要なデータを記憶するための作業用メモリである。
[0037] ROM19は、 CPU20が処理を実行するためのプログラム、メッセージデータ等のデ ータを記憶するためのものである。 ROM19は、プログラムのデータとして、後述する 車両用警報処理のプログラムデータを記憶する。
[0038] さらに、 ROM19は、図 5に示すような警報レベルを設定するためのテーブルを記 憶する。この表において、映り込み量 Xは、ドアミラー 51L又は 51Rの映り込み領域( 運転者 2から見えるドアミラー 51L又は 51Rに映る範囲)に対して、他車が映り込んで いる割合(%)を示す。 [0039] また、注視時間 tは、運転者 2の視線がドアミラー 51L又は 51Rの方に向いている時 間である。この注視時間 tは、運転者 2の視線が連続してドアミラー 51L又は 51Rの 方に向いて!/、る時間であってもよ!/、し、一定の時間にたびたび向いた時間のトータル 時間であってもよい。
[0040] このテーブルは、映り込み量 X及び注視時間 tと警報レベルとの関係を示し、警報レ ベルは、 0〜; 10に設定される。そして、この数値が小さいほど、警報レベルは低いこと になる。
[0041] CPU20は、車両用警報装置 1を制御するためのものである。 CPU20は、レーダ 1
1から、他車 42を検出した旨の情報が供給されると、 ROM19から、車両用警報処理 のプログラムを読み出して、このプログラムを実行する。
[0042] まず、 CPU20は、図 3に示す運転者 2の視線方向 Θ 2を判別する。 CPU20は、運 転者 2の視線方向 Θ 2を判別するため、画像処理部 13から、エッジ化された運転者 2 の顔画像を取得する。
[0043] CPU20は、図 6 (a)に示すように、運転者 2が正面を向いている状態を基準(視線 角度 Θ 2 = 0)として、この顔画像から、運転者 2の顔の角度、眼球の角度を判別する
[0044] ROM19は、運転者 2の顔の角度と顔画像との対応関係を予め記憶する。顔の角 度が図 6 (b)に示すような角度の場合、 CPU20は、この ROM19に記憶された対応 関係を参照して、この顔の角度を取得する。
[0045] また、図 6 (c)に示すように、顔が横向きになっているだけでなく眼球も横向きになつ ている場合、 CPU20は、運転者 2の眼球の角度を算出する。顔の角度は、カメラ 12 の位置を基準とし、眼球の角度は顔の方向を基準とする。 CPU20は、画像処理部 1 3が取得した瞳孔中心とプルキニェ像との相対位置関係から視線の角度を算出する
[0046] 図 7に示すように、眼球 62とカメラ 12との間の距離が既知であるとして、 CPU20は 、画像中の瞳孔 63の中心座標 Oとプルキニェ像 64の中心座標の位置関係から視線 方向 Θ 2を算出する。
[0047] CPU20は、顔の角度と眼球の角度とに基づいて、最終的な運転者 2の視線方向 θ 2を判別する。
[0048] CPU20は、このように運転者 2の視線方向 Θ 2を判別すると、判別した視線方向 Θ 2に基づいて、運転者 2の視線がドアミラー 51L又は 51Rの方向に向いているか否か を判定する。
[0049] CPU20は、運転者 2の視線がドアミラー 51L及び 51Rの何れの方向にも向いてい ないと判定した場合、 ROM19のテーブルを参照する。
[0050] このテーブルを参照すると、注視時間 tが 0. 0秒のときは、映り込み量 Xがどの割合 であっても警報レベルは 10である。この場合、 CPU20は、警報レベルを 10に設定 する。
[0051] また、 CPU20は、操作十青幸取得き 14力、ら、ウィン力 52Lf, 52Lb, 52Rf, 52Rb用 のスィッチ 52Sの操作情報が供給された場合、運転者 2がレーンチェンジするものと 判別し、運転者 2が他車を注視していると判定する。この場合、 CPU20は、警報レべ ルを 0に設定する。
[0052] 運転者 2の視線がドアミラー 51L又は 51Rの方向に向いていると判定し、操作情報 取得部 14力もスィッチ 52Sの操作情報が供給されなかった場合、 CPU20は、警報 レベルを設定するため、運転者 2の視線がドアミラー 51L又は 51Rの方向に向いて いる度合いを判別する。
[0053] CPU20は、運転者 2がドアミラー 51L又は 51Rを見たときのミラー映り込みエリアに 対する他車 42の映り込み量 Xと、運転者 2の視線がドアミラー 51L又は 51Rの方に向 いている注視時間 tと、に基づいて、この度合いを判別する。
[0054] まず、 CPU20は、カメラ 12に映る運転者 2の画像と、操作情報取得部 14から供給 されたシートの位置情報と、に基づ!/、て 3次元の顔位置を検出する。
[0055] CPU20は、この 3次元の顔位置を検出すると、運転者 2の視線方向 Θ 2と、 3次元 の顔位置と、操作情報取得部 14から供給されたドアミラー 51L, 51Rの上下左右方 向のミラー角度と、に基づいて、図 8に示すように、運転者 2がドアミラー 51L又は 51 Rを見たときのミラー映り込みエリアを判別する。図 8の例では、運転者 2がドアミラー 51Rを見たときのミラー映り込みエリア A1が示されている。
[0056] CPU20は、ミラー映り込みエリア A1を判別すると、先に取得した他車 42の位置情 報を使用して、図 9に示すように、ミラー映り込みエリア A1に対する他車 42の映り込 み量 x (%)を取得する。
[0057] また、 CPU20は、運転者 2の視線がドアミラー 51L又は 51Rの方に向いている注 視時間 tを取得する。 CPU20は、自車 41の運転者 2がドアミラー 51L又は 51Rの方 に目を向けたときの時刻、 目をそらしたときの時刻を時間計測部 17から取得する。 C
PU20は、この取得した両時刻から、運転者 2がドアミラー 51L又は 51Rの方に目を 向けて!/、る注視時間 tを取得する。
[0058] CPU20は、他車 42の映り込み量 x(%)と注視時間 tとを取得すると、 ROM19のテ 一ブルを参照し、警報レベルを設定する。
[0059] そして、 CPU20は、設定した警報レベルで警報を出力するように、表示部 15、スピ 一力 16を制御する。
[0060] 次に本実施形態に係る車両用警報装置 1の動作を説明する。
レーダ 11は、他車 42を検知すると、他車 42が接近していることを示す検知情報を
CPU20に供給する。
[0061] CPU20は、レーダ 11から、この検知情報が供給されると ROM19から車両用警報 処理のプログラムのデータを読み出し、図 10に示すフローチャートに従って、この処 理を実行する。
[0062] CPU20は、レーダ 11からの距離情報に基づ!/、て、後方の他車の位置情報を取得 する(ステップ Sl l)。
[0063] CPU20は、画像処理部 13から、運転者 2の顔画像を取得し、取得した顔画像に基 づいて、運転者 2の視線方向 Θ 2を検出する(ステップ S 12)。
[0064] CPU20は、検出した運転者 2の視線方向 Θ 2に基づいて、運転者 2の視線がドアミ ラー 51L又は 51Rの方に向けられているか否かを判定する(ステップ S13)。
[0065] 運転者 2の視線がドアミラー 51L及び 51Rの何れにも向けられていないと判定した 場合(ステップ S 13において No)、 CPU20は、 ROM19のテーブルを参照する(ステ ップ S 14)。
[0066] CPU20は、注視時間 tが 0であるため、警報レベルを 10に設定する(ステップ S15)
〇 [0067] CPU20は、設定した警報レベルに従って、警報を出力するように、表示部 15、スピ 一力 16を制御する(ステップ S 16)。そして、 CPU20は、この動作を終了させる。
[0068] 一方、運転者 2の視線がドアミラー 51L又は 51Rの方に向けられていると判定した 場合 (ステップ S 13において Yes)、 CPU20は、操作情報取得部 14から供給された 操作十青幸 に基づいて、ウィン力 52Lf, 52Lb, 52Rf, 52Rb用のスィッチ 52S力 作 されたか否かを判定する(ステップ S 17)。
[0069] スィッチ 52Sが操作されたと判定した場合(ステップ S17において Yes)、 CPU20は 、警報レベルを 0に設定し (ステップ S 18)、この車両用警報処理を終了させる。
[0070] 一方、スィッチ 52Sが操作されなかったと判定した場合(ステップ S17において No) 、 CPU20は、カメラ 12が撮影した運転者 2の画像と操作情報取得部 14から供給さ れたシート位置情報とに基づ!/、て 3次元の顔位置を検出する(ステップ S 19)。
[0071] CPU20は、この 3次元の顔位置を検出すると、ドアミラー 51L又は 51Rの上下左右 方向のミラー角度を検出する(ステップ S20)。
[0072] CPU20は、運転者 2の視線方向 Θ 2と、検出した 3次元の顔位置と、操作情報取 得部 14から供給されたドアミラー 51L又は 51Rの上下左右方向のミラー角度と、に
[0073] CPU20は、ミラー映り込みエリア A1に対して、映り込んだ他車 42の映り込み量 xを 取得する(ステップ S22)。
[0074] CPU20は、運転者 2がドアミラー 51L又は 51Rを注視した開始時刻と終了時刻と を時間計測部 17から取得し、取得した両時刻に基づいてドアミラー 51L又は 51Rの 注視時間 tを取得する(ステップ S23)。
[0075] CPU20は、 ROM19のテーブルを参照する(ステップ S24)。
CPU20は、参照したテーブルの内容に従って警報レベルを設定する(ステップ S2
5)。
[0076] CPU20は、設定した警報レベルに従って、警報を出力するように、表示部 15、スピ 一力 16を制御する(ステップ S 16)。そして、 CPU20は、この動作を終了させる。
[0077] 次に、この車両用警報装置 1の動作を具体例を挙げて説明する。
他車 42が図 11に示す位置まで接近した場合に、ミラー映り込み量 Xが 20%であり 、注視時間 tが 2· 0秒であったものとする。
[0078] この場合、 CPU20が図 5に示すテーブルを参照すると(ステップ S24の処理)、警 報レベル Lvは、「4」である。このため、 CPU20は、警報レベル Lvを「4」に設定する( ステップ S25の処理)。そして、 CPU20は、この警報レベル Lvで警報を出力するよう に、表示部 15、スピーカ 16を制御する(ステップ S16の処理)。
[0079] スピーカ 16は、例えば、図 12 (a)に示すような警報レベル Lvが「4」に設定された音 声を出力し、表示部 15は、図 12 (b)に示すようなメッセージを表示する。
[0080] また、他車 42が図 13に示す位置まで接近した場合に、ミラー映り込み量 Xが 10% であり、注視時間 tが 0· 5<t≤l . 0 (秒)であったものとする。 CPU20が図 5に示す テーブルを参照すると(ステップ S24の処理)、警報レベル Lvは「9」である。このため 、 CPU20は、警報レベル Lvを「9」に設定する(ステップ S25の処理)。そして、 CPU 20は、この警報レベル Lvで警報を出力するように、表示部 15、スピーカ 16を制御す る(ステップ S 16の処理)。
[0081] スピーカ 16は、例えば、図 14 (a)に示すような警報レベル Lvが「9」に設定された音 声(例えば、警報レベル Lv「4」よりも音量が大きい)を出力する。また、表示部 15は、 例えば、図 14 (b)に示すように表示文字を点滅させたり、あるいは、図 14 (c)に示す ように、メッセージを構成する一部の文字 (例えば、 "注意"等)を拡大させる(目立た せる)等して、図 12 (b)の場合に比べ、より運転者 2に注意を引かせるような態様で表 示を行う。
[0082] 以上説明したように、本実施形態によれば、 自車の後側方から他車 42が接近して いる場合に、 CPU20は、運転者 2の視線方向 Θ 2を取得し、注視時間 tと、他車 42 のミラー映り込み量 Xとに基づいて警報レベルを設定するようにした。
従って、運転者に適切に警報を発することができる。
[0083] 尚、本発明を実施するにあたっては、種々の形態が考えられ、上記実施形態に限 られるものではない。
例えば、上記実施形態では、 CPU20は、 ROM19のテーブルを参照し、注視時間 tと映り込み量 Xとに基づいて警報レベルを設定するようにした。し力、し、 CPU20は、 この注視時間 tのみ、あるいは映り込み量 Xのみに基づいて警報レベルを設定するこ ともできる。また、図 5に示すテーブルのデータも一例であって、この注視時間 t、映り 込み量 χ、警報レベルに限られるものではない。
[0084] また、 CPU20は、運転者 2の視線がドアミラー 51L又は 51Rの方向に向いている か否かを判別する代わりに、レーダ 11が計測した距離の情報に基づいて、警報レべ ルを設定するようにしてもよい。即ち、 CPU20は、自車 41に対して他車 42の位置が 離れているときは、警報レベルを低く設定し、近づくに従って警報レベルを高くする。
[0085] 上記実施形態の視線方向 Θ 2の算出方法は、このものに限られるものではない。例 えば、顔の詳細な角度は、右眼の中心と左眼の中心とをつなぐ線の中心点力 顔の 中でどのあたりに位置するかを検出することで視線方向 Θ 2を求めることもできる。
[0086] 上記実施形態では、他車 42が自車 41の右後方を走行している場合について説明 した。しかし、他車 42が左後方を走行している場合も同様に上記実施形態を適用で きる。
[0087] 上記実施形態では、障害物を車両として説明した。しかし、障害物は、車両に限ら れるものではない。例えば、障害物は、電柱、樹木、植え込みのような路上設置物で あってもよく、自車を後退させるときにも本実施形態を適用できる。
[0088] 上記実施形態では、障害物としての他車 42の検出にレーダ 11を用いるようにした 。しかし、他車 42の検出に、カメラが用いられてもよい。
[0089] また、障害物の像を反射するミラーは、ドアミラーに限られるものではなぐサイドミラ 一、ルームミラーであってもよい。ルームミラーの場合、自車の後側方ではなぐ後方 に位置する他車についても対応することができる。さらに、ドアミラーとルームミラーと を組み合わせてもよい。
[0090] 上記実施形態では、警報を出力する手段として、表示部とスピーカとが用いられた 。し力、し、例えば、 LED (Light Emitting Diode)のような光を発する発光器を備え、車 両用警報装置は、設定した警報レベルに従って発光器の光強度と点滅間隔を設定 し、この発光器を点滅させるようにしてもよい。
[0091] また、車両用警報装置は、設定した警報レベルに基づいて、表示部、スピーカ、発 光器の!/、ずれ力、を組み合わせ、警報を出力することもできる。
[0092] 本出願 (ま、 2006年 9月 29曰 ίこされた、 曰本国特許出願特願 2006— 268799ίこ 基づく。本明細書中に、その明細書、特許請求の範囲、図面全体を参照して取り組 むものとする。
産業上の利用可能性
本発明は、後方の障害物を検出した際、状況に応じた適切なレベルで警報を発す ることができるので、自動車、自動二輪車等の車両に搭載される警報装置として、そ の利用価値は非常に高い。

Claims

請求の範囲
[1] 自車の後方に位置する障害物を検出する障害物検出部と、
前記障害物検出部により前記障害物が検出された際、警報を出力する警報出力部 と、
前記障害物の像を反射する鏡と、
前記自車の運転者の視線方向を判別する視線方向判別部と、
前記視線方向判別部が判別した前記視線方向に基づ!/、て、前記運転者の視線が 前記鏡の方向に向いて!/、るか否かを判定する判定部と、
前記判定部の判定結果に従って、前記警報出力部が出力する警報のレベルを設 定する警報レベル設定部と、を備えた、
ことを特徴とする車両用警報装置。
[2] 前記判定部は、前記視線方向判別部が判別した前記視線方向に基づ!/、て前記運 転者の視線が前記鏡の方向に向いているか否かを判定するとともに、前記運転者の 視線が前記鏡の方向に向いて!/、る度合レ、を判別し、
前記警報レベル設定部は、前記判定部が判別した前記度合いに基づいて、前記 警報出力部が出力する警報のレベルを設定する、
ことを特徴とする請求項 1に記載の車両用警報装置。
[3] 前記警報レベル設定部は、前記度合いが大きくなると、前記警報出力部が出力す る警報のレベルを低減させる、
ことを特徴とする請求項 2に記載の車両用警報装置。
[4] 前記判定部は、前記運転者の視線が前記鏡の方向に向いている時間に基づいて 前記度合いを判別する、
ことを特徴とする請求項 2に記載の車両用警報装置。
[5] 前記障害物検出部は、前記障害物を検出するとともに、前記自車に対する前記障 害物の位置情報を取得し、
前記判定部は、前記視線方向判別部が判別した前記運転者の視線方向に基づ!/ヽ て前記鏡に映り込む領域を判別し、判別した領域と前記障害物検出部が取得した前 記位置情報とに基づいて、前記障害物が前記鏡に映り込んでいる割合を判別し、判 別した割合に基づ!/、て前記運転者の視線が前記鏡の方向に向いて!/、る度合!/、を判 別する、
ことを特徴とする請求項 2に記載の車両用警報装置。
[6] 前記警報出力部が出力する警報のレベルが設定されたテーブルを記憶する記憶 部をさらに備え、
前記警報レベル設定部は、前記記憶部に記憶された前記テーブルを参照して、前 記警報のレベルを設定する、
ことを特徴とする請求項 1に記載の車両用警報装置。
[7] 前記自車の運転者が方向指示器を操作したときの操作情報を取得する操作情報 取得部をさらに備え、
前記警報レベル設定部は、前記操作情報取得部が取得した前記操作情報も加味 して、前記警報出力部が出力する警報のレベルを設定する、
ことを特徴とする請求項 1に記載の車両用警報装置。
[8] 前記判定部により前記運転者の視線が前記鏡の方向に向いて!/、な!/、と判定された 場合、前記警報レベル設定部は、前記警報出力部が出力する警報を最も高いレべ ルに設定する、
ことを特徴とする請求項 1に記載の車両用警報装置。
[9] 自車の後方に位置する障害物を検出するとともに、前記自車と検出した前記障害 物の間の距離を計測する障害物検出部と、
前記障害物検出部により前記障害物が検出された際、警報を出力する警報出力部 と、
前記障害物検出部が計測した前記距離に基づいて、前記警報出力部が出力する 警報のレベルを設定する警報レベル設定部と、を備えた、
ことを特徴とする車両用警報装置。
[10] 自車の後方に位置する障害物を検出する障害物検出ステップと、
前記障害物が検出された際、警報を出力する警報出力ステップと、
前記自車の運転者の視線方向を判別する視線方向判別ステップと、
判別した前記視線方向に基づいて、前記運転者の視線が、前記障害物の像を反 射する鏡の方向に向レ、てレ、るか否かを判定する判定ステップと、
該判定ステップでの判定結果に従って、出力する警報のレベルを設定する警報レ ベル設定ステップと、を備えた、
ことを特徴とする車両用警報方法。
PCT/JP2007/068304 2006-09-29 2007-09-20 Alarm device for vehicle and alarm method for vehicle WO2008041497A1 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
CN2007800345397A CN101536057B (zh) 2006-09-29 2007-09-20 车辆用警报装置及车辆用警报方法
US12/441,863 US8013758B2 (en) 2006-09-29 2007-09-20 Warning device and method for vehicle
EP07807656A EP2061016B1 (en) 2006-09-29 2007-09-20 Alarm device for vehicle and alarm method for vehicle
JP2008537451A JP4924611B2 (ja) 2006-09-29 2007-09-20 車両用警報装置及び車両用警報方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2006-268799 2006-09-29
JP2006268799 2006-09-29

Publications (1)

Publication Number Publication Date
WO2008041497A1 true WO2008041497A1 (en) 2008-04-10

Family

ID=39268359

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2007/068304 WO2008041497A1 (en) 2006-09-29 2007-09-20 Alarm device for vehicle and alarm method for vehicle

Country Status (5)

Country Link
US (1) US8013758B2 (ja)
EP (1) EP2061016B1 (ja)
JP (1) JP4924611B2 (ja)
CN (1) CN101536057B (ja)
WO (1) WO2008041497A1 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012014639A (ja) * 2010-07-05 2012-01-19 Denso Corp 障害物探索システム
JP2012128665A (ja) * 2010-12-15 2012-07-05 Fujitsu Ltd 運転支援装置、運転支援方法及び運転支援プログラム
JPWO2011064831A1 (ja) * 2009-11-30 2013-04-11 富士通株式会社 診断装置及び診断方法
WO2020031695A1 (ja) * 2018-08-09 2020-02-13 ソニーセミコンダクタソリューションズ株式会社 情報処理装置、移動体、情報処理方法及びプログラム
WO2023203706A1 (ja) * 2022-04-21 2023-10-26 三菱電機株式会社 乗員監視装置及び乗員監視方法

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8624505B2 (en) 2010-05-28 2014-01-07 Tsmc Solid State Lighting Ltd. Light color and intensity adjustable LED
US8599027B2 (en) * 2010-10-19 2013-12-03 Deere & Company Apparatus and method for alerting machine operator responsive to the gaze zone
JP2012155655A (ja) * 2011-01-28 2012-08-16 Sony Corp 情報処理装置、報知方法及びプログラム
EP2763123B1 (en) * 2011-09-26 2016-03-23 Toyota Jidosha Kabushiki Kaisha Rear cross traffic alert device
US20130113614A1 (en) * 2011-11-03 2013-05-09 Ford Global Technologies, Llc Systems and methods for vehicle door clearance zone projection
JP5972332B2 (ja) * 2014-09-26 2016-08-17 本田技研工業株式会社 鞍乗型車両の接近報知装置
JP6303975B2 (ja) * 2014-10-22 2018-04-04 株式会社デンソー 障害物警報装置
CN107662559A (zh) * 2016-07-28 2018-02-06 奥迪股份公司 警告控制装置及方法
CN110525337B (zh) * 2019-09-11 2021-09-21 北京经纬恒润科技股份有限公司 车辆安全控制装置及方法
JP2021174054A (ja) * 2020-04-20 2021-11-01 株式会社小松製作所 作業機械の障害物報知システムおよび作業機械の障害物報知方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07167668A (ja) 1993-12-14 1995-07-04 Nissan Motor Co Ltd 走行情報提供装置
JP2001199296A (ja) 2000-01-17 2001-07-24 Matsushita Electric Ind Co Ltd 警報装置、振動体を有する運転座席、警報装置を車両に搭載した移動体
JP2004114977A (ja) 2002-09-30 2004-04-15 Aisin Seiki Co Ltd 移動体周辺監視装置
JP2005018235A (ja) 2003-06-24 2005-01-20 Aisin Seiki Co Ltd 車両用警報装置
JP2005032075A (ja) 2003-07-08 2005-02-03 Nissan Motor Co Ltd 後側方警報装置

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6906619B2 (en) * 2003-02-27 2005-06-14 Motorola, Inc. Visual attention influenced condition indicia apparatus and method
JP4189858B2 (ja) * 2004-11-16 2008-12-03 株式会社ホンダアクセス 障害物検知装置
KR101115221B1 (ko) * 2005-01-07 2012-02-14 주식회사 현대오토넷 차량 근접 경고 시스템 및 방법
JP4557819B2 (ja) * 2005-06-21 2010-10-06 アルパイン株式会社 車両周辺情報提供装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07167668A (ja) 1993-12-14 1995-07-04 Nissan Motor Co Ltd 走行情報提供装置
JP2001199296A (ja) 2000-01-17 2001-07-24 Matsushita Electric Ind Co Ltd 警報装置、振動体を有する運転座席、警報装置を車両に搭載した移動体
JP2004114977A (ja) 2002-09-30 2004-04-15 Aisin Seiki Co Ltd 移動体周辺監視装置
JP2005018235A (ja) 2003-06-24 2005-01-20 Aisin Seiki Co Ltd 車両用警報装置
JP2005032075A (ja) 2003-07-08 2005-02-03 Nissan Motor Co Ltd 後側方警報装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP2061016A4

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2011064831A1 (ja) * 2009-11-30 2013-04-11 富士通株式会社 診断装置及び診断方法
JP2012014639A (ja) * 2010-07-05 2012-01-19 Denso Corp 障害物探索システム
JP2012128665A (ja) * 2010-12-15 2012-07-05 Fujitsu Ltd 運転支援装置、運転支援方法及び運転支援プログラム
WO2020031695A1 (ja) * 2018-08-09 2020-02-13 ソニーセミコンダクタソリューションズ株式会社 情報処理装置、移動体、情報処理方法及びプログラム
JPWO2020031695A1 (ja) * 2018-08-09 2021-08-10 ソニーセミコンダクタソリューションズ株式会社 情報処理装置、移動体、情報処理方法及びプログラム
US11590985B2 (en) 2018-08-09 2023-02-28 Sony Semiconductor Solutions Corporation Information processing device, moving body, information processing method, and program
JP7382327B2 (ja) 2018-08-09 2023-11-16 ソニーセミコンダクタソリューションズ株式会社 情報処理装置、移動体、情報処理方法及びプログラム
WO2023203706A1 (ja) * 2022-04-21 2023-10-26 三菱電機株式会社 乗員監視装置及び乗員監視方法

Also Published As

Publication number Publication date
US20100060440A1 (en) 2010-03-11
CN101536057B (zh) 2011-03-02
JPWO2008041497A1 (ja) 2010-02-04
CN101536057A (zh) 2009-09-16
EP2061016B1 (en) 2012-05-16
EP2061016A1 (en) 2009-05-20
JP4924611B2 (ja) 2012-04-25
US8013758B2 (en) 2011-09-06
EP2061016A4 (en) 2011-03-09

Similar Documents

Publication Publication Date Title
WO2008041497A1 (en) Alarm device for vehicle and alarm method for vehicle
KR101478135B1 (ko) 프로젝션 유닛을 이용한 증강현실 차선변경 보조 시스템
US7847678B2 (en) Vehicle surroundings information output system and method for outputting vehicle surroundings information
JP4134891B2 (ja) 衝突可能性判定装置
JP4825868B2 (ja) 車両用警報装置
JP4946661B2 (ja) 車両用警報表示装置
JP6103138B2 (ja) ドライバ支援システム
JP2017151637A (ja) 表示装置
JP2012084108A (ja) 運転者注視方向連動の前方衝突危険警報システム、その方法及びそれを利用した車両
JP2004519788A (ja) 運転に対するドライバーの注意力を監視するシステム
JP3941770B2 (ja) 衝突可能性判定装置
TWI522257B (zh) 車用安全系統及其運作方法
JPH11245683A (ja) 車両用情報提示装置
JPH07117593A (ja) 車両用警報装置
CN112119438A (zh) 车辆用后侧方警报装置和车辆用后侧方警报方法
JP4186749B2 (ja) 脇見判定装置
JP2017149335A (ja) 運転支援情報表示装置
CN105323539B (zh) 车用安全***及其操作方法
JP6811743B2 (ja) 安全運転支援装置
JP7287199B2 (ja) 車両用注視誘導装置
KR101491177B1 (ko) 나이트 뷰 시스템 및 제어방법
JP2982377B2 (ja) 障害物表示装置
JP2018108784A (ja) 脇見判定装置及び方法
JP2022142614A (ja) 安全確認支援装置、安全確認支援方法及び安全確認支援プログラム
JP5289920B2 (ja) 車両用警報装置

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 200780034539.7

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 07807656

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 12441863

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 2008537451

Country of ref document: JP

WWE Wipo information: entry into national phase

Ref document number: 2007807656

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE