WO2007032427A1 - 運転支援装置、撮影制御方法、撮影制御プログラムおよび記録媒体 - Google Patents

運転支援装置、撮影制御方法、撮影制御プログラムおよび記録媒体 Download PDF

Info

Publication number
WO2007032427A1
WO2007032427A1 PCT/JP2006/318246 JP2006318246W WO2007032427A1 WO 2007032427 A1 WO2007032427 A1 WO 2007032427A1 JP 2006318246 W JP2006318246 W JP 2006318246W WO 2007032427 A1 WO2007032427 A1 WO 2007032427A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
moving body
unit
imaging
traveling direction
Prior art date
Application number
PCT/JP2006/318246
Other languages
English (en)
French (fr)
Inventor
Katsuaki Kawamura
Original Assignee
Pioneer Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Pioneer Corporation filed Critical Pioneer Corporation
Publication of WO2007032427A1 publication Critical patent/WO2007032427A1/ja

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes

Definitions

  • Driving support device photographing control method, photographing control program, and recording medium
  • the present invention relates to a driving support device and a photographing control method that are mounted on a moving body such as a vehicle.
  • the present invention relates to a shooting control program and a recording medium.
  • use of the present invention is not limited to the above-described driving support device, shooting control method, shooting control program, and recording medium.
  • Such a driving support apparatus is configured as follows, for example.
  • a stereo camera is installed on the vehicle, and the traffic light and its state (display color) and the distance between the traffic signal and the vehicle are recognized from the image in front of the vehicle captured by the stereo camera.
  • a warning can be output to the driver of the vehicle by voice or image to call attention (for example, Patent Document 1). reference.).
  • Patent Document 1 Japanese Patent Application Laid-Open No. 2004-199148
  • the driving support apparatus includes an imaging unit that images the front of a moving body, an acquisition unit that acquires behavior information relating to the behavior of the moving body, and the movement based on the behavior information.
  • a determination means for determining whether or not a change has occurred in the advancing direction of the body; and when it is determined that a change has occurred in the advancing direction of the moving body, the imaging direction of the imaging means follows the change in the advancing direction.
  • Control means for changing in this way, and output means for outputting information based on the image photographed by the photographing means.
  • an imaging control method is an operation comprising: an imaging means for imaging the front of the moving body; and an output means for outputting information based on an image captured by the imaging means.
  • An imaging control method in a support device wherein an acquisition step of acquiring behavior information related to the behavior of the moving object, and determining whether or not a change has occurred in a moving direction of the moving object based on the behavior information And a control step of changing the photographing direction of the photographing means so as to follow the change in the traveling direction when it is determined that a change has occurred in the traveling direction of the moving body.
  • a shooting control program according to the invention of claim 7 causes a computer to execute the shooting control method of claim 6.
  • a recording medium according to the invention of claim 8 is characterized in that the photographing control program according to claim 7 is recorded so as to be readable by a computer.
  • FIG. 1 is a block diagram illustrating an example of a functional configuration of a driving assistance apparatus according to an embodiment.
  • FIG. 2 is a flowchart illustrating an example of imaging control processing and driving support processing procedures of the driving support device according to the embodiment.
  • FIG. 3 is a block diagram illustrating an example of a hardware configuration of the driving support apparatus according to the embodiment.
  • FIG. 4 is an explanatory diagram for explaining the outline of the driving support using the photographing control method in the driving support device according to the embodiment.
  • FIG. 5 is a diagram illustrating a shooting control process and a driving support process of the driving support apparatus according to the embodiment.
  • FIG. 1 is a block diagram showing an example of a functional configuration of a driving support apparatus according to an embodiment of the present invention.
  • the driving support apparatus is mounted on a moving body such as a vehicle (including a four-wheeled vehicle and a two-wheeled vehicle), for example, and includes a photographing unit 101, an acquiring unit 102, a determining unit 103, a control unit 104, An extraction unit 105, a determination unit 106, and an output unit 107 are provided.
  • the photographing unit 101 photographs the front of the moving body.
  • the image in front of the moving body photographed by the photographing unit 101 is an image having an angle of view equivalent to the viewing angle that the driver of the vehicle sees when driving. is there.
  • the photographing unit 101 is specifically configured by one or a plurality of photographing devices, for example, and may photograph not only the front of the moving body but also the surroundings of the moving body.
  • the acquisition unit 102 acquires behavior information regarding the behavior of the moving object.
  • the behavior information is detected and acquired, for example, by a detection unit (not shown) of the moving body.
  • the behavior information is, specifically, information indicating the running state of the vehicle when the moving body is a vehicle, for example, information on the speed of the vehicle (speed information, acceleration information, angular velocity information, etc.). ) And information on the steering wheel of the vehicle.
  • behavior information includes vehicle tilt angle information, current location information, and information associated with operation inputs.
  • the determination unit 103 determines whether or not a change has occurred in the traveling direction of the moving object, for example, based on the behavior information acquired by the acquisition unit 102. Specifically, the determination unit 103 determines whether or not the traveling direction of the moving body has changed in the lateral direction of the moving body based on, for example, information on the acceleration of the moving body. Specifically, the determination unit 103 determines whether or not the traveling direction of the moving body has changed to the lateral direction of the moving body based on, for example, information on the speed in the traveling direction of the moving body and information on the acceleration. .
  • the control unit 104 changes the shooting direction of the shooting unit 101 to follow the change in the moving direction. That is, for example, when the determination unit 103 determines that the traveling direction of the moving body has changed to the lateral direction of the moving body based on the information related to the acceleration of the moving body, the control unit 104 changes the shooting direction of the shooting unit 101. Change horizontally.
  • control unit 104 changes the traveling direction of the moving body into the lateral direction of the moving body based on, for example, the information related to the speed in the traveling direction of the moving body and the information related to acceleration. If it is determined that the shooting direction has been changed, the shooting direction of the shooting unit 101 is changed to the horizontal direction by using the speed in the moving direction of the moving body indicated by the information on the speed and the lateral acceleration of the moving body indicated by the information on the acceleration.
  • the control unit 104 relates to the steering machine.
  • the shooting direction of the shooting unit 101 is changed to the horizontal direction based on the steering direction of the moving body indicated by the information, or the shooting of the shooting unit 101 is set based on the information on the acceleration and the speed in the traveling direction together with the information on the steering machine Change the direction to horizontal.
  • the control unit 104 specifically, when the determination unit 103 determines that the traveling direction of the moving object has changed to the lateral direction of the moving object based on the behavior information acquired by the acquiring unit 102. Then, the shooting direction is changed as follows. That is, for example, if it is determined that the moving direction of the moving body has changed to the left lateral direction and the moving body has turned to the left, the range including the left front should be captured instead of capturing the true left lateral direction. If the shooting direction of the shooting unit 101 is changed to the right and the moving direction of the moving body changes to the right side and it is determined that the moving body has turned to the right, instead of shooting the right side direction, The shooting direction of the shooting unit 101 is changed so that the range including it is shot.
  • the extraction unit 105 performs image processing and the like from the image in front of the moving body imaged by the imaging unit 101 to extract a signal image related to a traffic signal that is a road structure.
  • the road structure includes, for example, a member that straddles a road, a member that covers a driving lane, a bridge, a road surface (road pavement), a tunnel, and the like, and includes traffic lights and road white lines. is there.
  • the determination unit 106 determines the display color of the traffic light based on the signal image extracted by the extraction unit 105. Specifically, the determination unit 106 determines, for example, whether the display color of the traffic light is red or yellow. Here, the determination unit 106 does not determine whether the display color of the traffic light is blue (green), but may determine whether the display color is blue (green). Good.
  • the output unit 107 outputs information based on an image in front of the moving object photographed by the photographing unit 101.
  • the output unit 107 is based on the determination result determined by the determination unit 106.
  • Alarm information is output to the driver of the moving body. Specifically, the information and warning information based on these images are displayed and output by the output unit 107, for example.
  • the determination unit 103 determines whether or not a change has occurred in the traveling direction of the moving object.
  • the control unit 104 changes the shooting direction of the shooting unit 101 so as to follow the change in the traveling direction of the moving object. For this reason, even when the road is curved, for example, it is possible to accurately capture a traffic light and output information based on the traffic light on the road without being deviated from the imaging range of the imaging unit 101.
  • a signal image is extracted by the extraction unit 105 from the image captured by the imaging unit 101, and the display color of the traffic light is determined by the determination unit 106 based on the signal image. Since the alarm information can be output to the driver of the moving body by the output unit 107 based on the determination result, the driver can be surely alerted.
  • this driving support device even if the road on which the moving body travels is curved, the imaging direction is surely followed by the traveling direction of the moving body, and an image in front of the moving body is captured. Information based on the processed image can be output. As a result, it is possible to provide driving assistance by alerting the driver with information based on information based on the image ahead of the moving object.
  • FIG. 2 is a flowchart showing an example of imaging control processing and driving support processing procedures of the driving support device according to the embodiment of the present invention.
  • the front of the moving object is photographed by the photographing unit 101.
  • Step S201 the acquisition unit 102 acquires the behavior information of the moving object (Step S202).
  • the determination unit 103 determines whether there is a change in the traveling direction of the moving body (step S203). If it is determined that there is no change in the traveling direction of the moving body (step S203: No), the process returns to step S201 and the front of the moving body is photographed.
  • step S203: Yes the control unit 104 changes the shooting direction by the shooting unit 101 so as to follow the change in the moving direction of the moving body ( Step S204
  • control unit 104 determines whether or not there is a signal image related to the traffic light in the image captured by the imaging unit 101 (step S205), and when it is determined that there is no signal image (step S205) In step S205: No), the process returns to step S201 and the front of the moving object is photographed.
  • step S205 if it is determined that there is a signal image (step S205: Yes), the extraction unit 105 extracts the signal image from the image captured by the imaging unit 101 (step S206).
  • the display color of the traffic light based on the signal image is determined by the unit 106 (step S207), and based on the determination result, for example, the control unit 104 determines whether the display color is red or yellow (step S208). .
  • step S208: No If it is determined that the display color is not red or yellow (step S208: No), the process returns to step S201 to photograph the front of the moving body. If it is determined that the display color is red or yellow (step S208: Yes), the alarm information related to the determined red or yellow is output by the output unit 107, for example, by display output or audio output (step S208: Yes). S209), the process returns to the shooting process of step S201 and loops.
  • the shooting control process and the driving support process in the driving support device in this manner, for example, even if the road on which the moving body travels is curved, the shooting direction is surely followed by the change in the moving direction of the moving body. It is possible to capture an image in front of the moving body and output warning information by determining the presence or absence of a signal image and display color based on the captured image. Therefore, it is possible to provide driving assistance by alerting the driver accurately and reliably based on the signal image.
  • the photographing direction of the photographing apparatus is surely set in the traveling direction of the moving body.
  • the image of the front of the moving object is taken and the information based on the taken image is displayed as warning information.
  • the information on the road ahead of the moving object is accurately transmitted to the driver while accurately acquiring the image on the road on which the moving object is traveling. Can be achieved.
  • FIG. 3 is a block diagram showing an example of a hardware configuration of the driving support apparatus according to the embodiment of the present invention.
  • the same parts as those already described are denoted by the same reference numerals and the description thereof is omitted.
  • the driving support device 300 includes a control unit 301, a user operation unit 302, a display unit 303, an information acquisition unit 304, a recording medium 305, and a recording medium decoding unit 306.
  • the audio output unit 307, the communication unit 308, the camera 309, the camera drive unit 310, the image processing unit 311, the audio generation unit 312, and the speaker 313 are configured.
  • the control unit 301 controls the entire driving support apparatus 300, for example.
  • the control unit 301 includes, for example, a CPU (Central Processing Unit) that executes predetermined arithmetic processing, a ROM (Read Only Memory) that stores various control programs, and a RAM (Random Access Memory) that functions as a work area of the CPU.
  • a microcom- ponent configured by ECU (Electronic Control Unit) can be realized.
  • User operation unit 302 outputs information input by the user, such as characters, numerical values, and various instructions, to control unit 301.
  • the user operation unit 302 includes, for example, a push button switch, a touch panel, a remote controller, and the like. Further, the user operation unit 302 may be configured to perform an input operation by voice using a microphone that inputs voice from the outside.
  • the display unit 303 includes, for example, a CRT (Cathode Ray Tube), a TFT (Thin Film Transi stor) Liquid crystal display, organic EL (Electroluminescence) display, plasma display, etc.
  • the display unit 303 can be configured by, for example, a video IZF or a video display device connected to the video IZF.
  • the video I / F specifically includes, for example, a graphic controller that controls the entire display device and a buffer such as a VRAM (Video RAM) that temporarily stores image information that can be displayed immediately. It consists of a memory and a control IC that controls display on the display device based on image information output from the graphic controller.
  • the display unit 303 displays video (image) information, alarm information, and various other information captured by a camera 309, which will be described later.
  • the information acquisition unit 304 includes a GPS receiver and various sensors, and the position of the moving object.
  • Information on the position of the driving support device 300, vehicle behavior information, and the like are acquired.
  • the information acquisition unit 304 acquires information related to navigation from the navigation device. Then, the acquired various information is output to the control unit 301.
  • the GPS receiver receives the radio wave from the GPS satellite and obtains the geometric position with respect to the GPS satellite.
  • GPS is an abbreviation for Global Positioning System, and is a system that accurately obtains the position on the ground by receiving radio waves from four or more satellites.
  • the GPS receiver consists of an antenna for receiving radio waves from GPS satellites, a tuner that demodulates the received radio waves, and an arithmetic circuit that calculates the current position based on the demodulated information.
  • the various sensors include, for example, a speed sensor, an inclination angle sensor, an acceleration sensor, an angular velocity sensor (gyro sensor), a lateral G sensor, and the like.
  • the speed sensor detects the vehicle speed from the output shaft of the vehicle transmission and outputs speed information.
  • the tilt angle sensor detects, for example, a tilt angle on the road surface of the vehicle, and outputs tilt angle information.
  • the angular velocity sensor detects, for example, the traveling direction of the vehicle, detects the angular velocity at the time of cornering of the vehicle, and outputs angular velocity information and relative azimuth information.
  • the lateral G sensor detects lateral G, which is an outward force (centripetal force) generated by centrifugal force at the time of cornering of the vehicle, for example, and outputs lateral G information.
  • the information acquisition unit 304 For example, the steering angle information of the steering wheel (steering wheel) of the vehicle may be acquired.
  • the information acquisition unit 304 obtains, for example, the movement displacement, movement speed, movement direction, and inclination angle of the vehicle from information output from these various sensors. Then, by using the output information from the various sensors together with the information obtained from the radio wave received by the GPS receiver, the position of the moving body can be recognized with higher accuracy.
  • the navigation-related information acquired by the information acquisition unit 304 includes, for example, map information used for route search and route guidance in the navigation device.
  • This map information includes, for example, background information representing features (features) such as buildings, rivers, and the ground surface, and road shape information representing the shape of the road. Rendered in 3D or 3D.
  • this map information and a mark indicating the current position of the moving body are displayed in an overlapping manner on the display screen of the display unit 303. Further, when warning information or the like is output from the driving support device 300, the warning information or the like is displayed on the display screen of the display unit 303 in an overlapping manner.
  • the background information includes background shape information representing the shape of the background and background type information representing the type of the background.
  • the background shape information includes, for example, the coordinates of the representative point “polyline” “polygon” of the feature.
  • the background type information includes, for example, the name of the feature and text information indicating the address of the residence 'phone number, and the type of feature such as the building' river 'ground surface.
  • the road shape information is information relating to a road network having a plurality of nodes and links.
  • the node indicates an intersection where a plurality of roads intersect, such as a three-way crossroad 'crossroad' and a five-way crossing.
  • the link indicates a road connecting the nodes.
  • the road shape information further includes traffic condition information.
  • the traffic condition information includes, for example, the presence / absence of signals and pedestrian crossings, the presence / absence of highway entrances and junctions, the length (distance) of each link, vehicle width, direction of travel, traffic prohibition, and road type (highway). , Toll roads, general roads, etc.).
  • This traffic condition information includes past traffic information that has been statistically processed based on the season 'day' large holiday 'time, etc. Is remembered.
  • the information acquisition unit 304 acquires road traffic information such as traffic congestion and traffic rules distributed from a VICS (Vehicle Information and Communication System) (registered trademark) center and received by a navigation device. It may be.
  • VICS Vehicle Information and Communication System
  • the map information acquired from the navigation device by the information acquisition unit 304 is used in the driving support device 300, not only the behavior information of the vehicle but also the position of the traffic light on the road, the road shape, etc., for example. It becomes possible to read ahead and use it for driving support
  • the recording medium 305 various control programs and various information are recorded in a state readable by a computer.
  • the recording medium 305 can be realized by, for example, an HD (Hard Disk), a DV D (Digital Versatile Disk), a CD (Compact Disk), a memory card, or the like.
  • the recording medium 305 may accept writing of information by the recording medium decoding unit 306 and may record the written information in a nonvolatile manner.
  • the recording medium decoding unit 306 controls reading (reading) / writing (writing) of information with respect to the recording medium 305.
  • the map information is acquired from the navigation device by the information acquisition unit 304.
  • This map information may be recorded in the recording medium 305, for example.
  • the map information may be recorded on an external server or the like.
  • the driving support apparatus 300 may acquire map information from an external server via a network via a communication unit 308 described later, for example.
  • the acquired map information is temporarily or permanently stored in RAM.
  • the audio output unit 307 reproduces sound such as a warning sound by controlling output to the connected speaker 313.
  • one speaker 313 or a plurality of speakers 313 may be provided.
  • the audio output unit 307 performs, for example, a DZA converter that performs DZA conversion of audio digital information, an amplifier that amplifies the audio analog signal output from the DZA converter, and A / D conversion of the audio analog signal. It can be configured with an AZD converter.
  • the communication unit 308 includes, for example, an FM multiplex tuner, a wireless communication device, and other communication devices. It communicates with other communication devices.
  • the communication unit 308 may be configured to perform communication via a communication medium such as a mobile phone, PHS, communication card, and wireless LAN.
  • the camera 309 is configured by a photographing device such as a digital still camera (DSC) or a digital video camera (DVC) mounted on the rear side of a vehicle rearview mirror, for example, and includes a photoelectric conversion element such as a C-MOS or CCD. And take a picture of the front of the vehicle.
  • the camera 309 takes an image of the front of the vehicle with an angle of view in the range of ⁇ 30 ° to 45 ° left and right around the traveling direction.
  • the camera driving unit 310 for example, mechanically drives the fixed shaft of the camera 309 by control from the control unit 301 based on the behavior information of the vehicle acquired by the information acquisition unit 304. When there is a change in the traveling direction, the shooting direction of the camera 309 is changed so as to follow the traveling direction.
  • the camera driving unit 310 can be realized by a rotary motor, a solenoid, or the like.
  • the image processing unit 311 performs overall image processing in the driving support apparatus 300 and also performs image processing of an image taken by the camera 309.
  • the image processing unit 311 is configured by, for example, a GPU (Graphics Processing Unit) or a DSP (Digital Signa 1 Processor).
  • the image processing by the image processing unit 311 analyzes, for example, an image in front of the vehicle captured by the camera 309, extracts a signal image related to the traffic light from the analyzed image, and outputs the signal. This is done by discriminating the display color of the traffic light represented by the image, for example, by comparing it with color sample information set in advance.
  • Information regarding the display color of the traffic light determined by the image processing unit 311 is output to the control unit 301, and the control unit 301 controls output of warning information described later based on the information regarding the display color. To do. Further, the image ahead of the vehicle image-processed by the image processing unit 311 may be displayed on the display screen of the display unit 303 via the control unit 301.
  • the sound generation unit 312 generates information of various sounds such as an alarm sound based on the alarm information.
  • the virtual sound source corresponding to these is set and the voice guidance information is generated, and the voice guidance information is generated via the control unit 301.
  • the speaker 313 reproduces (outputs) an alarm sound output from the sound output unit 307 and various sounds output from the control unit 301 via the sound output unit 307.
  • a headphone or the like may be provided on the speaker 313, and the output form of the guidance sound or sound may be changed as appropriate so as not to generate a sound field such as an alarm sound or sound output from the entire vehicle interior. .
  • imaging unit in FIG. 1 which is a functional configuration of the driving support device that is relevant to the embodiment, is used.
  • the function of the 101 is realized by, for example, the camera 309 and the camera driving unit 310, and the acquisition unit 102 is realized by the information acquiring unit 304, the communication unit 308, and the like. Further, the determination unit 103 specifically realizes its function by the control unit 301, for example.
  • control unit 104 in FIG. 1 specifically includes, for example, the control unit 301 and the camera driving unit.
  • the function is realized by 310 or the like, and the extraction unit 105 and the discrimination unit 106 realize the function by, for example, the control unit 301 or the image processing unit 311. Further, specifically, the output unit 107 in FIG. 1 realizes its function by, for example, the display unit 303, the audio output unit 307, the speaker 313, and the like.
  • FIG. 4 is an explanatory diagram for explaining an outline of driving support using the photographing control method in the driving support device according to the embodiment of the present invention.
  • the vehicle 401 traveling on the road 410 is equipped with a camera 309 (see FIG. 3) that captures the front, and the vehicle 401 travels straight ahead in this camera 309.
  • the front of the vehicle 401 is photographed in the photographing range PD1 of the broken line A to the broken line B.
  • the traveling direction of the vehicle 401 changes from a straight traveling direction to a direction indicated by an arrow 421 in the figure (a right front direction).
  • the shooting range PD1 of the camera 309 of the vehicle 401 is in the same state, the shooting of the traffic light 411 near the exit of the right curve with the camera 309 is delayed. For this reason,
  • the behavior information for example, the vehicle 401 indicated by the arrow 422 in the figure that is generated when the traveling direction of the vehicle 401 changes in the direction indicated by the arrow 421 in the figure.
  • the horizontal G information in the horizontal direction is acquired by the information acquisition unit 304 (see Fig. 3).
  • the control unit 301 calculates the traveling direction of the vehicle 401, and follows the traveling direction calculated by the camera driving unit 310 (see Fig. 3).
  • the shooting direction of the camera 309 is changed so that, for example, the front of the vehicle 401 is shot in the shooting range PD2 of the straight line C to the straight line D.
  • the traffic light 411 near the exit of the right curve can be reliably photographed, and alarm information based on the display color of the traffic light 411, for example, is output based on the signal image of the photographed traffic light 411. Is possible. Therefore, it is possible to prevent an accident caused by a panic brake or the like due to sudden appearance of the traffic light 411 in the middle of the curve, or to alert the driver in advance.
  • behavior information for example, speed information and acceleration information in the traveling direction of the vehicle 401, or steering angle information of the steering machine, etc. are used to more precisely capture the shooting direction of the camera 309. May be changed.
  • the acceleration (lateral G) applied to the lateral direction of the vehicle 401 (that is, the lateral direction of the vehicle 401). ) Is inversely proportional to the turning radius of the turn. For this reason, from the lateral G information used as the behavior information, for example, it can be seen that the greater the lateral acceleration (lateral G) in the vehicle 401, the smaller the radius of rotation (that is, a sharp curve).
  • the camera driving unit 310 controlled by the control unit 301 controls the camera 309. If the shooting range PD1 is greatly changed in the left-right direction with respect to the front of the vehicle 401, and the acceleration (lateral G) is small, it may be changed in the left-right direction.
  • the acceleration (lateral G) has a characteristic proportional to the square of the speed
  • the acceleration in the left-right direction (lateral G) is large when the speed of the vehicle 401 that makes a turning motion is high. It can be seen that the acceleration in the left-right direction (lateral G) becomes smaller when it is slow.
  • the camera drive unit 3 When changing the shooting range of the camera 309 by 10, if the control is performed using speed information in the traveling direction in addition to the lateral G information of the vehicle 401, a more precise and precise change can be made. In addition, the same change can be made using the steering angle information of the steering device of the vehicle 401.
  • FIG. 5 is a flowchart illustrating an example of the imaging control process and the driving support process procedure of the driving support apparatus according to the embodiment of the present invention.
  • FIG. 5 the processing shown in FIG. 5 is performed by the CPU of the control unit 301 using a program stored (recorded) in the RAM, ROM, or recording medium 305 of the control unit 301 shown in FIG. This is implemented by controlling each part of the driving support device 300.
  • description will be made mainly with reference to FIG. 3 and FIG. 4, but portions that overlap with the portions already described will be denoted by the same reference numerals unless otherwise specified, and description thereof will be omitted.
  • step S501 under the control of the control unit 301, the front side of the vehicle 401 is photographed by the camera 309 (step S501), and the lateral G information, speed information, steering angle information, etc. are obtained by the information acquisition unit 304.
  • the behavior information of the vehicle 401 is acquired (step S502).
  • the control unit 301 determines whether or not there is a lateral change in the traveling direction of the vehicle 401 (step S503).
  • step S503 If it is determined that there is no lateral change in the traveling direction of the vehicle 401 (step S503: No), the process returns to step S501 and the front of the vehicle 401 is photographed. If it is determined that there is a lateral change in the traveling direction of the vehicle 401 (step S503: Yes), the camera driving unit 310 controls the camera 401 so as to follow the traveling direction change of the vehicle 401 under the control of the control unit 301. The shooting direction of 309 is changed (step S504).
  • the control unit 301 determines whether or not there is a signal image representing the traffic light 411 in an image in front of the vehicle 401 photographed by the camera 309 and image-processed through the image processing unit 311 (step) S505). If it is determined that there is no signal image in the photographed image (step S505: No), the process returns to step S501 to photograph the front of the vehicle 401. [0080] On the other hand, if it is determined that there is a signal image in the captured image (step S505: Yes), the image processing unit 311 extracts the signal image from the captured image (step S5 06), The display color of the traffic light 411 based on the signal image is determined (step S507). Then, the controller 301 determines, for example, whether or not the determined display color is red (step S508).
  • step S508 If the display color is determined to be red (step S508: Yes), the control unit 301 determines whether or not it is the first discovery of the signal 411 taken (step S50). 9) If it is determined that this is the first discovery (step S509: Yes), the control unit 301 sets a timer for measuring a predetermined time (step S510), and the display unit 303 or the voice generation unit 312, the audio output unit 307 and the speaker 313 are controlled to output alarm information indicating that the display color of the traffic light 411 is red, that is, a red signal (step S511).
  • step S509 determines whether or not the first discovery (step S509: No)
  • step S512 determines whether or not the timer has timed out (step S512), and when it is determined that the timer has timed out In (Step S512: Yes), the process proceeds to Step S511 and outputs alarm information.
  • step S508 determines whether the display color is yellow (step S513). If color display is determined to be yellow (step S513: Yes), the Te controller 301 Niyotsu determines captured the traffic signal 411 diary whether power is the first discovery (Step S 514) 0
  • step S514 If it is determined that this is the first discovery (step S514: Yes), the control unit 301 sets a timer for measuring a predetermined time (step S515), and displays the display unit 303 or the voice generation unit. 312, the audio output unit 307 and the speaker 313 are controlled to output alarm information indicating that the display color of the traffic light 411 is yellow, that is, a yellow signal (step S 516).
  • step S514 determines whether or not the first discovery (step S514: No)
  • step S517 determines whether or not the timer has timed out (step S517), and when it is determined that the timer has timed out (Step S517: Yes) moves to Step S516 above, and the alarm information Information is output.
  • step S513: No when it is determined that the display color is not yellow (step S513: No), when it is determined that the time-out has not occurred in step S512 and step S517 above (step S512, step S517: No) and after outputting the alarm information in step S511 and step S516, the signal image still exists in the image captured by the camera 309 by the control unit 301 based on the information from the image processing unit 311, for example. It is determined whether the signal has passed through the traffic light 411 (step S518).
  • step S518 If it is determined that the signal has not passed through the traffic signal 411 (step S518: No), the process returns to step S501 and repeats the processing from step S501 to step S518. If it is determined that the signal has passed through the traffic light 411 (step S518: Yes), the control unit 301 clears the memory to initialize various information temporarily stored in the RAM (step S5 19), The process proceeds to step S501 and the process is looped.
  • step S508 and S513 may be performed in a different order.
  • the above-described processing is performed every predetermined time set in the timer in step S510 or step S515 when the display color of the traffic light 411 determined in step S507 is continuously red or yellow.
  • step S511 and step S516 alarm information such as an alarm sound and an alarm image is output, and an operation for alerting the driver of the vehicle 401 and the like is performed.
  • the shooting direction of camera 309 can be changed so as to follow the change in the traveling direction of vehicle 401. For this reason, for example, even when the road 410 is curved and has a curvature S, the traffic light 411 on the road 410 can be accurately photographed so that the traffic light 411 on the road 410 does not fall out of the shooting range of the camera 309, and alarm information based on this is output be able to.
  • a signal image representing the traffic signal 411 is extracted by the image processing unit 311 from an image photographed by the camera 309, and based on this signal image.
  • the display color of the traffic light 411 is determined, for example, the driver of the vehicle 401 Alarm information can be output. For this reason, it is possible to draw attention to the driver without fail.
  • the moving body can be made to reliably follow the shooting direction in the moving direction of the moving body.
  • a front image can be taken, and information based on the taken image can be output.
  • driving assistance by informing the driver of information based on the image in front of the moving body accurately and reliably.
  • the driving support device 300 outputs alarm information when the display color of the traffic light 411 is red or yellow has been described as an example. It may be configured to discriminate blue (green) and display information based on the blue (green) on the display unit 303 or to output sound from the speaker 313.
  • each part of the vehicle 401 is controlled by the control of the control unit 301 based on this information.
  • it may be configured to improve traveling safety. In this case, for example, when the display color is red, control such as applying a brake so that the vehicle 401 safely stops within a predetermined distance from the traffic light 411 is conceivable.
  • the camera 309 is arranged behind the rear mirror of the vehicle 401 so as to photograph the front of the vehicle 401.
  • the arrangement position of the camera 309 can photograph the front of the vehicle 401. If it is a position, it is not limited to this. Further, the camera 309 may be further arranged at a position where the rear of the vehicle 401 can be photographed, and information based on the rear image of the vehicle 401 may be appropriately displayed on the display screen of the display unit 303.
  • the imaging control method described in the present embodiment can be realized by executing a program prepared in advance on a computer such as a personal computer or a workstation.
  • the program is recorded on a computer-readable recording medium such as a hard disk, a flexible disk, a CD-ROM, an MO, or a DVD, and is executed by being read from the recording medium by the computer.
  • the program may be a transmission medium that can be distributed through a network such as the Internet.

Landscapes

  • Engineering & Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Traffic Control Systems (AREA)

Abstract

 運転支援装置は、撮影部(101)、取得部(102)、判断部(103)、制御部(104)、抽出部(105)、判別部(106)および出力部(107)を備える。撮影部(101)は、移動体の前方を撮影する。取得部(102)は、移動体の挙動情報を取得する。判断部(103)は、移動体の進行方向に変化が生じたか否かを判断する。制御部(104)は、移動体の進行方向に変化が生じたと判断された場合に、撮影部(101)の撮影方向を移動体の進行方向の変化に追従するように変更する。抽出部(105)は、撮影された移動体前方の画像から信号機に関する信号画像を抽出する。判別部(106)は、抽出された信号画像に基づいて信号機の表示色を判別する。出力部(107)は、判別結果に基づいて、移動体の運転者に対して警報情報を出力する。

Description

明 細 書
運転支援装置、撮影制御方法、撮影制御プログラムおよび記録媒体 技術分野
[0001] この発明は、例えば車両などの移動体に搭載される運転支援装置、撮影制御方法
、撮影制御プログラムおよび記録媒体に関する。ただし、この発明の利用は、上述し た運転支援装置、撮影制御方法、撮影制御プログラムおよび記録媒体には限られな い。
背景技術
[0002] 近年、例えば自動車などの車両に搭載された撮影装置で撮影した車両前方の画 像から、信号機や道路標識などを認識して音声や画像による警報を出力し、運転者 に対して注意を喚起して信号無視などによる事故の発生を未然に防止することがで きるとされる、レ、わゆる運転支援装置が提供されてレ、る。
[0003] このような運転支援装置は、例えば次のように構成されている。すなわち、車両上に ステレオカメラを設置し、このステレオカメラで撮影した車両前方の画像から信号機と その状態 (表示色)および信号機と車両との距離を認識し、信号機が赤色で信号機と 車両との距離が一定値以内で、かつ一定速度以上の場合に車両の運転者に対し音 声や画像により警報を出力して、注意を喚起することができる構成とされている(例え ば、特許文献 1参照。)。
[0004] 特許文献 1 :特開 2004— 199148号公報
発明の開示
発明が解決しょうとする課題
[0005] しかしながら、上記従来技術の運転支援装置では、撮影装置としてのステレオカメ ラが車両前方を撮影するように車両上に固定状態で設置されているため、例えば道 路が曲がっている場合などにステレオカメラの撮影範囲から道路上の信号機などが 大きく外れてしまい、この信号機などを認識することができなくなってしまうという問題 がー例として挙げられる。この場合、運転者に対して注意を喚起することができなくな つてしまうと想定される。 課題を解決するための手段
[0006] 請求項 1の発明にかかる運転支援装置は、移動体の前方を撮影する撮影手段と、 前記移動体の挙動に関する挙動情報を取得する取得手段と、前記挙動情報に基づ いて前記移動体の進行方向に変化が生じたか否力を判断する判断手段と、前記移 動体の進行方向に変化が生じたと判断された場合に、前記撮影手段の撮影方向を 前記進行方向の変化に追従するように変更する制御手段と、前記撮影手段によって 撮影された画像に基づく情報を出力する出力手段と、を備えることを特徴とする。
[0007] また、請求項 6の発明にかかる撮影制御方法は、移動体の前方を撮影する撮影手 段と、当該撮影手段によって撮影された画像に基づく情報を出力する出力手段と、 を備える運転支援装置における撮影制御方法であって、前記移動体の挙動に関す る挙動情報を取得する取得工程と、前記挙動情報に基づいて前記移動体の進行方 向に変化が生じたか否かを判断する判断工程と、前記移動体の進行方向に変化が 生じたと判断された場合に、前記撮影手段の撮影方向を前記進行方向の変化に追 従するように変更する制御工程と、を含んだことを特徴とする。
[0008] また、請求項 7の発明にかかる撮影制御プログラムは、請求項 6に記載の撮影制御 方法をコンピュータに実行させることを特徴とする。
[0009] また、請求項 8の発明にかかる記録媒体は、請求項 7に記載の撮影制御プログラム をコンピュータによって読み取り可能に記録したことを特徴とする。
図面の簡単な説明
[0010] [図 1]図 1は、実施の形態にかかる運転支援装置の機能的構成の一例を示すブロック 図である。
[図 2]図 2は、実施の形態にかかる運転支援装置の撮影制御処理および運転支援処 理手順の一例を示すフローチャートである。
[図 3]図 3は、実施例にかかる運転支援装置のハードウェア構成の一例を示すブロッ ク図である。
[図 4]図 4は、実施例に力かる運転支援装置における撮影制御方法を用いた運転支 接の概要を説明するための説明図である。
[図 5]図 5は、実施例にかかる運転支援装置の撮影制御処理および運転支援処理手 O
O 順1—の一例を示すフローチャートである
符号1—の説明
撮影部
102 取得部
103 判断部
104, 301 制御部
105 抽出部
106 判別部
107 出力部
300 運転支援装置
302 ユーザ操作部
303 表示部
304 情報取得部
305 記録媒体
306 記録媒体デコード部
307 音声出力部
308 通信部
309 カメラ
310 カメラ駆動部
311 画像処理部
312 音声生成部
313 スピーカ
発明を実施するための最良の形態
[0012] 以下に添付図面を参照して、この発明にかかる運転支援装置、撮影制御方法、撮 影制御プログラムおよび記録媒体の好適な実施の形態を詳細に説明する。
[0013] (実施の形態)
(運転支援装置の機能的構成)
まず、この発明の実施の形態に力かる運転支援装置の内容について説明する。図 1は、この発明の実施の形態にかかる運転支援装置の機能的構成の一例を示すブ ロック図である。図 1において、運転支援装置は、例えば車両(四輪車、二輪車を含 む)などの移動体に搭載され、撮影部 101と、取得部 102と、判断部 103と、制御部 1 04と、抽出部 105と、判別部 106と、出力部 107とを備えて構成されている。
[0014] 撮影部 101は、移動体の前方を撮影する。この撮影部 101によって撮影される移 動体の前方の画像は、例えば移動体が車両である場合は、車両の運転者が運転に 際して見ている視野角と同等の画角を有する画像である。なお、この撮影部 101は、 具体的には、例えば 1台または複数台の撮影装置によって構成され、移動体の前方 のみならず移動体の周囲を撮影してもよい。
[0015] 取得部 102は、移動体の挙動に関する挙動情報を取得する。挙動情報は、例えば 移動体の検出部(図示せず)によって検出され取得される。ここで、挙動情報とは、具 体的には、移動体が車両である場合は、車両の走行状態などを示す情報であり、例 えば車両の速度に関する情報(速度情報、加速度情報、角速度情報)および車両の 操舵機 (ハンドル)に関する情報などが挙げられる。その他、挙動情報としては、車両 の傾斜角情報、現在地点情報および操作入力に伴う情報などが挙げられる。
[0016] 判断部 103は、例えば取得部 102によって取得された挙動情報に基づいて、移動 体の進行方向に変化が生じたか否かを判断する。判断部 103は、具体的には、例え ば移動体の加速度に関する情報に基づいて移動体の進行方向が移動体の横方向 に変化したか否力を判断する。また、判断部 103は、具体的には、例えば移動体の 進行方向の速度に関する情報および加速度に関する情報に基づいて移動体の進 行方向が移動体の横方向に変化したか否力を判断する。
[0017] 制御部 104は、判断部 103によって移動体の進行方向に変化が生じたと判断され た場合に、撮影部 101の撮影方向を進行方向の変化に追従するように変更する。す なわち、制御部 104は、例えば判断部 103が移動体の加速度に関する情報に基づ いて移動体の進行方向が移動体の横方向に変化したと判断した場合、撮影部 101 の撮影方向を横方向に変更する。
[0018] また、制御部 104は、例えば判断部 103が移動体の進行方向の速度に関する情報 および加速度に関する情報に基づいて移動体の進行方向が移動体の横方向に変 化したと判断した場合、速度に関する情報が示す移動体の進行方向の速度および 加速度に関する情報が示す移動体の横方向の加速度を用いて撮影部 101の撮影 方向を横方向に変更する。
[0019] さらに、制御部 104は、例えば判断部 103が移動体の操舵機に関する情報に基づ いて移動体の進行方向が移動体の横方向に変化したと判断した場合、操舵機に関 する情報が示す移動体の操舵方向に基づいて撮影部 101の撮影方向を横方向に 変更したり、この操舵機に関する情報とともに上記加速度に関する情報や進行方向 の速度に関する情報に基づいて撮影部 101の撮影方向を横方向に変更したりする。
[0020] したがって、制御部 104は、具体的には、取得部 102によって取得された挙動情報 により、判断部 103によって移動体の進行方向が移動体の横方向に変化したと判断 された場合に、つぎのように撮影方向を変更する。すなわち、例えば移動体の進行 方向が左横方向に変化して移動体が左に曲がつたと判断された場合は、左真横方 向を撮影するのではなく左前方を含む範囲を撮影するように撮影部 101の撮影方向 を変更し、移動体の進行方向が右横方向に変化して移動体が右に曲がったと判断さ れた場合は、右真横方向を撮影するのではなく右前方を含む範囲を撮影するように 撮影部 101の撮影方向を変更する。
[0021] なお、ここでは上記「横方向」と「左右方向」とを同義としている。抽出部 105は、撮 影部 101によって撮影された移動体前方の画像から、画像処理などをおこなって道 路構造物である信号機に関する信号画像を抽出する。ここで、道路構造物とは、例 えば道路を跨ぐ部材ゃ走行レーンを覆う部材、橋梁、路面 (道路舗装)、トンネルなど の構造物をレ、い、信号機や道路白線などが含まれるものである。
[0022] 判別部 106は、抽出部 105によって抽出された信号画像に基づいて、信号機の表 示色を判別する。この判別部 106は、具体的には、例えば信号機の表示色が赤色で ある力、あるいは黄色であるかを判別する。なお、ここでは判別部 106は、信号機の 表示色が青(緑)色であるかの判別はおこなわなレ、が、青(緑)色であるかの判別をお こなうようにしてもよい。
[0023] 出力部 107は、撮影部 101によって撮影された移動体前方の画像に基づく情報を 出力する。また、出力部 107は、判別部 106によって判別された判別結果に基づい て、移動体の運転者に対して警報情報を出力する。これら画像に基づく情報や警報 情報は、具体的には、例えば出力部 107によって表示出力されたり音声出力された りする。
[0024] このように構成された運転支援装置では、取得部 102によって取得された移動体の 挙動情報に基づいて、判断部 103によって移動体の進行方向に変化が生じたか否 力が判断され、変化が生じたと判断された場合に、制御部 104によって撮影部 101 の撮影方向を移動体の進行方向の変化に追従するように変更する。このため、例え ば道路が曲がっている場合などでも撮影部 101の撮影範囲から道路上の信号機な どが外れることがなぐ正確に信号機などを撮影しこれに基づく情報を出力することが できる。
[0025] また、このように構成された運転支援装置では、撮影部 101によって撮影された画 像から抽出部 105によって信号画像を抽出し、この信号画像に基づいて判別部 106 によって信号機の表示色を判別して、判別結果に基づいて出力部 107によって移動 体の運転者に対して警報情報を出力することができるため、運転者に対して確実に 注意を喚起することができる。
[0026] このため、この運転支援装置によれば、移動体が走行する道路が曲がっていても 確実に移動体の走行方向に撮影方向を追従させて移動体前方の画像を撮影し、撮 影した画像に基づく情報を出力することができる。これにより、運転者に対して正確か つ確実に移動体前方の画像に基づく情報による注意を喚起して運転支援することが できる。
[0027] (運転支援装置の撮影制御処理および運転支援処理手順)
次に、この発明の実施の形態に力かる運転支援装置の撮影制御処理手順および 運転支援処理について説明する。図 2は、この発明の実施の形態にかかる運転支援 装置の撮影制御処理および運転支援処理手順の一例を示すフローチャートである。
[0028] 図 2のフローチャートにおいて、まず、撮影部 101によって、移動体の前方を撮影し
(ステップ S201)、取得部 102によって、移動体の挙動情報を取得する(ステップ S2 02)。次に、判断部 103によって、取得部 102により取得した挙動情報に基づいて、 移動体の進行方向に変化があるか否かを判断する(ステップ S203)。 [0029] 移動体の進行方向に変化がないと判断された場合 (ステップ S203 : No)は、上記 ステップ S201に戻り移動体の前方の撮影をおこなう。移動体の進行方向に変化があ ると判断された場合 (ステップ S203 : Yes)は、制御部 104によって、移動体の進行 方向の変化に追従するように撮影部 101による撮影方向を変更する (ステップ S204
) o
[0030] そして、制御部 104によって、撮影部 101により撮影された画像内に信号機に関す る信号画像があるか否力を判断し (ステップ S205)、信号画像がないと判断された場 合(ステップ S205 : No)は、上記ステップ S201に戻り移動体の前方の撮影をおこな
5。
[0031] 一方、信号画像があると判断された場合 (ステップ S205 : Yes)は、抽出部 105によ つて、撮影部 101により撮影された画像から信号画像を抽出し (ステップ S206)、判 別部 106によって、信号画像に基づく信号機の表示色を判別し (ステップ S207)、判 別結果に基づいて、例えば制御部 104によって表示色が赤色または黄色であるか否 かを判断する (ステップ S208)。
[0032] 表示色が赤色または黄色でないと判断された場合 (ステップ S208: No)は、上記ス テツプ S201に戻り移動体の前方を撮影する。表示色が赤色または黄色であると判断 された場合 (ステップ S208 : Yes)は、出力部 107によって、例えば表示出力あるい は音声出力により、判定された赤色または黄色に関する警報情報を出力し (ステップ S209)、上記ステップ S201の撮影処理へ戻りループする。
[0033] このように運転支援装置における撮影制御処理および運転支援処理をおこなうこと によって、例えば移動体が走行する道路が曲がっていても確実に移動体の進行方向 の変化に撮影方向を追従させつつ移動体前方の画像を撮影することができるととも に、撮影した画像に基づく信号画像の有無や表示色の判別をおこなって警告情報を 出力することができる。このため、運転者に対して正確かつ確実に信号画像に基づく 注意を喚起して運転支援することができる。
[0034] 以上説明したように、この発明の実施の形態に力かる運転支援装置によれば、移 動体が走行する道路が曲がっていても確実に移動体の進行方向に撮影装置の撮影 方向を追従させて移動体前方の画像を撮影し、撮影した画像に基づく情報を警告情 報として出力したりすることができるため、移動体が走行している道路上の画像を確 実に取得しつつ運転者に対して移動体前方の画像からの情報を正確に伝達して運 転支援を図ることができる。
[0035] 次に、この発明の実施の形態に力かる実施例について説明する。ここでは、この実 施の形態にかかる運転支援装置を、例えば移動体としての自動車などの車両に搭 載して適用した場合を例示して説明する。なお、この車両は、運転支援装置の他に ナビゲーシヨン装置も搭載していることとする。
実施例
[0036] (運転支援装置のハードウェア構成)
まず、この発明の実施例に力かる運転支援装置のハードウェア構成について説明 する。図 3は、この発明の実施例にかかる運転支援装置のハードウェア構成の一例を 示すブロック図である。なお、以降において、既に説明した部分と重複する箇所には 同一の符号を附して説明を省略する。
[0037] 図 3に示すように、運転支援装置 300は、制御部 301と、ユーザ操作部 302と、表 示部 303と、情報取得部 304と、記録媒体 305と、記録媒体デコード部 306と、音声 出力部 307と、通信部 308と、カメラ 309と、カメラ駆動部 310と、画像処理部 311と、 音声生成部 312と、スピーカ 313とを備えて構成されている。
[0038] 制御部 301は、例えば運転支援装置 300全体を制御する。制御部 301は、例えば 所定の演算処理を実行する CPU (Central Processing Unit)や各種制御プログ ラムを格納する ROM (Read Only Memory)、および CPUのワークエリアとして機 能する RAM (Random Access Memory)などによって構成されるマイクロコンビ ユータゃ ECU (Electronic Control Unit)などによって実現することができる。
[0039] ユーザ操作部 302は、文字、数値、各種指示など、利用者によって入力操作された 情報を制御部 301に対して出力する。このユーザ操作部 302は、例えば押しボタン 式スィッチ、タツチパネル、リモコンなどによって構成される。また、ユーザ操作部 302 は、外部からの音声を入力するマイクを用いて、音声によって入力操作をおこなう形 態としてもよい。
[0040] 表示部 303は、例えば CRT (Cathode Ray Tube)、 TFT (Thin Film Transi stor)液晶ディスプレイ、有機 EL (Electroluminescence)ディスプレイ、プラズマデ イスプレイなどを含む。表示部 303は、具体的には、例えば映像 IZFや映像 IZFに 接続された映像表示用のディスプレイ装置によって構成することができる。
[0041] なお、映像 I/Fは、具体的には、例えばディスプレイ装置全体の制御をおこなうグ ラフィックコントローラと、即時表示可能な画像情報を一時的に記憶する VRAM (Vid eo RAM)などのバッファメモリと、グラフィックコントローラから出力される画像情報 に基づいて、ディスプレイ装置を表示制御する制御 ICなどによって構成される。この 表示部 303には、後述するカメラ 309で撮影された映像 (画像)情報、警報情報およ びその他各種情報が表示される。
[0042] 情報取得部 304は、 GPSレシーバおよび各種センサから構成され、移動体の位置
(運転支援装置 300の位置)の情報や車両の挙動情報などを取得する。また、情報 取得部 304は、例えば車両にナビゲーシヨン装置が搭載されている場合、このナビゲ ーシヨン装置からナビゲーシヨンに関する情報を取得する。そして、取得した各種情 報を制御部 301に出力する。ここで、 GPSレシーバは、 GPS衛星からの電波を受信 し、 GPS衛星との幾何学的位置を求める。
[0043] なお、 GPSとは、 Global Positioning Systemの略称であり、 4つ以上の衛星か らの電波を受信することによって地上での位置を正確に求めるシステムである。 GPS レシーバは、 GPS衛星からの電波を受信するためのアンテナ、受信した電波を復調 するチューナおよび復調した情報に基づいて現在位置を算出する演算回路などによ つて構成される。
[0044] 各種センサは、例えば速度センサ、傾斜角センサ、加速度センサ、角速度センサ( ジャイロセンサ)および横 Gセンサなどを含む。速度センサは、例えば車両のトランス ミッションの出力側シャフトから車速を検出し、速度情報を出力する。傾斜角センサは 、例えば車両の路面上での傾斜角度を検出し、傾斜角情報を出力する。
[0045] また、角速度センサ(ジャイロセンサ)は、例えば車両の進行方向を検出するととも に車両のコーナリングの際の角速度を検出し、角速度情報と相対方位情報とを出力 する。横 Gセンサは、例えば車両のコーナリングの際の遠心力によって発生する外向 きの力(向心力)である横 Gを検出し、横 G情報を出力する。なお、情報取得部 304は 、例えば車両の操舵機 (ハンドル)の舵角情報を取得してもよレ、。
[0046] また、情報取得部 304は、これらの各種センサから出力される情報から、例えば車 両の移動変位、移動速度、移動方向、傾斜角などを求める。そして、上記 GPSレシ ーバの受信電波から得られた情報と合わせて、上記各種センサからの出力情報を用 いることによって、より高い精度で移動体の位置の認識をおこなうことができる。
[0047] また、この情報取得部 304によって取得されるナビゲーシヨンに関する情報は、例 えばナビゲーシヨン装置における経路探索や経路誘導に用いられる地図情報が挙 げられる。この地図情報は、例えば建物、河川、地表面などの地物(フィーチャ)をあ らわす背景情報と、道路の形状をあらわす道路形状情報とを有しており、表示部 303 の表示画面において 2次元または 3次元に描画される。
[0048] ナビゲーシヨン装置における経路誘導がおこなわれている場合は、この地図情報と 、移動体の現在位置を示すマークとが、表示部 303の表示画面に重ねて表示される こととなる。また、運転支援装置 300における警告情報などが出力されている場合は 、この警告情報などが表示部 303の表示画面に重ねて表示されることとなる。
[0049] ここで、背景情報は、背景の形状をあらわす背景形状情報と、背景の種類をあらわ す背景種別情報とを有する。背景形状情報は、例えば地物の代表点'ポリライン'ポリ ゴン'地物の座標などを含んでいる。また、背景種別情報は、例えば地物の名称や住 所'電話番号をあらわすテキスト情報、建物'河川'地表面などの地物の種別情報を 含んでいる。
[0050] 道路形状情報は、複数のノードおよびリンクを有する道路ネットワークに関する情報 である。ノードは、三叉路 '十字路'五叉路など複数の道路が交差する交差点を示し ている。リンクは、ノード間を連結する道路を示している。リンクには、形状補間点を有 するものもあり、この形状補間点によって曲線道路の表現が可能となる。
[0051] なお、道路形状情報は、さらに交通条件情報を有する。交通条件情報は、例えば 各ノードについて、信号や横断歩道などの有無、高速道路の出入口やジャンクション の有無、各リンクの長さ(距離)、車幅、進行方向、通行禁止、道路種別(高速道路、 有料道路、一般道路など)などの情報が含まれている。この交通条件情報には、過去 の渋滞情報を季節 '曜日 '大型連休'時刻などを基準に統計処理した過去渋滞情報 が記憶されている。
[0052] また、情報取得部 304は、例えば VICS (Vehicle Information and Commun ication System) (登録商標)センターから配信されナビゲーシヨン装置によって受 信された渋滞や交通規則などの道路交通情報を取得するようにしてもよい。
[0053] このように、情報取得部 304によってナビゲーシヨン装置から取得した地図情報を 運転支援装置 300において利用すれば、車両の挙動情報のみならず、例えば道路 上の信号機の位置や道路形状などを先読みして運転支援に用いることが可能となる
[0054] 記録媒体 305には、各種制御プログラムや各種情報がコンピュータに読み取り可 能な状態で記録されている。この記録媒体 305は、例えば HD (Hard Disk)や DV D (Digital Versatile Disk)、 CD (Compact Disk)、メモリカードなどによって実 現することができる。なお、記録媒体 305は、記録媒体デコード部 306による情報の 書き込みを受け付けるとともに、書き込まれた情報を不揮発に記録するようにしてもよ い。記録媒体デコード部 306は、記録媒体 305に対する情報の読み取り(リード)/ 書き込み(ライト)の制御をおこなう。
[0055] なお、本実施例では、上記地図情報を情報取得部 304によってナビゲーシヨン装 置から取得するようにした力 この地図情報は、例えば記録媒体 305に記録されてい てもよレ、。また、地図情報は、外部サーバなどに記録されていてもよい。この場合、運 転支援装置 300は、例えば後述する通信部 308を通じてネットワーク網を介して外部 サーバから地図情報を取得するようにしてもよい。取得された地図情報は、 RAMな どに一時的あるいは恒久的に記憶される。
[0056] 音声出力部 307は、接続されたスピーカ 313への出力を制御することによって、警 報音などの音声を再生する。ここで、スピーカ 313は、一つであってもよいし、複数で あってもよい。具体的には、音声出力部 307は、例えば音声ディジタル情報の DZA 変換をおこなう DZAコンバータと、 DZAコンバータから出力される音声アナログ信 号を増幅する増幅器と、音声アナログ信号の A/D変換をおこなう AZDコンバータ とによって構成することができる。
[0057] 通信部 308は、例えば FM多重チューナ、無線通信機器およびその他の通信機器 によって構成され、他の通信機器との通信をおこなう。また、通信部 308は、携帯電 話機、 PHS、通信カードおよび無線 LANなどの通信媒体を介して通信をおこなう構 成としてもよレ、。
[0058] カメラ 309は、例えば車両のルームミラー裏側などに取り付けられたディジタルスチ ルカメラ(DSC)やディジタルビデオカメラ(DVC)などの撮影装置によって構成され、 C— MOSや CCDなどの光電変換素子を有し、車両の前方を撮影する。このカメラ 3 09は、例えば車両の前方を、進行方向を中心として左右 ± 30° 〜45° の範囲の画 角で撮影する。
[0059] カメラ駆動部 310は、情報取得部 304によって取得された車両の挙動情報に基づ く制御部 301からの制御によって、例えばカメラ 309の固定軸を機械的に駆動するこ とにより、車両の進行方向に変化が生じた場合にカメラ 309の撮影方向が進行方向 に追従するように変更させる。このカメラ駆動部 310は、回転モータやソレノイドなど によって実現することができる。
[0060] 画像処理部 311は、運転支援装置 300における画像処理全般をおこなうとともに、 カメラ 309によって撮影された画像の画像処理をおこなう。この画像処理部 311は、 具体的には、例えば GPU (Graphics Processing Unit)や DSP (Digital Signa 1 Processor)などによって構成される。
[0061] この画像処理部 311による画像処理は、具体的には、例えばカメラ 309によって撮 影された車両前方の画像を解析し、解析した画像から信号機に関する信号画像を抽 出するとともに、この信号画像によってあらわされる信号機の表示色を、例えばあらか じめ設定されている色見本情報などと比較することによって判別することによりおこな われる。
[0062] なお、画像処理部 311によって判別された信号機の表示色に関する情報は、制御 部 301に出力され、制御部 301は、この表示色に関する情報に基づいて後述する警 報情報の出力を制御する。また、画像処理部 311によって画像処理された車両前方 の画像は、制御部 301を介して表示部 303の表示画面上に表示されてもよい。
[0063] 音声生成部 312は、警報情報に基づく警報音などの各種音声の情報を生成する。
すなわち、画像処理部 311によって判別された信号機の表示色に関する情報に基 づく制御部 301からの警報情報に基づいて、例えば信号機の表示色が赤色や黄色 の場合にこれらに対応した仮想音源の設定と音声ガイダンス情報の生成をおこない 、これを制御部 301を介して音声出力部 307へ出力する。
[0064] スピーカ 313は、音声出力部 307から出力される警報音や制御部 301から音声出 力部 307を介して出力される各種音声を再生(出力)する。ここで、例えばこのスピー 力 313にヘッドフォンなどを設け、車両内部全体が出力される警報音や音声などの 音場とならないように、案内音や音声の出力形態を適宜変更するようにしてもよい。
[0065] なお、実施の形態に力かる運転支援装置の機能的構成である図 1における撮影部
101は、具体的には、例えばカメラ 309およびカメラ駆動部 310などによってその機 能を実現し、取得部 102は、例えば情報取得部 304や通信部 308などによってその 機能を実現する。また、判断部 103は、具体的には、例えば制御部 301によってその 機能を実現する。
[0066] また、図 1における制御部 104は、具体的には、例えば制御部 301やカメラ駆動部
310などによってその機能を実現し、抽出部 105および判別部 106は、例えば制御 部 301や画像処理部 311などによってその機能を実現する。また、図 1における出力 部 107は、具体的には、例えば表示部 303、音声出力部 307およびスピーカ 313な どによってその機能を実現する。
[0067] (運転支援装置における撮影制御方法を用いた運転支援の概要)
次に、この発明の実施例に力かる運転支援装置における撮影制御方法を用いた運 転支援の概要について説明する。図 4は、この発明の実施例にかかる運転支援装置 における撮影制御方法を用いた運転支援の概要を説明するための説明図である。
[0068] 図 4に示すように、道路 410上を走行している車両 401は、前方を撮影するカメラ 3 09 (図 3参照)を搭載しており、このカメラ 309は、車両 401が直進している場合には 、例えば破線 A〜破線 Bの撮影範囲 PD1で車両 401の前方を撮影する。ここで、道 路 410力 例えば図示のように右カーブとなっている場合は、車両 401の進行方向 が直進から図中矢印 421で示すような方向(右前方方向)に変化する。
[0069] このとき、車両 401のカメラ 309の撮影範囲 PD1がそのままの状態であると、右カー ブの出口付近の信号機 411をカメラ 309で撮影するのが遅れることとなる。このため、 本実施例の運転支援装置 300 (図 3参照)では、挙動情報として、例えば車両 401の 進行方向が図中矢印 421で示すような方向に変化した際に発生する図中矢印 422 で示す車両 401の横方向の横 G情報を情報取得部 304 (図 3参照)において取得す る。
[0070] そして、取得した横 G情報に基づいて制御部 301 (図 3参照)によって車両 401の 進行方向を演算し、カメラ駆動部 310 (図 3参照)によって演算した進行方向に追従 するようにカメラ 309の撮影方向を、例えば直線 C〜直線 Dの撮影範囲 PD2で車両 4 01の前方を撮影するように変更させる。
[0071] これにより、右カーブの出口付近の信号機 411を確実に撮影することができるととも に、撮影した信号機 411の信号画像に基づいて、例えば信号機 411の表示色による 警報情報を出力することが可能となる。したがって、カーブの途中で突然信号機 411 があらわれたことによるパニックブレーキなどに起因する事故の防止を図ったり、運転 者に対して事前に注意を喚起したりすることが可能となる。なお、挙動情報として上 記横 G情報に加えて、例えば車両 401の進行方向の速度情報や加速度情報、ある いは操舵機の舵角情報などを利用して、より緻密にカメラ 309の撮影方向を変更させ るようにしてもよい。
[0072] ここで、一般的に、一定の速度で直進している車両 401が旋回運動を始めた場合 には、車両 401の左右方向(すなわち、車両 401の横方向)に加わる加速度(横 G) がその旋回の回転半径に反比例するとされている。このため、挙動情報として用いら れる横 G情報からは、例えば車両 401における左右方向の加速度 (横 G)が大きいほ ど回転半径が小さい(すなわち、急カーブである)ということが分かる。
[0073] したがって、情報取得部 304により取得した横 G情報があらわす車両 401の左右方 向の加速度 (横 G)が大きい場合は、制御部 301によって制御されたカメラ駆動部 31 0によりカメラ 309の撮影範囲 PD1を車両 401の正面に対して左右方向に大きく変更 させ、加速度 (横 G)が小さい場合は、左右方向に小さく変更させればよい。
[0074] また、このとき、加速度 (横 G)は速度の 2乗に比例する特性を備えているため、旋回 運動をする車両 401の速度が速い場合は左右方向の加速度 (横 G)が大きぐ遅い 場合は左右方向の加速度 (横 G)が小さくなることが分かる。このため、カメラ駆動部 3 10によるカメラ 309の撮影範囲の変更に際しては、車両 401の横 G情報の他に進行 方向の速度情報を用いて制御をおこなえば、より精細かつ緻密な変更をおこなうこと ができる。この他、車両 401の操舵機の舵角情報を用いても同様の変更をおこなうこ とがでさる。
[0075] (運転支援装置の撮影制御処理および運転支援処理手順)
次に、この発明の実施例にかかる運転支援装置の撮影制御処理および運転支援 処理手順について説明する。図 5は、この発明の実施例にかかる運転支援装置の撮 影制御処理および運転支援処理手順の一例を示すフローチャートである。
[0076] 具体的に、図 5に示す処理は、例えば図 3に示した制御部 301の RAM、 ROMある いは記録媒体 305などに記憶 (記録)されたプログラムを、制御部 301の CPUが実行 し、運転支援装置 300の各部を制御することによって実現する。なお、以降において 、主に図 3および図 4を参照しながら説明をおこなうが、既に説明した部分と重複する 箇所は、特に明示しない限り同一の符号を附して説明を省略する。
[0077] 図 5のフローチャートにおいて、まず、制御部 301の制御によって、カメラ 309により 車両 401の前方を撮影し (ステップ S501)、情報取得部 304により横 G情報、速度情 報および舵角情報などの車両 401の挙動情報を取得する(ステップ S502)。次に、 制御部 301によって、情報取得部 304により取得した挙動情報に基づいて、車両 40 1の進行方向に横方向の変化があるか否かを判断する(ステップ S503)。
[0078] 車両 401の進行方向に横方向の変化がないと判断された場合 (ステップ S503 : No )は、上記ステップ S501に戻り車両 401の前方の撮影をおこなう。車両 401の進行 方向に横方向の変化があると判断された場合 (ステップ S503 : Yes)は、制御部 301 の制御によって、カメラ駆動部 310により車両 401の進行方向の変化に追従するよう にカメラ 309の撮影方向を変更する(ステップ S504)。
[0079] そして、制御部 301によって、カメラ 309により撮影され画像処理部 311を通して画 像処理された車両 401の前方の画像内に、信号機 411をあらわす信号画像があるか 否かを判断する (ステップ S505)。撮影された画像内に信号画像がないと判断された 場合(ステップ S505 : No)は、上記ステップ S501に戻り車両 401の前方の撮影をお こなう。 [0080] 一方、撮影された画像内に信号画像があると判断された場合 (ステップ S505 : Yes )は、画像処理部 311によって、撮影された画像から信号画像を抽出し (ステップ S5 06)、信号画像に基づく信号機 411の表示色を判別する(ステップ S507)。そして、 制御部 301によって、例えば判別した表示色が赤色であるか否力を判断する(ステツ プ S508)。
[0081] 表示色が赤色であると判断された場合 (ステップ S508 : Yes)は、制御部 301によつ て、撮影したその信号機 411にっき最初の発見であるか否かを判断し (ステップ S50 9)、最初の発見であると判断された場合 (ステップ S509 : Yes)は、制御部 301によ つて、所定時間を計時するタイマーをセットして (ステップ S510)、表示部 303や音声 生成部 312、音声出力部 307およびスピーカ 313を制御して信号機 411の表示色が 赤色である旨の、すなわち赤信号である旨の警報情報を出力する (ステップ S511)。
[0082] 最初の発見でないと判断された場合 (ステップ S509 : No)は、制御部 301によって 、タイマーがタイムアウトしているか否かを判断し (ステップ S512)、タイムアウトしてい ると判断された場合 (ステップ S512 : Yes)は、上記ステップ S511に移行して警報情 報を出力する。
[0083] 一方、表示色が赤色でないと判断された場合 (ステップ S508 : No)は、制御部 301 によって、例えば判別した表示色が黄色であるか否かを判断する (ステップ S513)。 表示色が黄色であると判断された場合 (ステップ S513 : Yes)は、制御部 301によつ て、撮影したその信号機 411にっき最初の発見であるか否力を判断する(ステップ S 514) 0
[0084] そして、最初の発見であると判断された場合 (ステップ S514 : Yes)は、制御部 301 によって、所定時間を計時するタイマーをセットして (ステップ S515)、表示部 303や 音声生成部 312、音声出力部 307およびスピーカ 313を制御して信号機 411の表示 色が黄色である旨の、すなわち黄色信号である旨の警報情報を出力する (ステップ S 516)。
[0085] 最初の発見でないと判断された場合 (ステップ S514 : No)は、制御部 301によって 、タイマーがタイムアウトしているか否かを判断し (ステップ S517)、タイムアウトしてい ると判断された場合 (ステップ S517 : Yes)は、上記ステップ S516に移行して警報情 報を出力する。
[0086] 表示色が黄色でないと判断された場合 (ステップ S513 : No)、上記ステップ S512 およびステップ S517におレ、てタイムアウトしてレ、ないと判断された場合 (ステップ S51 2,ステップ S517 : No)および上記ステップ S511およびステップ S516において警報 情報を出力した後は、制御部 301によって、例えば画像処理部 311からの情報に基 づいて、カメラ 309により撮影された画像内に信号画像が未だ存在しているかどうか などを判定し、信号機 411を通過したか否かを判断する(ステップ S518)。
[0087] 信号機 411を通過していないと判断された場合 (ステップ S518 : No)は、上記ステ ップ S501に戻りステップ S501〜ステップ S518までの処理を繰り返す。信号機 411 を通過したと判断された場合 (ステップ S518 : Yes)は、制御部 301によって、 RAM などに一時記憶された各種情報を初期化するために、メモリをクリアして (ステップ S5 19)、ステップ S 501に移行して処理をループする。
[0088] なお、上記ステップ S508およびステップ S513の表示色の判断処理は順番が異な つていてもよい。また、上述した処理は、上記ステップ S507において判別された信号 機 411の表示色が赤色や黄色で連続してレ、る場合に、上記ステップ S510あるいは ステップ S515においてタイマー設定した所定時間ごとに、上記ステップ S511および ステップ S516において警報音や警報画像などの警報情報を出力して、車両 401の 運転者などに対して注意を喚起する動作をおこなうものである。
[0089] このように、この発明の実施例に力かる運転支援装置 300によれば、情報取得部 3 04によって取得された車両 401の挙動情報に基づいて、制御部 301により制御され たカメラ駆動部 310によってカメラ 309の撮影方向が車両 401の進行方向の変化に 追従するように変更させることができる。このため、例えば道路 410がカーブなどで曲 力 Sつている場合でもカメラ 309の撮影範囲から道路 410上の信号機 411が外れること がなぐ正確に信号機 411を撮影しこれに基づく警報情報などを出力することができ る。
[0090] また、この発明の実施例に力 る運転支援装置 300では、カメラ 309により撮影さ れた画像から画像処理部 311によって信号機 411をあらわす信号画像を抽出し、こ の信号画像に基づいて信号機 411の表示色を判別して、例えば車両 401の運転者 に対して警報情報を出力することができる。このため、運転者に対して確実に注意を 喚起すること力 Sできる。
[0091] 以上のように、この発明にかかる運転支援装置、撮影制御方法、撮影制御プロダラ ムおよび記録媒体によれば、移動体の進行方向の変化に確実に撮影方向を追従さ せて移動体前方の画像を撮影するとともに、撮影した画像に基づく情報を出力するこ とができる。これにより、運転者に対して正確かつ確実に移動体前方の画像に基づく 情報を報知して運転支援することが可能となるという効果を奏する。
[0092] なお、本実施例では、運転支援装置 300によって信号機 411の表示色が赤色であ る場合や黄色である場合に警報情報を出力することを例に挙げて説明したが、表示 色として青色(緑色)を判別し、この青色(緑色)に基づく情報を表示部 303に表示し たり、スピーカ 313から音声出力したりするように構成してもよい。
[0093] また、本実施例では、信号機 411の表示色に基づく情報を出力することを例に挙げ て説明したが、この情報に基づき制御部 301の制御によって、車両 401の各部を制 御して走行安全性を向上させるように構成してもよい。この場合、例えば表示色が赤 色であるときは、信号機 411から手前所定距離以内においては車両 401が安全に停 止するようにブレーキをかけるなどの制御が考えられる。
[0094] また、本実施例においては、カメラ 309を車両 401のルームミラー裏側に配置して 車両 401の前方を撮影するように構成した力 カメラ 309の配置位置は、車両 401の 前方が撮影できる位置であれば、これに限られるものではなレ、。また、カメラ 309を車 両 401の後方が撮影できる位置にさらに配置し、車両 401の後方画像に基づく情報 を適宜表示部 303の表示画面上に併せて表示するように構成してもよい。
[0095] なお、本実施の形態で説明した撮影制御方法は、あらかじめ用意されたプログラム をパーソナル ·コンピュータやワークステーションなどのコンピュータで実行することに より実現すること力 Sできる。このプログラムは、ハードディスク、フレキシブルディスク、 CD-ROM, MO、 DVDなどのコンピュータで読み取り可能な記録媒体に記録され 、コンピュータによって記録媒体から読み出されることによって実行される。また、この プログラムは、インターネットなどのネットワークを介して配布することが可能な伝送媒 体であってもよい。

Claims

請求の範囲
[1] 移動体の前方を撮影する撮影手段と、
前記移動体の挙動に関する挙動情報を取得する取得手段と、
前記挙動情報に基づいて前記移動体の進行方向に変化が生じたか否かを判断す る判断手段と、
前記移動体の進行方向に変化が生じたと判断された場合に、前記撮影手段の撮 影方向を前記進行方向の変化に追従するように変更する制御手段と、
前記撮影手段によって撮影された画像に基づく情報を出力する出力手段と、 を備えることを特徴とする運転支援装置。
[2] 前記撮影手段によって撮影された画像から、信号機に関する信号画像を抽出する 抽出手段と、
前記抽出手段によって抽出された前記信号画像に基づいて、前記信号機の表示 色を判別する判別手段と、
をさらに備え、
前記出力手段は、前記判別手段によって判別された判別結果に基づいて、前記移 動体の運転者に対して警報情報を出力することを特徴とする請求項 1に記載の運転 支援装置。
[3] 前記挙動情報は、前記移動体の加速度に関する情報であり、
前記判断手段は、前記加速度に関する情報に基づいて前記移動体の進行方向が 当該移動体の横方向に変化したか否かを判断し、
前記制御手段は、前記移動体の進行方向が当該移動体の横方向に変化したと判 断された場合に、前記撮影方向を当該横方向に変更することを特徴とする請求項 1 または 2に記載の運転支援装置。
[4] 前記挙動情報は、前記移動体の速度に関する情報および加速度に関する情報で あり、
前記判断手段は、前記加速度に関する情報に基づいて前記移動体の進行方向が 当該移動体の横方向に変化したか否かを判断し、
前記制御手段は、前記速度に関する情報が示す前記移動体の進行方向の速度お よび前記加速度に関する情報が示す前記移動体の横方向の加速度を用いて前記 移動体の進行方向が当該移動体の横方向に変化したと判断された場合に、前記撮 影方向を当該横方向に変更することを特徴とする請求項 1または 2に記載の運転支 援装置。
[5] 前記挙動情報は、前記移動体の操舵機に関する情報であり、
前記判断手段は、前記操舵機に関する情報に基づいて前記移動体の進行方向が 当該移動体の横方向に変化したか否かを判断し、
前記制御手段は、前記操舵機に関する情報が示す操舵方向が当該移動体の横方 向に変化したと判断された場合に、前記撮影方向を当該横方向に変更することを特 徴とする請求項 1または 2に記載の運転支援装置。
[6] 移動体の前方を撮影する撮影手段と、当該撮影手段によって撮影された画像に基 づく情報を出力する出力手段と、を備える運転支援装置における撮影制御方法であ つて、
前記移動体の挙動に関する挙動情報を取得する取得工程と、
前記挙動情報に基づいて前記移動体の進行方向に変化が生じたか否かを判断す る判断工程と、
前記移動体の進行方向に変化が生じたと判断された場合に、前記撮影手段の撮 影方向を前記進行方向の変化に追従するように変更する制御工程と、
を含んだことを特徴とする撮影制御方法。
[7] 請求項 6に記載の撮影制御方法をコンピュータに実行させることを特徴とする撮影 制御プログラム。
[8] 請求項 7に記載の撮影制御プログラムを記録したことを特徴とするコンピュータに読 み取り可能な記録媒体。
PCT/JP2006/318246 2005-09-16 2006-09-14 運転支援装置、撮影制御方法、撮影制御プログラムおよび記録媒体 WO2007032427A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2005270835 2005-09-16
JP2005-270835 2005-09-16

Publications (1)

Publication Number Publication Date
WO2007032427A1 true WO2007032427A1 (ja) 2007-03-22

Family

ID=37865011

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2006/318246 WO2007032427A1 (ja) 2005-09-16 2006-09-14 運転支援装置、撮影制御方法、撮影制御プログラムおよび記録媒体

Country Status (1)

Country Link
WO (1) WO2007032427A1 (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014175913A (ja) * 2013-03-11 2014-09-22 Nec Engineering Ltd 撮像装置及び撮像装置の制御方法、制御プログラム
CN103632556B (zh) * 2008-10-08 2015-12-09 丰田自动车株式会社 驾驶辅助装置及方法
JP2016505450A (ja) * 2013-01-29 2016-02-25 ローベルト ボッシュ ゲゼルシャフト ミット ベシュレンクテル ハフツング 車両用のカメラシステム、車両用の車載カメラの画像の画像領域を制御するための方法および装置
WO2018101063A1 (ja) 2016-11-30 2018-06-07 京セラ株式会社 カメラモニタシステム、画像処理装置、車両及び画像処理方法
CN108172003A (zh) * 2017-11-30 2018-06-15 广州华夏职业学院 交通信号灯车内提醒***
CN109827182A (zh) * 2018-12-06 2019-05-31 上海金山环境再生能源有限公司 垃圾焚烧发电生产安全监测***
WO2019155569A1 (ja) * 2018-02-08 2019-08-15 三菱電機株式会社 障害物検出装置および障害物検出方法

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05342497A (ja) * 1992-06-09 1993-12-24 Mazda Motor Corp 車両の障害物検出装置
JPH1134829A (ja) * 1997-07-17 1999-02-09 Aisin Seiki Co Ltd 進行方向補正装置
JPH11296799A (ja) * 1998-04-09 1999-10-29 Fujitsu Ten Ltd 走行路形状認識装置
JPH11306498A (ja) * 1998-04-16 1999-11-05 Matsushita Electric Ind Co Ltd 車載カメラシステム
JP2001048034A (ja) * 1999-08-10 2001-02-20 Nissan Motor Co Ltd 車線追従装置
JP2002312898A (ja) * 2001-04-10 2002-10-25 Honda Motor Co Ltd 赤外線画像処理装置
JP2004289738A (ja) * 2003-03-25 2004-10-14 Minolta Co Ltd 撮像装置

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05342497A (ja) * 1992-06-09 1993-12-24 Mazda Motor Corp 車両の障害物検出装置
JPH1134829A (ja) * 1997-07-17 1999-02-09 Aisin Seiki Co Ltd 進行方向補正装置
JPH11296799A (ja) * 1998-04-09 1999-10-29 Fujitsu Ten Ltd 走行路形状認識装置
JPH11306498A (ja) * 1998-04-16 1999-11-05 Matsushita Electric Ind Co Ltd 車載カメラシステム
JP2001048034A (ja) * 1999-08-10 2001-02-20 Nissan Motor Co Ltd 車線追従装置
JP2002312898A (ja) * 2001-04-10 2002-10-25 Honda Motor Co Ltd 赤外線画像処理装置
JP2004289738A (ja) * 2003-03-25 2004-10-14 Minolta Co Ltd 撮像装置

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103632556B (zh) * 2008-10-08 2015-12-09 丰田自动车株式会社 驾驶辅助装置及方法
JP2016505450A (ja) * 2013-01-29 2016-02-25 ローベルト ボッシュ ゲゼルシャフト ミット ベシュレンクテル ハフツング 車両用のカメラシステム、車両用の車載カメラの画像の画像領域を制御するための方法および装置
CN105432074A (zh) * 2013-01-29 2016-03-23 罗伯特·博世有限公司 用于车辆的摄像机***、用于控制用于车辆的车辆摄像机的图像的图像区域的方法和设备
JP2014175913A (ja) * 2013-03-11 2014-09-22 Nec Engineering Ltd 撮像装置及び撮像装置の制御方法、制御プログラム
WO2018101063A1 (ja) 2016-11-30 2018-06-07 京セラ株式会社 カメラモニタシステム、画像処理装置、車両及び画像処理方法
US10893214B2 (en) 2016-11-30 2021-01-12 Kyocera Corporation Camera monitoring system, image processing device, vehicle and image processing method
CN108172003A (zh) * 2017-11-30 2018-06-15 广州华夏职业学院 交通信号灯车内提醒***
CN108172003B (zh) * 2017-11-30 2020-11-27 广州华夏职业学院 交通信号灯车内提醒***
JPWO2019155569A1 (ja) * 2018-02-08 2020-09-24 三菱電機株式会社 障害物検出装置および障害物検出方法
WO2019155569A1 (ja) * 2018-02-08 2019-08-15 三菱電機株式会社 障害物検出装置および障害物検出方法
US11845482B2 (en) 2018-02-08 2023-12-19 Mitsubishi Electric Corporation Obstacle detection device and obstacle detection method
CN109827182B (zh) * 2018-12-06 2020-09-08 上海金山环境再生能源有限公司 垃圾焚烧发电生产安全监测***
CN109827182A (zh) * 2018-12-06 2019-05-31 上海金山环境再生能源有限公司 垃圾焚烧发电生产安全监测***

Similar Documents

Publication Publication Date Title
JP4622928B2 (ja) 車載カメラ制御装置および車載カメラ制御方法。
JP4434224B2 (ja) 走行支援用車載装置
JP6451844B2 (ja) 車両位置判定装置及び車両位置判定方法
JP4886597B2 (ja) レーン判定装置及びレーン判定方法、並びにそれを用いたナビゲーション装置
JP4421549B2 (ja) 運転支援装置
JP4783430B2 (ja) 駆動制御装置、駆動制御方法、駆動制御プログラムおよび記録媒体
US20090088978A1 (en) Road Marking Recognition System
JP4848893B2 (ja) 交差点情報提供システム及び運転支援システム
JP2006209510A (ja) 画像認識装置及び画像認識方法
WO2007032427A1 (ja) 運転支援装置、撮影制御方法、撮影制御プログラムおよび記録媒体
JP2008064687A (ja) 走行情報案内装置
WO2008056780A1 (en) Driving assistance device, driving assistance method, and program
JP2010271155A (ja) 現在位置特定装置とその現在位置特定方法
JP2008070955A (ja) 移動体を表示するための表示システム、車載装置、画像送信装置及び表示方法
JP2007015525A (ja) カメラが撮影した前方画像に基づいて、先行車両と自車両との間の接近の危険に対処するための信号を出力する出力装置、および、当該出力装置のためのプログラム
JP2003178397A (ja) 道路表示等検出警告装置
JP2005214857A (ja) ナビゲーション装置、案内画像作成方法
JP2009193507A (ja) 逆走防止システム
JP5156307B2 (ja) 車載カメラシステム
JP2009105741A (ja) 車載周辺監視装置
JP2009294882A (ja) 車両画像記録装置、車両画像記録システム
WO2007135856A1 (ja) 撮影制御装置、撮影制御方法、撮影制御プログラム、および記録媒体
JP5151716B2 (ja) 車両走行支援システム、路上側システム及び車両側システム
JP5041411B2 (ja) 情報表示装置
JP2006164197A (ja) 走行支援装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application
NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 06810140

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP