WO2013018673A1 - 立体物検出装置及び立体物検出方法 - Google Patents

立体物検出装置及び立体物検出方法 Download PDF

Info

Publication number
WO2013018673A1
WO2013018673A1 PCT/JP2012/069094 JP2012069094W WO2013018673A1 WO 2013018673 A1 WO2013018673 A1 WO 2013018673A1 JP 2012069094 W JP2012069094 W JP 2012069094W WO 2013018673 A1 WO2013018673 A1 WO 2013018673A1
Authority
WO
WIPO (PCT)
Prior art keywords
vehicle
lane
dimensional object
detection
width direction
Prior art date
Application number
PCT/JP2012/069094
Other languages
English (en)
French (fr)
Inventor
早川 泰久
千加夫 土谷
修 深田
雪徳 西田
Original Assignee
日産自動車株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日産自動車株式会社 filed Critical 日産自動車株式会社
Priority to EP12819626.8A priority Critical patent/EP2741271B8/en
Priority to RU2014107926/11A priority patent/RU2563534C1/ru
Priority to CN201280037841.9A priority patent/CN103718224B/zh
Priority to BR112014001824-3A priority patent/BR112014001824B1/pt
Priority to MX2014000652A priority patent/MX2014000652A/es
Priority to US14/233,404 priority patent/US9092676B2/en
Priority to JP2013526868A priority patent/JP5761349B2/ja
Priority to MYPI2013004517A priority patent/MY183995A/en
Publication of WO2013018673A1 publication Critical patent/WO2013018673A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/167Driving aids for lane monitoring, lane changing, e.g. blind spot detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/08Detecting or categorising vehicles

Definitions

  • the present invention relates to a three-dimensional object detection device and a three-dimensional object detection method.
  • a vehicle periphery monitoring device in which a radar determines whether a three-dimensional object exists in a detection area behind the vehicle and notifies the driver.
  • this vehicle periphery monitoring device at least a portion that becomes a blind spot of the side mirror is included in the detection area, and when the angle of the side mirror changes, the position of the detection area is changed accordingly (see Patent Document 1).
  • the detection area is fixed as long as the angle of the side mirror does not change. In such a state, for example, when the host vehicle is leaning to the left side of the lane and another vehicle on the right side is approaching the right side of the lane, the other vehicle does not enter the detection area. It can no longer be detected.
  • the present invention has been made to solve such a conventional problem, and an object of the present invention is to provide a three-dimensional object detection device and a three-dimensional object detection method capable of improving the detection accuracy of a three-dimensional object. There is to do.
  • the solid object detection device of the present invention captures an image including a predetermined area of a division line and an adjacent lane, and determines whether or not a solid object exists in the predetermined area. Further, the three-dimensional object detection device detects the vehicle width direction distance between the vehicle position and the division line in the traveling lane of the own vehicle from the captured image, and the division line exists as the vehicle width direction distance increases. The size of the predetermined area located on the side is enlarged outward in the vehicle width direction.
  • FIG. 4A and 4B are diagrams for explaining an outline of processing of the alignment unit shown in FIG. 3, in which FIG. 3A shows a moving state of the vehicle V, and FIG. It is the schematic which shows the mode of the production
  • region setting part has shown the example when a detection area is expanded.
  • 2nd Embodiment it is a graph which shows the relationship between the distance in a vehicle width direction with a division line, and the magnitude
  • FIG. 5 is a schematic diagram showing a state of processing by a ground line detection unit 37.
  • FIG. 22 is a graph showing an area increase rate of a plurality of differential waveforms DW t1 to DW t4 shown in FIG. It is a graph which shows the relationship between the vehicle width direction distance with the division line in 4th Embodiment, and the magnitude
  • FIG. 1 is a schematic configuration diagram of a three-dimensional object detection device 1 according to the present embodiment, and shows an example in which the three-dimensional object detection device 1 is mounted on a vehicle V.
  • the three-dimensional object detection apparatus 1 shown in FIG. 1 detects a three-dimensional object (for example, another vehicle, a two-wheeled vehicle, etc.) that travels in an adjacent lane that is adjacent to a travel lane in which the host vehicle V travels. It provides various information to the driver of the vehicle V, and includes a camera (imaging means) 10, a vehicle speed sensor 20, and a calculator 30.
  • the travel lane is a travel band in which the host vehicle V can travel when there is no lane change, and is an area excluding the division line.
  • the adjacent lane is a travel band that is adjacent to the travel lane through the lane marking and excludes the lane marking.
  • a division line is a line such as a white line that serves as a boundary between a traveling lane and an adjacent lane.
  • the camera 10 shown in FIG. 1 is attached so that the optical axis is at an angle ⁇ downward from the horizontal at a position of height h behind the host vehicle V.
  • the camera 10 images the detection area from this position.
  • the vehicle speed sensor 20 detects the traveling speed of the host vehicle V, and for example, a sensor that detects the number of rotations of wheels is applied.
  • the computer 30 detects a three-dimensional object (for example, another vehicle, a two-wheeled vehicle, etc.) existing behind the host vehicle V based on an image captured by the camera 10.
  • the three-dimensional object detection device 1 includes an alarm device (not shown), and warns the driver of the host vehicle V when the three-dimensional object detected by the computer 30 may come into contact with the host vehicle V. To do.
  • FIG. 2 is a top view showing a traveling state of the vehicle shown in FIG.
  • the camera 10 can capture an image of the rear side of the host vehicle V, specifically, an area including a lane marking and an adjacent lane.
  • Detection areas (predetermined areas) A1 and A2 for detecting three-dimensional objects such as other vehicles are set in adjacent lanes adjacent to the travel lane in which the host vehicle V travels, and the computer 30 is in the detection areas A1 and A2. It is detected whether or not there is a three-dimensional object.
  • Such detection areas A1 and A2 are set from a relative position to the host vehicle V.
  • FIG. 3 is a block diagram showing details of the computer 30 shown in FIG. In FIG. 3, the camera 10 and the vehicle speed sensor 20 are also illustrated in order to clarify the connection relationship.
  • the computer 30 includes a viewpoint conversion unit 31, a positioning unit (positioning unit) 32, and a three-dimensional object detection unit (three-dimensional object detection unit) 33.
  • the viewpoint conversion unit 31 inputs captured image data including the detection areas A1 and A2 obtained by imaging with the camera 10, and converts the input captured image data into a bird's-eye image data in a bird's-eye view state. is there.
  • the state viewed from a bird's-eye view is a state viewed from the viewpoint of a virtual camera looking down from above, for example, vertically downward.
  • This viewpoint conversion is executed as described in, for example, Japanese Patent Application Laid-Open No. 2008-219063.
  • the alignment unit 32 sequentially inputs the bird's-eye image data obtained by the viewpoint conversion of the viewpoint conversion unit 31, and aligns the positions of the inputted bird's-eye image data at different times.
  • FIG. 4 is a top view showing an outline of the processing of the alignment unit 32 shown in FIG. 3, (a) shows the moving state of the vehicle V, and (b) shows an outline of the alignment.
  • the host vehicle V at the current time is located at V1, and the host vehicle V one hour before is located at V2.
  • the other vehicle V is located in the rear direction of the own vehicle V and is in parallel with the own vehicle V, the other vehicle V at the current time is located at V3, and the other vehicle V one hour before is located at V4.
  • the host vehicle V has moved a distance d at one time.
  • “one hour before” may be a past time by a predetermined time (for example, one control cycle) from the current time, or may be a past time by an arbitrary time.
  • the bird's-eye image PB t at the current time is as shown in Figure 4 (b).
  • the bird's-eye image PB t it becomes a rectangular shape for the white line drawn on the road surface, and has a relatively accurately been viewed state.
  • the other vehicle V3 has fallen.
  • the white line drawn on the road surface has a rectangular shape and is relatively accurately viewed from above, but the other vehicle V4 falls down. Has occurred.
  • the alignment unit 32 performs alignment of the bird's-eye images PB t and PB t ⁇ 1 as described above on the data. At this time, the alignment unit 32 is offset a bird's-eye view image PB t-1 before one unit time, to match the position and bird's-eye view image PB t at the current time.
  • the offset amount d ′ is an amount corresponding to the moving distance d shown in FIG. 4A, and is determined based on the signal from the vehicle speed sensor 20 and the time from one time before to the current time.
  • the alignment unit 32 takes the difference between the bird's-eye images PB t and PB t ⁇ 1 and generates data of the difference image PD t .
  • the pixel value of the difference image PD t may be an absolute value of the difference between the pixel values of the bird's-eye images PB t and PB t ⁇ 1 , and the absolute value is predetermined in order to cope with a change in the illuminance environment. It may be set to “1” when the value is exceeded and “0” when the value is not exceeded.
  • the computer 30 includes a lateral position detection unit (lateral position detection means) 34.
  • the lateral position detection unit 34 determines, based on the captured image data captured by the camera 10, the own vehicle position (specifically, the side surface of the own vehicle V) in the traveling lane of the own vehicle V and the dividing line that divides the lane. The vehicle width direction distance is detected.
  • the lateral position detection unit 34 can detect whether the computer 30 is traveling in the center of the travel lane or is biased to the left or right.
  • the three-dimensional object detection unit 33 detects a three-dimensional object based on the data of the difference image PD t as shown in FIG.
  • the three-dimensional object detection unit 33 includes a differential waveform generation unit (difference waveform generation unit) 33a and an area setting unit (area setting unit) 33b.
  • FIG. 5 is a schematic diagram showing how a differential waveform is generated by the differential waveform generator 33a shown in FIG.
  • the differential waveform generation unit 33a generates a differential waveform DW t from a portion corresponding to the detection areas A1 and A2 in the differential image PD t .
  • the prorated waveform generation unit 33a generates a differential waveform DW t along the direction in which the three-dimensional object falls due to viewpoint conversion.
  • only the detection area A1 is described for convenience.
  • the differential waveform generation unit 33a first defines a line La in the direction in which the three-dimensional object falls on the data of the differential image DW t . Then, the difference waveform generation unit 33a counts the number of difference pixels DP indicating a predetermined difference on the line La.
  • the difference pixel DP indicating the predetermined difference exceeds the predetermined value when the pixel value of the difference image DW t is an absolute value of the difference between the pixel values of the bird's-eye images PB t and PB t ⁇ 1. If the pixel value of the difference image DW t is expressed by “0” and “1”, the pixel indicates “1”.
  • the difference waveform generation unit 33a counts the number of difference pixels DP and then obtains an intersection CP between the line La and the line L1. Then, the differential waveform generation unit 33a associates the intersection CP with the count number, determines the horizontal axis position (position on the vertical axis in FIG. 5) based on the position of the intersection CP, and determines the vertical axis position from the count number. (Position on the horizontal axis in FIG. 5) is determined.
  • the differential waveform generation unit 33a defines a line in the direction in which the three-dimensional object falls, counts the number of difference pixels DP, determines the horizontal axis position based on the position of the intersection CP, and counts ( The vertical axis position is determined from the number of difference pixels DP).
  • the three-dimensional object detection unit 33 generates the differential waveform DW by repeating the above in order and performing frequency distribution.
  • the line La and the line Lb in the direction in which the three-dimensional object collapses have different distances overlapping the detection area A1. For this reason, if the detection area A1 is filled with the difference pixels DP, the number of the difference pixels DP is larger on the line La than on the line Lb. Therefore, when determining the vertical axis position from the count number of the difference pixel DP, the difference waveform generation unit 33a normalizes based on the distance at which the lines La and Lb in the direction in which the three-dimensional object falls and the detection area A1 overlap. To do. As a specific example, in FIG. 5, there are six difference pixels DP on the line La, and there are five difference pixels DP on the line Lb.
  • the differential waveform generation unit 33a normalizes the count number by dividing it by the overlap distance.
  • the difference waveform DW t the line La on the direction the three-dimensional object collapses
  • the value of the differential waveform DW t corresponding to Lb is substantially the same.
  • the three-dimensional object detection unit 33 detects a three-dimensional object based on the data of the difference waveform DW t .
  • the moving object detection unit 34 first calculates the estimated speed of the three-dimensional object by associating the differential waveform DW t ⁇ 1 one time ago with the current differential waveform DW t . For example, when the three-dimensional object is the other vehicle V, since the difference pixel DP is easily obtained in the tire portion of the other vehicle V, the difference waveform DW tends to have two maximum values.
  • the relative speed of the other vehicle V with respect to the host vehicle V can be obtained by obtaining the difference between the maximum values of the difference waveform DW t-1 one time before and the current difference waveform DW t .
  • the mobile body detection part 34 calculates
  • the moving object detection unit 34 determines whether or not the three-dimensional object is a three-dimensional object by determining whether the estimated speed of the three-dimensional object is an appropriate speed as the three-dimensional object.
  • the area setting unit 33b sets the sizes of the detection areas A1 and A2 shown in FIG.
  • the area setting unit 33b increases the size of the detection areas A1 and A2 positioned on the side where the lane marking exists as the distance in the vehicle width direction from the lane marking detected by the lateral position detection section 34 increases. To enlarge.
  • FIG. 6 is a top view showing the traveling state of the vehicle shown in FIG. 1, and shows an example in which the host vehicle V is traveling on a traveling lane. As shown in FIG. 6, it is assumed that the host vehicle V is traveling in a biased manner on the travel lane, and is traveling close to the lane marking on the left side of the vehicle (left side as viewed from the driver).
  • the region setting unit 33b prevents the situation in which the detection region A1 is enlarged to cause detection omission.
  • FIG. 7 is a top view showing the traveling state of the vehicle shown in FIG. 1, and shows an example in which the region setting unit 33b enlarges the detection region A1. As shown in FIG. 7, the detection area A1 is enlarged by the area setting unit 33b. Thereby, the other vehicle V will be located in detection area A1, and the detection omission of the other vehicle V can be prevented.
  • FIG. 8 is a graph showing the relationship between the vehicle width direction distance ⁇ y from the lane marking and the size of the detection area A1 (enlargement amount ⁇ y 0 fs).
  • the amount of enlargement of the detection area A1 is zero. Further, when the vehicle width direction distance ⁇ y is from y1 to y2, the enlargement amount of the detection area A1 is increased according to the size of the vehicle width direction distance ⁇ y. Further, when the vehicle width direction distance ⁇ y exceeds y2, the enlargement amount of the detection area A1 is fixed to y 0 fs ′. As described above, the reason why the expansion amount of the detection area A1 is fixed to the specific value y 0 fs ′ is that if the detection area A1 is expanded indefinitely, not only the adjacent lane but also the adjacent lane is detected. This is because it may fall within A1.
  • the amount of enlargement of the detection area A1 is proportionally increased in the section where the vehicle width direction distance ⁇ y is from y1 to y2, but is not limited to the proportional increase and increases exponentially. It may be.
  • the detection area A ⁇ b> 1 once enlarged is reduced.
  • the detection area A1 is enlarged based on the vehicle width direction distance ⁇ y from the vehicle right side surface (right side surface as viewed from the driver) to the right lane marking. Needless to say, it is determined based on the vehicle width direction distance ⁇ y from the left side of the vehicle (left side as viewed from the driver) to the left lane marking.
  • the area setting unit 33b is configured not to change the detection areas A1 and A2 abruptly. This is because, if the detection areas A1 and A2 are suddenly changed, the detection of the three-dimensional object becomes unstable, and the possibility of causing a detection failure of the three-dimensional object increases.
  • the region setting unit 33b prevents the amount of change when changing the detection regions A1 and A2 from exceeding a limit value (enlarged specified value, specified value). More specifically, the area setting unit 33b obtains target values of the sizes of the detection areas A1 and A2 based on the graph shown in FIG. Then, the region setting unit 33b sequentially brings the sizes of the detection regions A1 and A2 close to the target value within a range that does not exceed the limit value.
  • the enlargement limit value (enlarged specified value) that is a limit value when the detection areas A1 and A2 are enlarged is smaller than the reduction limit value (specified value) that is the limit value when the detection areas A1 and A2 are reduced. Is set. As a result, when the detection areas A1 and A2 are reduced, the detection areas A1 and A2 are not suddenly reduced, and the other areas V are removed from the detection areas A1 and A2 by rapidly reducing the detection areas A1 and A2. It is possible to prevent a situation in which leakage occurs.
  • the area setting unit 33b makes the limit value smaller during detection of the three-dimensional object than during non-detection of the three-dimensional object. This is to prevent a situation in which the other vehicle V being detected is deviated from the detection areas A1 and A2 by causing the detection areas A1 and A2 to be suddenly reduced, thereby causing a detection omission.
  • FIG. 9 is a flowchart showing the three-dimensional object detection method according to the present embodiment.
  • the lateral position detector 34 detects the vehicle width direction distance ⁇ y between the side surface of the host vehicle V and the dividing line (S1). At this time, the lateral position detection unit 34 detects the vehicle width direction distance ⁇ y based on the image data captured by the camera 10. In the present embodiment, since the detection areas A1 and A2 are set to the left and right rear of the host vehicle V, the lateral position detection unit 34 determines the distance in the vehicle width direction between the left and right side surfaces of the host vehicle V and the left and right dividing lines. Each ⁇ y is detected. In the following description, for convenience of explanation, only one detection area A1 will be described as an example, but the same applies to the other detection area A2.
  • the area setting unit 33b sets a target value for the detection area A1 (S2). At this time, the region setting unit 33b sets a target value based on the graph data described with reference to FIG. Next, the three-dimensional object detection unit 33 determines whether or not a three-dimensional object is currently being detected (S3).
  • the region setting unit 33b sets the limit value that is the upper limit of the amount of change in the detection region A1 to the first limit value (S4). Then, the process proceeds to step S6.
  • the region setting unit 33b sets the limit value that is the upper limit value of the change amount of the detection region A1 to the second limit value (S5). Then, the process proceeds to step S6.
  • the first limit value is smaller than the second limit value. For this reason, a sudden change of the detection area A1 is further prevented during the detection of the three-dimensional object.
  • step S6 the three-dimensional object detection unit 33 determines whether or not to reduce the detection area A1 based on the target value obtained in step S2 (S6).
  • the area setting unit 33b decreases the limit value set in steps S4 and S5 (S7). Thereby, when the detection area A1 is reduced, a sudden change in the detection area A1 can be further suppressed. Then, the process proceeds to step S8.
  • the area setting unit 33b performs the process without reducing the limit value set in steps S4 and S5. The process proceeds to step S8.
  • step S8 the area setting unit 33b changes the size of the detection area A1 (S8).
  • the region setting unit 33b enlarges or reduces the size of the detection region A1 within a range that does not exceed the limit value obtained through the above processing.
  • the computer 30 detects the vehicle speed based on the signal from the vehicle speed sensor 20 (S9).
  • the alignment unit 32 detects the difference (S10).
  • the alignment unit 32 generates data of the difference image PD t as described with reference to FIG.
  • the differential waveform generation unit 33a generates the differential waveform DW as described with reference to FIG. 5 based on the differential image PD t generated in step S10 (S11). Then, the three-dimensional object detection unit 33 calculates the estimated speed of the three-dimensional object by associating the differential waveform DW t ⁇ 1 one time ago with the current differential waveform DW t (S12).
  • the three-dimensional object detection unit 33 determines whether or not the estimated speed calculated in step S12 is a detection target (S13).
  • the three-dimensional object detection device 1 detects other vehicles, two-wheeled vehicles, and the like that may be contacted when the lane is changed. For this reason, the three-dimensional object detection unit 33 determines whether or not the estimated speed is appropriate as the speed of the other vehicle or the two-wheeled vehicle in step S13.
  • the three-dimensional object detection unit 33 detects the three-dimensional object (other vehicle) indicated by the difference waveform DW t . Or a motorcycle (S14). Then, the process shown in FIG. 9 ends.
  • the three-dimensional object detection unit 33 determines that the three-dimensional object indicated by the differential waveform DW t is not a three-dimensional object to be detected. The processing shown in FIG. 9 ends.
  • the detection areas A1 and A2 are not appropriately set to the adjacent vehicles, and other vehicles, etc. It is possible to prevent the three-dimensional object from being out of the detection areas A1 and A2 and leaking detection. Therefore, the detection accuracy of the three-dimensional object can be improved.
  • the limit value is made smaller during detection of a three-dimensional object than during non-detection of a three-dimensional object. That is, since the reduction limit value is smaller than the enlargement limit value, the size of the detection areas A1 and A2 is rapidly reduced during detection of the three-dimensional object, and the detection areas A1 and A2 are extremely reduced and detected. It is possible to prevent a situation in which leakage occurs.
  • Second Embodiment a second embodiment of the present invention will be described.
  • the three-dimensional object detection device and the three-dimensional object detection method according to the second embodiment are the same as those of the first embodiment, but the configuration and processing contents are partially different.
  • differences from the first embodiment will be described.
  • FIG. 10 is a block diagram showing details of the computer 30 according to the second embodiment.
  • the camera 10 and the vehicle speed sensor 20 are also illustrated in order to clarify the connection relationship.
  • the computer 30 includes a lane width detection unit (width detection means) 35.
  • the lane width detection unit 35 detects the lane width of the traveling lane.
  • the lane width detection unit 35 detects the lane width of the traveling road based on the captured image data captured by the camera 10.
  • the lane width detection unit 35 may detect the lane width of the adjacent lane and detect this as the lane width of the traveling lane. This is because the lane width is basically uniform on the road.
  • FIG. 11 is a top view showing a running state of the vehicle when the lane width is narrow, and shows an example in which the area setting unit 33b enlarges the detection area A1.
  • the detection area A1 is enlarged as in the first embodiment, as shown in FIG. 11, another vehicle V in the adjacent lane may enter the detection area A1.
  • solid object detection is performed based on such detection area A1, the precision of solid object detection will fall. The same applies to the detection area A2.
  • the region setting unit 33b decreases the amount of expansion when the detection regions A1 and A2 are expanded outward in the vehicle width direction as the lane width detected by the lane width detection unit 35 decreases. To do.
  • FIG. 12 is a graph showing the relationship between the vehicle width direction distance ⁇ y with the lane marking and the size of the detection area A1 (enlargement amount ⁇ y 0 fs) in the second embodiment.
  • the enlargement amount of the detection area A1 is increased according to the size of the vehicle width direction distance ⁇ y. Is smaller than the example shown in FIG. That is, the area setting unit 33b according to the second embodiment reduces the amount of enlargement when the detection areas A1 and A2 are enlarged, thereby preventing the detection area A1 from being excessively enlarged. As a result, the detection area A1 is set to be adjacent to the lane, thereby preventing the accuracy of the three-dimensional object detection from being lowered.
  • the maximum value y 0 fs ′ is smaller than the example shown in FIG. This is because it is possible to further prevent the detection area A1 from being set to the adjacent lane.
  • 13 and 14 are flowcharts showing the three-dimensional object detection method according to the second embodiment.
  • the lane width detection part 35 detects the lane width of a driving lane based on the image data imaged with the camera 10 (S21).
  • the area setting unit 33b sets an enlargement amount (S22). That is, as shown in FIG. 12, the region setting unit 33b decreases the enlargement amount according to the vehicle width direction distance ⁇ y as the lane width decreases. In this process, it is desirable that the area setting unit 33b also reduces the maximum value y 0 fs ′.
  • steps S23 to S36 processing similar to that in steps S1 to S14 shown in FIG. 9 is executed.
  • the detection accuracy of the three-dimensional object can be improved and the detection of the three-dimensional object is omitted as in the first embodiment. It is possible to prevent a situation (such as that) that would cause In addition, it is possible to prevent a situation in which the detection areas A1 and A2 are extremely reduced to cause detection failure.
  • the smaller the lane width of the traveling lane the smaller the amount of enlargement when the sizes of the detection areas A1, A2 are enlarged. For this reason, when the lane width is small, it is possible to prevent the detection areas A1 and A2 from being set to the adjacent lanes instead of the adjacent lanes.
  • FIG. 15 is a block diagram showing details of the computer 30 according to the third embodiment.
  • the camera 10 and the vehicle speed sensor 20 are also illustrated in order to clarify the connection relationship.
  • the computer 30 includes a lane change detection unit (lane change detection means) 36.
  • the lane change detection unit 36 detects a lane change of the host vehicle V.
  • the lane change detection unit 36 calculates the degree of approach to the lane marking based on the image data obtained by the imaging of the camera 10, and the host vehicle V Determines whether or not to change lanes.
  • the lane change detection unit 36 is not limited to the above, and may determine the lane change from the steering amount or may be determined from other methods.
  • the lane change detection unit 36 detects that the host vehicle V changes its lane when the side surface of the host vehicle V enters within a predetermined distance (for example, 10 cm) from the lane marking. Further, the lane change detection unit 36 may detect that the side of the host vehicle V has entered within a predetermined distance from the lane marking, but does not change the lane when the vehicle V is separated by a predetermined distance or more again. Further, the lane change detection unit 36 determines that the lane change has been completed when the lane change has occurred a predetermined distance or more away from the lane line (that is, when the lane change has exceeded the lane line and the lane change has occurred a predetermined distance or more away). May be.
  • a predetermined distance for example, 10 cm
  • FIG. 16 is a top view showing a running state of the vehicle at the time of lane change.
  • the host vehicle V is located at the center of the lane (see reference numeral Va), and then changes to the lane and reaches the position Vb.
  • the vehicle width direction distance ⁇ y between the side surface of the host vehicle V and the lane marking is temporarily increased.
  • the detection area A1 is enlarged, and there is a possibility that the other vehicle V in the adjacent lane will enter the detection area A1. And in such a case, the precision of a solid-object detection will fall.
  • the region setting unit 33b expands the size of the detection regions A1 and A2 for a certain period of time. Reduce the amount. That is, when the lane change detection unit 36 detects a lane change of the host vehicle V, the region setting unit 33b performs a vehicle width direction distance ⁇ y between the side surface of the host vehicle V shown in FIG. The enlargement amount ⁇ y 0 fs of the detection areas A1 and A2 is reduced. Specifically, as shown in FIG. 17, the region setting unit 33 b separates the side surface of the host vehicle V from the side of the host vehicle V for a certain period of time after the lane change of the host vehicle V is detected.
  • FIG. 17 is a graph showing the relationship between the distance in the vehicle width direction and the size of the detection area (enlargement amount ⁇ y 0 fs) in the third embodiment.
  • 18 and 19 are flowcharts showing a three-dimensional object detection method according to the third embodiment.
  • the lane change detection unit 36 calculates the degree of approach to the lane marking based on the image data captured by the camera 10, and determines whether or not the host vehicle V changes the lane (S41). When it is determined that the host vehicle V does not change lanes (S41: NO), the process proceeds to step S43. On the other hand, when it is determined that the host vehicle V changes the lane (S41: YES), the area setting unit 33b sets an enlargement amount (S42). That is, the area setting unit 33b reduces the enlargement amount according to the vehicle width direction distance ⁇ y as shown in FIG. In this process, it is desirable that the area setting unit 33b also reduces the maximum value y 0 fs ′.
  • steps S43 to S56 processing similar to that in steps S1 to S14 shown in FIG. 9 is executed.
  • the detection accuracy of the three-dimensional object can be improved and the detection of the three-dimensional object is omitted as in the first embodiment. It is possible to prevent a situation (such as that) that would cause In addition, it is possible to prevent a situation in which the detection areas A1 and A2 are extremely reduced to cause detection failure.
  • the amount of enlargement when the size of the detection areas A1, A2 is enlarged is reduced. For this reason, it is possible to prevent a situation in which the detection areas A1 and A2 are set not to the adjacent lane but to the adjacent lane in a state where the lane is temporarily changed during the lane change.
  • FIG. 20 is a block diagram showing details of the computer 30 according to the fourth embodiment.
  • the camera 10 and the vehicle speed sensor 20 are also illustrated in order to clarify the connection relationship.
  • the computer 30 includes a ground wire detection unit 37.
  • the ground line detection unit 37 detects the position (position in the vehicle width direction) where the tire of the other vehicle V traveling in the adjacent lane contacts the ground as a ground line. Details will be described below with reference to FIGS. 21 and 22.
  • 21 and 22 are diagrams for explaining a method of detecting a ground line by the ground line detector 37.
  • FIG. 21 and 22 are diagrams for explaining a method of detecting a ground line by the ground line detector 37.
  • the ground line detection unit 37 sets a plurality of lines L 1 to L n substantially parallel to the traveling direction of the host vehicle V at different positions with respect to the detection areas A1 and A2. For example, in the example illustrated in FIG. 21, the ground line detection unit 37 sets four substantially parallel lines.
  • four substantially parallel lines L 1 to L 4 will be described as an example. However, the present invention is not limited to this, and the number of parallel lines may be two or three, or five or more. There may be.
  • the ground line detection unit 37 causes the differential waveform generation unit 33a to generate the differential waveform DW t for the set lines L 1 to L 4 . That is, the ground line detection unit 37 causes the difference waveform generation unit 33a to count the number of difference pixels DP, and then the line La in the direction in which the three-dimensional object falls on the data of the difference image DW t and the lines L 1 to L. 4 is obtained, and the intersection point CP is associated with the count number, thereby generating a differential waveform DW t for each of the lines L 1 to L 4 . Thereby, the ground wire detection part 37 can obtain a plurality of differential waveforms as shown in FIG. Incidentally, in FIG.
  • the differential waveform DW t1 are those generally based on parallel lines L 1
  • the differential waveform DW t2 are those generally based on parallel lines L 2
  • the difference waveform DW t3 is substantially parallel is based on a line L 3
  • the differential waveform DW t4 are those generally based on parallel lines L 4.
  • the ground line detection unit 37 determines the ground line L t of the other vehicle V from the shape change of the plurality of differential waveforms DW t1 to DW t4 as described above. In the example shown in FIG. 21 (b), a ground line detection unit 37 determines that the ground line L t substantially parallel lines L 3. Specifically, the ground line L t is determined from the area increase rate shown in FIG. FIG. 22 is a graph showing an increase rate of the area of the plurality of differential waveforms DW t1 to DW t4 shown in FIG. As shown in FIG. 22, the ground line detection unit 37 refers to the increase rate of the area from the farthest parallel line to the nearest parallel line among the calculated areas.
  • the area of the differential waveform DW t2 indicates a constant increase rate of the area of the differential waveform DW t1
  • the area of the difference waveform DW t3 indicates a constant increase rate of the area of the differential waveform DW t2
  • the area of the differential waveform DW t4 and the area of the differential waveform DW t3 are the same, and the increase rate is equal to or less than a predetermined value.
  • ground line detection unit 37 detects substantially parallel lines L3 as a ground line L t of the other vehicle V.
  • the area setting unit 33 b based on the vehicle width direction distance ⁇ y between the side surface of the host vehicle V and the dividing line, similarly to the first embodiment, together to expand the size, further in the fourth embodiment, based on the ground line L t of the other vehicle V detected by a ground line detection unit 37, at the time of expanding the detection area A1, A2 in the vehicle width direction outer side
  • the enlargement amount ⁇ y 0 fs is changed.
  • the area setting unit 33b as shown in FIG.
  • the detection accuracy of the three-dimensional object can be improved and the detection of the three-dimensional object is omitted, as in the first embodiment. It is possible to prevent a situation (such as that) that would cause In addition, it is possible to prevent a situation in which the detection areas A1 and A2 are extremely reduced to cause detection failure.
  • the ground line L t of the other vehicle V traveling in the adjacent lane is detected, and as the distance from the side surface of the host vehicle V to the ground line L t is shorter, the detection areas A1 and A2 are detected. The amount of change ⁇ y 0 fs when enlarging the size is reduced.
  • the detection areas A1 and A2 are set to adjacent lanes or off-roads by suppressing the amount of change ⁇ y 0 fs when the detection areas A1 and A2 are enlarged.
  • the detection areas A1 and A2 are set to adjacent lanes or off-roads by suppressing the amount of change ⁇ y 0 fs when the detection areas A1 and A2 are enlarged.
  • FIG. 24 is a block diagram showing details of the computer 30 according to the fifth embodiment.
  • the camera 10 and the vehicle speed sensor 20 are also illustrated in order to clarify the connection relationship.
  • the computer 30 includes a turning state detection unit (turning state detection means) 38.
  • the turning state detection unit 38 determines whether or not the host vehicle V is turning based on the host vehicle speed detected by the vehicle speed sensor 20 and the steering amount detected by a steering angle sensor (not shown). Further, when the host vehicle V is turning, the turning radius of the host vehicle V is detected.
  • the detection method of the turning state by the turning state detection part 38 is not specifically limited, For example, the turning state of the own vehicle V1 may be detected based on the detection result by the lateral acceleration sensor, or You may detect the turning state of the own vehicle V1 by estimating a road shape based on the captured image imaged with the camera 10. FIG. Further, the turning state of the host vehicle V1 may be detected by specifying the road on which the host vehicle V is traveling according to the map information such as the navigation system and the current position information of the host vehicle V.
  • the area setting unit 33b enlarges the sizes of the detection areas A1 and A2 based on the vehicle width direction distance ⁇ y between the side surface of the host vehicle V and the lane marking as in the first embodiment.
  • the turning state detecting unit 38 determines that the host vehicle V is turning
  • the size of the detection areas A1 and A2 is increased according to the turning radius of the own vehicle V.
  • the enlargement amount ⁇ y 0 fs at the time of increasing the height is changed.
  • the region setting unit 33b decreases the enlargement amount ⁇ y 0 fs of the detection regions A1, A2 as the turning radius of the host vehicle V is smaller.
  • FIG. 25 is a top view showing the traveling state of the vehicle when the vehicle is turning, and shows an example in which the region setting unit 33b enlarges the detection region A1.
  • the region setting unit 33b enlarges the detection region A1.
  • the detection area A1 is enlarged outward in the vehicle width direction as in the first embodiment, the other vehicle V in the adjacent lane enters the detection area A1, and such other vehicle V is set as an adjacent vehicle. There is a case where it is erroneously detected.
  • the region setting unit 33b increases the distance in the vehicle width direction as the turning radius of the host vehicle V decreases as shown in FIG.
  • the enlargement amount ⁇ y 0 fs of the detection areas A1, A2 with respect to ⁇ y is reduced.
  • the area setting unit 33b increases the detection areas A1 and A2 based on the lane width of the traveling lane of the host vehicle, as described in the second embodiment, in addition to the above configuration.
  • a configuration in which ⁇ y 0 fs is reduced can also be adopted.
  • the smaller enlargement amount ⁇ y 0 fs can be selected to enlarge the size of the detection areas A1, A2 outward in the vehicle width direction.
  • the detection accuracy of the three-dimensional object can be improved and the detection of the three-dimensional object is omitted as in the first embodiment. It is possible to prevent a situation (such as that) that would cause In addition, it is possible to prevent a situation in which the detection areas A1 and A2 are extremely reduced to cause detection failure.
  • the turning state detection unit 38 determines that the host vehicle V is turning, as shown in FIG.
  • the detection areas A1 and A2 are in the adjacent lane even when the host vehicle V is turning along a curve, as shown in FIG. Therefore, it is possible to effectively prevent erroneous detection of the other vehicle V in the adjacent lane as an adjacent vehicle.
  • the enlargement amount ⁇ y 0 fs of the detection areas A1 and A2 can be suppressed based on the turning state of the host vehicle V. For example, when it is detected that the host vehicle V1 is turning while the host vehicle V1 is traveling on a straight road, the host vehicle V may change lanes as the turning radius decreases. It can be judged that it is expensive.
  • FIG. 27 is a top view showing the traveling state of the vehicle in the sixth embodiment, and shows an example in which the region setting unit 33b enlarges the detection region A1.
  • the region setting unit 33b shifts the detection regions A1 and A2 to the outside in the vehicle width direction based on the vehicle width direction distance ⁇ y between the side surface of the host vehicle V and the lane marking. Based on the vehicle width direction distance ⁇ y between the side surface and the dividing line, the detection areas A1, A2 are expanded outward in the vehicle width direction. Details will be described below.
  • FIG. 28A shows the relationship between the vehicle width direction distance ⁇ y from the lane marking and the movement amount (shift amount ⁇ y 0 fs1) when the detection areas A1, A2 are shifted outward in the vehicle width direction.
  • FIG. 28B is a graph showing the relationship between the vehicle width direction distance ⁇ y from the lane marking and the amount of enlargement (enlargement amount ⁇ y 0 fs2) when the detection areas A1, A2 are enlarged outward in the vehicle width direction. It is a graph to show.
  • the area setting unit 33b when the vehicle width direction distance ⁇ y between the side surface and the dividing line of the vehicle V1 is less than y 3, the detection areas A1, A2 and not directly change the vehicle width direction distance [Delta] y is when a and y less than 4 at y 3 or more, depending on the vehicle width direction distance [Delta] y, shifting the detection areas A1, A2 in the vehicle width direction outer side.
  • FIG. 28 (B) when the vehicle width direction distance ⁇ y between the side surface and the dividing line of the vehicle V1 is and y less than 4 at y 3 or more, the vehicle width of the detection area A1, A2 There is no expansion outward.
  • the area setting unit 33b when the vehicle width direction distance [Delta] y is y 4 above, as shown in FIG. 28 (A), the detection areas A1, A2 predetermined shift amount [Delta] y 0 fs1 'only vehicle width
  • the detection areas A1 and A2 are enlarged outward in the vehicle width direction while being shifted outward in the direction. More specifically, when the vehicle width direction distance [Delta] y is less than and y 5 is y 4 above, as shown in FIG.
  • the detection areas A1, A2 is enlarged outward in the vehicle width direction
  • the vehicle width direction distance [Delta] y is the case where y 5 or more
  • the detection areas A1, A2 predetermined expansion amount [Delta] y 0 fs2 'only to expand outward in the vehicle width direction.
  • the vehicle width direction distance ⁇ y between the side surface and the dividing line of the vehicle V becomes y 3 or more
  • the vehicle width direction in accordance with the distance [Delta] y will shift the detection areas A1, A2 in the vehicle width direction outer side, then, if the vehicle width direction distance [Delta] y becomes y 4 above, the vehicle width direction outside of the detection area A1, A2 Instead, the detection areas A1 and A2 are enlarged outward in the vehicle width direction.
  • the area setting unit 33b the vehicle width direction distance [Delta] y is until y 5, depending on the vehicle width direction distance [Delta] y, will the detection area A1, A2 is enlarged in the vehicle width direction outer side in the vehicle width direction distance [Delta] y There it becomes y 5, also enlarged in the vehicle width direction outside of the detection area A1, A2 so that the stop.
  • the area setting unit 33b when the vehicle width direction distance ⁇ y is less than y 5, the vehicle width the size of the detection area A1, A2 has expanded will narrowed inward, then when the vehicle width direction distance ⁇ y is less than y 4, stop the reduction in the vehicle width direction inside of the detection area A1, A2, instead, in the vehicle width direction by a distance ⁇ y Accordingly, the detection areas A1 and A2 are shifted inward in the vehicle width direction.
  • the area setting unit 33b when the vehicle width direction distance ⁇ y is less than y 3, it becomes possible to stop shifting in the vehicle width direction inside of the detection area A1, A2.
  • the region setting unit 33b performs normal operation when the lane of the host vehicle V is changed, when a three-dimensional object is detected, for each of the shift amount ⁇ y 0 fs1 and the enlargement amount ⁇ y 0 fs2 of the detection regions A1 and A2. There is a limit value (enlarged specified value, specified value) of the amount of change according to each situation at the time (when the host vehicle V goes straight and no solid object is detected).
  • the area setting unit 33b gradually shifts the detection areas A1 and A2 to the outside in the vehicle width direction within a range not exceeding the limit values of ⁇ y 0 fs1 and ⁇ y 0 fs2 corresponding to each situation, and detects the detection areas A1 and A2.
  • the size of is gradually increased outward in the vehicle width direction.
  • the limit value for every situation mentioned above will be applied irrespective of the turning state of the own vehicle and the lane width of the traveling lane.
  • the detection accuracy of the three-dimensional object can be improved and the detection of the three-dimensional object is omitted, as in the first embodiment. It is possible to prevent a situation (such as that) that would cause In addition, it is possible to prevent a situation in which the detection areas A1 and A2 are extremely reduced to cause detection failure.
  • the detection areas A1 and A2 are shifted outward in the vehicle width direction based on the vehicle width direction distance ⁇ y between the side surface of the host vehicle V and the lane marking, and then the vehicle width direction distance ⁇ y. Is larger than the predetermined value, and when the shift amount of the detection areas A1 and A2 becomes a predetermined amount, instead of shifting the detection areas A1 and A2, the detection areas A1 and A2 are expanded outward in the vehicle width direction, The following effects can be achieved.
  • a three-dimensional object such as another vehicle traveling in the adjacent lane in the detection areas A1 and A2
  • a three-dimensional object is located in the detection areas A1 and A2 that are located on the outer side in the vehicle width direction than the actual moving speed.
  • the moving speed of the three-dimensional object is calculated at a slower speed than the actual moving speed in the area located inside the vehicle width direction in the detection areas A1 and A2.
  • Tend to. Therefore, if the detection areas A1 and A2 are excessively expanded outward in the vehicle width direction based on the vehicle width direction distance ⁇ y, the detected three-dimensional object is detected according to the detection position of the three-dimensional object in the detection areas A1 and A2.
  • the detection areas A1 and A2 are set in the vehicle width direction based on the vehicle width direction distance ⁇ y between the side surface of the host vehicle V and the lane marking. By shifting to the outside, it is possible to suppress such a variation in the detection result of the moving speed of the three-dimensional object and appropriately detect the three-dimensional object (adjacent vehicle).
  • the detection areas A1 and A2 are shifted too far outward in the vehicle width direction, a two-wheeled vehicle or the like traveling near the host vehicle V1 in the vehicle width direction does not enter the detection areas A1 and A2. It may not be detected.
  • the shift amount for shifting the detection areas A1, A2 to the outside in the vehicle width direction is equal to or larger than a predetermined amount, the detection areas A1, A2 are replaced with the shifts of the detection areas A1, A2.
  • FIG. 29 is a block diagram showing details of the computer 30 according to the seventh embodiment.
  • the camera 10 and the vehicle speed sensor 20 are also illustrated in order to clarify the connection relationship.
  • the computer 30 includes a foreign matter detection unit (foreign matter detection means) 39.
  • the foreign object detection unit 39 detects foreign objects such as raindrops and scales adhering to the lens based on the captured image captured by the camera 10.
  • the foreign matter detection unit 39 irradiates infrared light toward the lens, and detects the amount of raindrops attached to the lens by detecting the attenuation amount by which the irradiated infrared light is attenuated by raindrops.
  • the operation intensity of the wiper the amount of raindrops attached to the lens is detected, and the detected amount of raindrops is output to the region setting unit 33b.
  • the foreign matter detection unit 39 is not limited to one that detects raindrops, and may be one that detects, for example, scale or mud adhering to the lens.
  • the foreign object detection unit 39 extracts the edge of the subject from the captured image, and determines the sharpness of the image from the extracted edge characteristics, so that the lens is clouded and the lens is clouded.
  • the amount of foreign matter adhering to the lens may be detected by determining the degree of presence (a white thin film is formed on the lens surface).
  • the foreign matter detection unit 39 determines that a foreign matter has adhered to the region when an edge having the same intensity is detected in the same region of the captured image over a certain period of time, and the foreign matter that adheres to the lens. May be detected.
  • the area setting unit 33b moves the detection areas A1 and A2 outward in the vehicle width direction based on the vehicle width direction distance ⁇ y between the side surface of the host vehicle V and the lane marking.
  • the enlargement amount ⁇ y 0 fs for enlarging the detection areas A1, A2 is further changed based on the amount of foreign matter detected by the foreign matter detection unit 39.
  • the area setting unit 33b decreases the enlargement amount ⁇ y 0 fs when enlarging the detection areas A1 and A2 as the amount of foreign matter attached to the lens increases.
  • FIG. 30 is a diagram illustrating the relationship between the amount of foreign matter attached to the lens and the size of the detection areas A1 and A2 (enlargement amount ⁇ y 0 fs).
  • the area setting unit 33b decreases the enlargement amount ⁇ y 0 fs when enlarging the detection areas A1 and A2 as the amount of foreign matter attached to the lens increases.
  • the area setting unit 33b when the amount of foreign matter adhered to the lens is less than q 1 is an enlarged amount [Delta] y 0 fs detection region A1, A2, based on the vehicle width direction by a distance [Delta] y is was left initial expansion amount, the amount of foreign matter adhered to the lens is at q 1 or more, and if it is less than q 2, the more the amount of foreign matter adhered to the lens increases the detection area A1, A2 of reducing the expansion amount [Delta] y 0 fs, the amount of foreign matter adhered to the lens when it exceeds q 2 is an enlarged amount of the detection area A1, A2, sets the smallest predetermined value ⁇ y 0 fs ''.
  • the detection accuracy of the three-dimensional object can be improved and the detection of the three-dimensional object is omitted, as in the first embodiment. It is possible to prevent a situation (such as that) that would cause In addition, it is possible to prevent a situation in which the detection areas A1 and A2 are extremely reduced to cause detection failure.
  • the amount of foreign matter attached to the lens of the camera 10 is detected, and the larger the amount of foreign matter, the smaller the enlargement amount ⁇ y 0 fs of the detection areas A1, A2.
  • the amount of foreign matter attached to the lens increases, a part of the light beam from the subject is blocked or diffusely reflected by the foreign matter, and as a result, the image of the dividing line imaged by the camera 10 is distorted, It may become blurred and the detection accuracy of the lane marking may be lowered.
  • the distance in the vehicle width direction between the side surface of the vehicle V and the dividing line is reduced by reducing the enlargement amount ⁇ y 0 fs of the detection areas A1 and A2.
  • the detection error of ⁇ y effectively prevents the detection areas A1 and A2 from being enlarged too much, so that other vehicles traveling in the adjacent lane or grass outside the road are erroneously detected as adjacent vehicles. can do.
  • FIG. 31 is a block diagram showing details of the computer 30 according to the eighth embodiment.
  • the camera 10 and the vehicle speed sensor 20 are also illustrated in order to clarify the connection relationship.
  • the computer 30 includes a lane marking type specifying unit (marking line type specifying means) 40.
  • the lane marking type identification unit 40 identifies the lane marking type based on the captured image captured by the camera 10.
  • the method for specifying the type of the lane line is not particularly limited.
  • the lane line type specifying unit 40 performs pattern matching on the lane line captured by the camera 10 to determine the type of the lane line. Can be identified.
  • the lane line type identification unit 40 identifies the road (lane) on which the host vehicle V travels according to the map information such as the navigation system and the current position information of the host vehicle V. Can be specified.
  • the area setting unit 33b moves the detection areas A1, A2 outward in the vehicle width direction based on the vehicle width direction distance ⁇ y between the side surface of the host vehicle V and the lane marking.
  • the amount of enlargement ⁇ y 0 fs for enlarging the detection areas A1 and A2 is changed based on the type of the division line specified by the division line type specification unit 40.
  • FIG. 32 is a diagram showing the relationship between the type of the dividing line and the sizes of the detection areas A1 and A2.
  • the area setting unit 33b reduces the enlargement amount ⁇ y 0 fs of the detection areas A1 and A2 as the possibility that the identified lane marking is a lane marking that divides the traveling lane and the adjacent lane of the host vehicle V is low.
  • the area setting unit 33b can specify four types of dividing lines, namely, a broken line white line, a solid white line, a yellow line, and a multiple line as types of the dividing lines. To do.
  • the area setting unit 33b most likely has an area adjacent to the traveling lane of the host vehicle V among the four types of lane markings. It is determined that the value is high, and among these four types of dividing lines, the amount of enlargement ⁇ y 0 fs of the detection areas A1 and A2 is maximized.
  • the area setting unit 33b determines that there is a possibility that the adjacent lane is adjacent to the traveling lane of the host vehicle V when the dividing line is a solid white line, and is smaller than the dashed white line, as larger amounts [Delta] y 0 fs detection area than other section lines A1, A2 increases, sets a larger amount [Delta] y 0 fs.
  • the area setting unit 33b determines that there is a low possibility that the next lane of the host vehicle V is an adjacent lane, and the amount of enlargement ⁇ y of the detection areas A1 and A2
  • the dividing line is a multiple line, it is determined that the possibility that the adjacent lane is next to the traveling lane of the host vehicle V is the lowest, and among these four dividing line types, The enlargement amount ⁇ y 0 fs of the detection areas A1 and A2 is minimized.
  • the detection accuracy of the three-dimensional object can be improved and the detection of the three-dimensional object is omitted as in the first embodiment. It is possible to prevent a situation (such as that) that would cause In addition, it is possible to prevent a situation in which the detection areas A1 and A2 are extremely reduced to cause detection failure.
  • the type of the lane marking is specified, and the enlargement amount ⁇ y 0 fs of the detection areas A1 and A2 is made different based on the specified lane marking type.
  • the type of the division line is a yellow line or a multiple line
  • A1 and A2 are enlarged, the possibility of detecting grass or noise outside the road increases, and the detection accuracy of a three-dimensional object (such as another vehicle) decreases.
  • the classification line type is a yellow line or a multiple line
  • the detection of grass and noise outside the road is effectively suppressed by suppressing the expansion of the detection areas A1 and A2.
  • the type of the dividing line is a broken white line or a solid white line
  • the three-dimensional object (another vehicle V) in the adjacent lane can be detected appropriately.
  • the amount of enlargement ⁇ y when the sizes of the detection areas A1, A2 are enlarged for a certain period of time is illustrated, in addition to this configuration, when the lane change of the own vehicle V is detected, the moving speed of the own vehicle V in the vehicle width direction is calculated, and the vehicle of the own vehicle V is calculated. As the moving speed in the width direction is higher, the enlargement amount ⁇ y 0 fs when the detection areas A1 and A2 are enlarged can be reduced.
  • the calculation method of the moving speed of the own vehicle V in the vehicle width direction is not particularly limited.
  • the region setting unit 33b detects the distance from the side surface of the own vehicle V detected by the lateral position detection unit 34 to the lane marking.
  • the moving speed of the host vehicle V in the vehicle width direction can be calculated based on the time change of the vehicle width direction distance ⁇ y or by using a lateral acceleration sensor (not shown).
  • the detection areas A1 and A2 are detected after the detection areas A1 and A2 are shifted outward in the vehicle width direction based on the vehicle width direction distance ⁇ y from the side surface of the host vehicle V to the lane marking.
  • the present invention is not limited to this configuration.
  • the sizes of the detection areas A1 and A2 are simultaneously increased. It is good also as a structure which expands this to the vehicle width direction outer side.
  • the vehicle speed of the host vehicle V is determined based on a signal from the speed sensor 20, but the present invention is not limited thereto, and the speed may be estimated from a plurality of images at different times. . In this case, a vehicle speed sensor becomes unnecessary, and the configuration can be simplified. Further, the vehicle behavior may be determined only from the image.
  • the captured image at the current time and the image one hour before are converted into a bird's-eye view, and after the alignment of the converted bird's-eye view is performed, the difference image PD t is generated, and the generated difference image
  • PD t is evaluated along the falling direction (the falling direction of the three-dimensional object when the captured image is converted into a bird's eye view)
  • the differential waveform DW t is generated, but the present invention is not limited to this.
  • the differential waveform DW t may be generated by evaluating along the direction corresponding to the falling direction (that is, the direction in which the falling direction is converted into the direction on the captured image).
  • the difference image PD t is generated from the difference between the two images subjected to the alignment, and the difference image PD t is converted into a bird's eye view
  • the bird's eye view need not necessarily be generated as long as the evaluation can be performed along the falling direction.
  • the three-dimensional object detection devices 1 to 3 detect a three-dimensional object based on the differential waveform DW t .
  • the present invention is not limited to this.
  • an optical flow or an image template is used.
  • a three-dimensional object may be detected.
  • the differential waveform DW t it may be detected three-dimensional object using the difference image PD t.
  • the sizes of the detection areas A1 and A2 are enlarged, in the present embodiment, the sizes of the detection areas A1 and A2 are changed.
  • the present invention is not limited to this, and is different from the detection areas A1 and A2.
  • An enlarged area may be set.
  • the alignment unit 32 aligns the positions of the bird's-eye view images at different times in the bird's-eye view.
  • This “positioning” processing is performed according to the type of detection target and the required detection. It can be performed with an accuracy according to the accuracy. For example, it may be configured to perform exact alignment based on the same time and the same position, or may be configured to perform loose alignment so as to grasp the coordinates of each bird's-eye view image.
  • Moving distance detector 10 ... Camera (imaging means) DESCRIPTION OF SYMBOLS 20 ... One vehicle speed sensor 30 ... Computer 31 ... Viewpoint conversion part 32 ... Positioning part 33 ... One solid object detection part (three-dimensional object detection means) 33a ... Differential waveform generation unit 33b ... Area setting unit (area setting means) 34 ... Lateral position detector (horizontal position detector) 35 ... Lane width detection unit (width detection means) 36 ... Lane change detection unit (lane change detection means) 37 ... Grounding wire detection unit (grounding wire detection means) 38 ... Turning state detection unit (turning state detection means) 39 ... Foreign matter detection unit (foreign matter detection means) 40...
  • Classification line type identification part (division line type identification means) a ... angle A1, A2 ... detection area CP ... intersection DP ... differential pixel DW t, DW t '... differential waveform La, line on the direction Lb ... three-dimensional object collapses PB ... bird's PD ... difference image V ... vehicle , Other vehicle ⁇ y ... distance in the vehicle width direction

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

 立体物検出装置1は、自車両Vの周囲の立体物を検出するものであって、自車両Vの後側方の隣接車線に設定した検出領域A1,A2を含んで撮像するカメラ10と、カメラ10により撮像された検出領域A1,A2内に立体物が存在するか否かを判断する立体物判断部33と、自車両Vの走行車線における自車位置と、車線を区分する区分線との距雜Δyを検出する横位置検出部34と、横位置検出部34により検出された区分線との距離Δyが長くなるほど、区分線が存在する側に位置する検出領域A1,A2の大きさを拡大させる領域設定部33bと、自車両の車線変更を検出する車線変更検出手段35と、を備え、自車両の車線変更が検出された場合に、所定領域の大きさを車幅方向外側に拡大させる際の拡大量を小さくする。

Description

立体物検出装置及び立体物検出方法
 本発明は、立体物検出装置及び立体物検出方法に関する。
 従来、レーダにて車両後方の検出エリア内に立体物が存在するか否かを判断して運転者に通知する車両周辺監視装置が提案されている。この車両周辺監視装置では、少なくともサイドミラーの死角となる箇所を検出エリアに含んでおり、サイドミラーの角度が変化すると、これに応じて検出エリアの位置を変化させる(特許文献1参照)。
特開2000-149197号公報
 しかし、特許文献1に記載の装置では、車線上における自車両の位置によっては隣接車線に存在する他車両等の立体物を検出できなくなってしまう可能性がある。詳細に説明すると、特許文献1に記載の装置では、サイドミラーの角度が変化しない限り、検出エリアは固定されている。そして、このような状態で例えば自車両が車線の左側に寄り、右側の隣接車線の他車両等がその車線の右側に寄っていた場合などには、検出エリアに他車両が入らず立体物を検出できなくなってしまう。
 本発明はこのような従来の課題を解決するためになされたものであり、その目的とするところは、立体物の検出精度を向上させることが可能な立体物検出装置及び立体物検出方法を提供することにある。
 本発明の立体物検出装置は、区分線及び隣接車線の所定領域を含んで撮像し、所定領域内に立体物が存在するか否かを判断するものである。また、立体物検出装置は、撮像した画像から、自車両の走行車線における自車位置と区分線との車幅方向距離を検出し、この車幅方向距離が長くなるほど、当該区分線が存在する側に位置する所定領域の大きさを車幅方向外側に拡大させる。
 本発明によれば、自車位置と区分線との車幅方向距離が長くなるほど、車幅方向距離が当該区分線が存在する側に位置する所定領域を車幅方向外側に拡大させるため、例えば自車両が区分線から離れているために、所定領域が隣接車両に適切に設定されることなく、他車両等の立体物が所定領域から外れて検出漏れしてしまう事態を防止することができる。従って、立体物の検出精度を向上させることができる。
本実施形態に係る立体物検出装置の概略構成図であって、立体物検出装置が車両に搭載される場合の例を示している。 図1に示した車両の走行状態を示す上面図である。 図1に示した計算機の詳細を示すブロック図である。 図3に示した位置合わせ部の処理の概要を説明するための図であり、(a)は車両Vの移動状態を示し、(b)は位置合わせの概要を示している。 図3に示した差分波形生成部による差分波形の生成の様子を示す概略図である。 図1に示した車両の走行状態を示す上面図であって、自車両が走行車線上を偏って走行している場合の例を示している。 図1に示した車両の走行状態を示す上面図であって、領域設定部が検出領域を拡大させた場合の例を示している。 区分線との車幅方向距籬と、検出領域の大きさ(拡大量)との関係を示すグラフである。 本実施形態に係る立体物検出方法を示すフローチャートである。 第2実施形態に係る計算機の詳細を示すブロック図である。 車線幅が狭い場合における車両の走行状態を示す上面図であって、領域設定部が検出領域を拡大させた場合の例を示している。 第2実施形態において、区分線との車幅方向距籬と検出領域の大きさ(拡大量)との関係を示すグラフである。 第2実施形態に係る立体物検出方法を示すフローチャートであって、前半部分を示している。 第2実施形態に係る立体物検出方法を示すフローチャートであって、後半部分を示している。 第3実施形態に係る計算機の詳細を示すブロック図である。 車線変更時における車両の走行状態を示す上面図である。 第3実施形態において、区分線との車幅方向距籬と検出領域の大きさ(拡大量)との関係を示すグラフである。 第3実施形態に係る立体物検出方法を示すフローチャートであって、前半部分を示している。 第3実施形態に係る立体物検出方法を示すフローチャートであって、後半部分を示している。 第4実施形態に係る計算機30の詳細を示すブロック図である。 接地線検出部37による処理の様子を示す概略図である。 図21(b)に示した複数の差分波形DWt1~DWt4の面積の増加率を示すグラフである。 第4実施形態における区分線との車幅方向距籬と検出領域の大きさ(拡大量)との関係を示すグラフである。 第5実施形態に係る計算機30の詳細を示すブロック図である。 第5実施形態における区分線との車幅方向距籬と検出領域の大きさ(拡大量)との関係を示すグラフである。 車両旋回時における車両の走行状態を示す上面図である。 第6実施形態における車両の走行状態を示す上面図である。 第6実施形態における区分線との車幅方向距離と検出領域の大きさ(拡大量)との関係を示すグラフである。 第7実施形態に係る計算機30の詳細を示すブロック図である。 第7実施形態における区分線との車幅方向距籬と検出領域の大きさ(拡大量)との関係を示すグラフである。 第8実施形態に係る計算機30の詳細を示すブロック図である。 区分線の種別と検出領域A1,A2の大きさ(拡大量)との関係を説明するための図である。
≪第1実施形態≫
 以下、本発明の好適な実施形態を図面に基づいて説明する。図1は、本実施形態に係る立体物検出装置1の概略構成図であって、立体物検出装置1が車両Vに搭載される場合の例を示している。図1に示す立体物検出装置1は、自車両Vが走行する走行車線に境界である区分線を介して隣接する隣接車線を走行する立体物(例えば他車両、二輪車等)を検出し、自車両Vの運転者に対して各種情報を提供するものであって、カメラ(撮像手段)10と、車速センサ20と、計算機30とを備えている。なお、以下において走行車線とは、車線変更がない場合において自車両Vが走行可能な走行帯域であって区分線を除く領域である。同様に、隣接車線とは、走行車線に区分線を介して隣接する走行帯域であって区分線を除く領域である。区分線は、走行車線と隣接車線との境界となる白線等のラインである。
 図1に示すカメラ10は、自車両Vの後方における高さhの箇所において、光軸が水平から下向きに角度θとなるように取り付けられている。カメラ10は、この位置から検出領域を撮像するようになっている。車速センサ20は、自車両Vの走行速度を検出するものであって、例えば車輪の回転数を検知するセンサなどが適用される。計算機30は、カメラ10により撮像された画像に基づいて、自車両Vの後側方に存在する立体物(例えば他車両、二輪車等)を検出するものである。
 また、立体物検出装置1は、不図示の警報装置を備えており、計算機30により検出された立体物が自車両Vに接触する可能性がある場合などに、自車両Vの運転者に警告するものである。
 図2は、図1に示した車両の走行状態を示す上面図である。図2に示すようにカメラ10は、自車両Vの後側方、具体的には区分線及び隣接車線を含む領域を撮像可能となっている。自車両Vが走行する走行車線に隣接する隣接車線には他車両等の立体物を検出するための検出領域(所定領域)A1,A2が設定されており、計算機30は検出領域A1,A2内に立体物が存在するか否かを検出する。このような検出領域A1,A2は、自車両Vに対する相対位置から設定されている。
 図3は、図1に示した計算機30の詳細を示すブロック図である。なお、図3においては、接続関係を明確とするためにカメラ10及び車速センサ20についても図示するものとする。
 図3に示すように、計算機30は、視点変換部31と、位置合わせ部(位置合わせ手段)32と、立体物検出部(立体物検出手段)33とを備えている。
 視点変換部31は、カメラ10による撮像にて得られた検出領域A1,A2を含む撮像画像データを入力し、入力した撮像画像データを鳥瞰視される状態の鳥瞰画像データに視点変換するものである。鳥瞰視される状態とは、上空から例えば鉛直下向きに見下ろす仮想カメラの視点から見た状態である。この視点変換は、例えば特開2008-219063号公報に記載さるようにして実行される。
 位置合わせ部32は、視点変換部31の視点変換により得られた鳥瞰画像データを順次入力し、入力した異なる時刻の鳥瞰画像データの位置を合わせるものである。図4は、図3に示した位置合わせ部32の処理の概要を示す上面図であり、(a)は車両Vの移動状態を示し、(b)は位置合わせの概要を示している。
 図4(a)に示すように、現時刻の自車両VがV1に位置し、一時刻前の自車両VがV2に位置しているとする。また、自車両Vの後側方向に他車両Vが位置して自車両Vと並走状態にあり、現時刻の他車両VがV3に位置し、一時刻前の他車両VがV4に位置しているとする。さらに、自車両Vは、一時刻で距籬d移動したものとする。なお、一時刻前とは、現時刻から予め定められた時間(例えば1制御周期)だけ過去の時刻であっても良いし、任意の時間だけ過去の時刻であっても良い。
 このような状態において、現時刻における鳥瞰画像PBは図4(b)に示すようになる。この鳥瞰画像PBでは、路面上に描かれる白線については矩形状となり、比較的正確に上面視された状態となっている。しかし、他車両V3については倒れ込みが発生している。また、一時刻前における鳥瞰画像PBt-1についても同様に、路面上に描かれる白線については矩形状となり、比較的正確に上面視された状態となっているが、他車両V4については倒れ込みが発生している。
 位置合わせ部32は、上記のような鳥瞰画像PB,PBt-1の位置合わせをデータ上で実行する。この際、位置合わせ部32は、一時刻前における鳥瞰画像PBt-1をオフセットさせ、現時刻における鳥瞰画像PBと位置を一致させる。オフセット量d’は、図4(a)に示した移動距離dに対応するだけの量となり、車速センサ20からの信号と一時刻前から現時刻までの時間に基づいて決定される。
 また、位置合わせ後において位置合わせ部32は、鳥瞰画像PB,PBt-1の差分をとり、差分画像PDのデータを生成する。ここで、差分画像PDの画素値は、鳥瞰画像PB,PBt-1の画素値の差を絶対値化したものでもよいし、照度環境の変化に対応するために当該絶対値が所定の値を超えたときに「1」とし、超えないときに「0」としてもよい。
 再度、図3を参照する。さらに、計算機30は横位置検出部(横位置検出手段)34を備えている。横位置検出部34は、カメラ10により撮像された撮像画像データに基づいて、自車両Vの走行車線における自車位置(詳細には自車両Vの側面)と、車線を区分する区分線との車幅方向距離とを検出するものである。この横位置検出部34により、計算機30は走行車線において中央を走行しているか、左右のいずれかに偏って走行しているか等を検出できることとなる。
 さらに、立体物検出部33は、図4に示したような差分画像PDのデータに基づいて立体物を検出するものである。この立体物検出部33は、差分波形生成部(差分波形生成手段)33aと、領域設定部(領域設定手段)33bとを備えている。
 図5は、図3に示した差分波形生成部33aによる差分波形の生成の様子を示す概略図である。図5に示すように、差分波形生成部33aは、差分画像PDのうち検出領域A1,A2に相当する部分から、差分波形DWを生成する。この際、嵳分波形生成部33aは、視点変換により立体物が倒れ込む方向に沿って、差分波形DWを生成する。なお、図5に示す例では、便宜上検出領域A1のみを用いて説明する。
 具体的に説明すると、まず差分波形生成部33aは、差分画像DWのデータ上において立体物が倒れ込む方向上の線Laを定義する。そして、差分波形生成部33aは、線La上において所定の差分を示す差分画素DPの数をカウントする。ここで、所定の差分を示す差分画素DPは、差分画像DWの画素値が鳥瞰画像PB,PBt-1の画素値の差を絶対値化したものである場合、所定の値を超える画素であり、差分画像DWの画素値が「0」「1」で表現されている場合、「1」を示す画素である。
 差分波形生成部33aは、差分画素DPの数をカウントした後、線Laと線L1との交点CPを求める。そして、差分波形生成部33aは、交点CPとカウント数とを対応付け、交点CPの位置に基づいて横軸位置(図5の紙面上下方向軸における位置)を決定し、カウント数から縦軸位置(図5の紙面左右方向軸における位置)を決定する。
 以下同様に、差分波形生成部33aは、立体物が倒れ込む方向上の線を定義して、差分画素DPの数をカウントし、交点CPの位置に基づいて横軸位置を決定し、カウント数(差分画素DPの数)から縦軸位置を決定する。立体物検出部33は、上記を順次繰り返して度数分布化することで差分波形DWを生成する。
 なお、図5に示すように、立体物が倒れ込む方向上の線Laと線Lbとは検出領域A1と重複する距離が異なっている。このため、検出領域A1が差分画素DPで満たされているとすると、線Lb上よりも線La上の方が差分画素DPの数が多くなってしまう。このため、差分波形生成部33aは、差分画素DPのカウント数から縦軸位置を決定する場合、立体物が倒れ込む方向上の線La,Lbと検出領域A1とが重複する距離に基づいて正規化する。具体例を挙げると、図5において線La上の差分画素DPは6つあり、線Lb上の差分画素DPは5つである。このため、図5においてカウント数から縦軸位置を決定するにあたり、差分波形生成部33aは、カウント数を重複距離で除算するなどして正規化する。これにより、差分波形DWに示すように、立体物が倒れ込む方向上の線La,Lbに対応する差分波形DWの値はほぼ同じとなっている。
 上記の如く差分波形DWが生成されると、立体物検出部33は、差分波形DWのデータに基づいて立体物を検出する。この際、移動体検出部34は、まず一時刻前の差分波形DWt-1と今回の差分波形DWとを対応付けることで立体物の推定速度を算出する。例えば、立体物が他車両Vである場合、他車両Vのタイヤ部分において差分画素DPが得られやすいことから、差分波形DWは2つの極大値を有するものとなり易い。このため、一時刻前の差分波形DWt-1と今回の差分波形DWとの極大値間のズレを求めることにより、自車両Vに対する他車両Vの相対速度を求めることができる。これにより、移動体検出部34は、立体物の推定速度を求める。そして、移動体検出部34は、立体物の推定速度が立体物として適切な速度であるかを判断することにより、立体物が立体物であるか否かを判断する。
 また、領域設定部33bは、図2に示した検出領域A1,A2の大きさを設定するものである。この領域設定部33bは、横位置検出部34により検出された区分線との車幅方向距離が長くなるほど、区分線が存在する側に位置する検出領域A1,A2の大きさを車幅方向外側に拡大させる。
 図6は、図1に示した車両の走行状態を示す上面図であって、自車両Vが走行車線上を偏って走行している場合の例を示している。図6に示すように、自車両Vが走行車線上を偏って走行しており、車両左側(運転者からみて左側)の区分線に近接して走行しているとする。
 この場合、図6に示すように、他車両Vが他方の区分線(運転者からみて右側の区分線)から離れて走行しているとすると、運転者からみて右側に存在する検出領域A1内に他車両Vが位置しなくなってしまうことがある。このため、本実施形態において領域設定部33bは、検出領域A1を拡大させて、検出漏れを起こしてしまう事態を防止している。
 図7は、図1に示した車両の走行状態を示す上面図であって、領域設定部33bが検出領域A1を拡大させた場合の例を示している。図7に示すように、検出領域A1は、領域設定部33bにより拡大させられている。これにより、検出領域A1内には他車両Vが位置することとなり、他車両Vの検出漏れを防止することができる。
 図8は、区分線との車幅方向距離Δyと、検出領域A1の大きさ(拡大量Δyfs)との関係を示すグラフである。
 図8に示すように区分線との車幅方向距離Δyが零からy1までの場合、検出領域A1の拡大量は零である。また、車幅方向距離Δyがy1からy2までの場合、車幅方向距離Δyの大きさに応じて検出領域A1の拡大量が大きくなるようになっている。さらに、車幅方向距雜Δyがy2を超えると、検出領域A1の拡大量は、yfs’に固定される。このように、検出領域A1の拡大量がyfs’という特定値に固定される理由は、検出領域A1を無制限に拡大してしまうと隣接車線のみならず、隣々接車線までも検出領域A1内に収まってしまう可能性があるためである。
 なお、図8では、車幅方向距離Δyがy1からy2までの区間において検出領域A1の拡大量が比例的に増加しているが、特に比例増加に限られるものでなく、指数関数的に増加するなどであってもよい。また、図8から明らかなように、区分線との車幅方向距離Δyが短くなると、一度拡大された検出領域A1は、縮小することとなる。
 また、上記では検出領域A1のみを用いて説明したが、検出領域A2についても同様である。ここで、図8に示す例では、車両右側面(運転者からみて右側面)から右側の区分線までの車幅方向距離Δyに基づいて検出領域A1を拡大させたが、検出領域A2の大きさを変化させる場合には、車両左側面(運転者からみて左側面)から左側の区分線までの車幅方向距離Δyに基づいて決定されることはいうまでもない。
 さらに、領域設定部33bは、検出領域A1,A2を急激に変化させない構成となっている。急激に検出領域A1,A2を変化させると、立体物検出が不安定となってしまい、立体物の検出漏れを起としてしまう可能性が高まるからである。
 具体的に領域設定部33bは、検出領域A1,A2を変化させる際の変化量がリミット値(拡大規定値、規定値)を超えないようにする。より詳細に説明すると、領域設定部33bは図8に示すグラフに基づいて検出領域A1,A2の大きさの目標値を求める。そして、領域設定部33bは、リミット値を超えない範囲で検出領域A1,A2の大きさを目標値に順次近づけていく。
 また、検出領域A1,A2を拡大する時のリミット値である拡大リミット値(拡大規定値)は、検出領域A1,A2を縮小する時のリミット値である縮小リミット値(規定値)よりも小さく設定されている。これにより、検出領域A1,A2を縮小するときには、急激に縮小されてしまうことがなく、急激に検出領域A1,A2を縮小することにより他車両Vが検出領域A1,A2から外れてしまい、検出漏れを起こしてしまう事態を防止することができる。
 また、領域設定部33bは、立体物の検出中において、立体物の非検出中よりもリミット値を小さくしている。急激に検出領域A1,A2を縮小することにより検出中の他車両Vが検出領域A1,A2から外れてしまい、検出漏れを起こしてしまう事態を防止するためである。
 次に、本実施形態に係る立体物検出方法を説明する。図9は、本実施形態に係る立体物検出方法を示すフローチャートである。
 図9に示すように、まず横位置検出部34は、自車両Vの側面と区分線との車幅方向距離Δyを検出する(S1)。この際、横位置検出部34は、カメラ10により撮像された画像データに基づいて車幅方向距離Δyを検出する。また、本実施形態において検出領域A1,A2は、自車両Vの左右後方に設定されているため、横位置検出部34は、自車両Vの左右側面と左右の区分線との車幅方向距離Δyをそれぞれ検出する。なお、以下の説明では、説明の便宜上、一方の検出領域A1のみを例に説明するが、他方の検出領域A2についても同様である。
 次いで、領域設定部33bは、検出領域A1の目標値を設定する(S2)。この際、領域設定部33bは、図8を参照して説明したグラフデータをもとに、目標値を設定する。次に、立体物検出部33は、現在立体物検出中であるか否かを判断する(S3)。
 立体物検出中であると判断した場合(S3:YES)、領域設定部33bは、検出領域A1の変化量の上限値となるリミット値を第1リミット値に設定する(S4)。そして、処理はステップS6に移行する。一方、立体物検出中でないと判断した場合(S3:NO)、領域設定部33bは、検出領域A1の変化量の上限値となるリミット値を第2リミット値に設定する(S5)。そして、処理はステップS6に移行する。ここで、第1リミット値は、第2リミット値よりも小さくされている。このため、立体物検出中においては検出領域A1の急激な変化が一層防止されることとなる。
 ステップS6において立体物検出部33は、ステップS2において求められた目標値に基づいて、検出領域A1を縮小するか否かを判断する(S6)。検出領域A1を縮小すると判断した場合(S6:YES)、領域設定部33bは、ステップS4,S5にて設定されたリミット値を低下させる(S7)。これにより、検出領域A1の縮小の際には、一層検出領域A1の急激な変化を抑えることができる。そして、処理はステップS8に移行する。検出領域A1を縮小しないと判断した場合(S6:NO)、すなわち検出領域A1を拡大する場合、領域設定部33bは、ステップS4,S5にて設定されたリミット値を低下させることなく、処理はステップS8に移行する。
 ステップS8において領域設定部33bは、検出領域A1の大きさを変化させる(S8)。この際、領域設定部33bは、上記処理を経て得られたリミット値を超えない範囲で検出領域A1の大きさを拡大又は縮小させる。
 次いで、計算機30は、車速センサ20からの信号に基づいて車速を検出する(S9)。次いで、位置合わせ部32は差分を検出する(S10)。この際、位置合わせ部32は、図4を参照して説明したように差分画像PDのデータを生成する。
 次いで、差分波形生成部33aは、ステップS10において生成された差分画像PDに基づき、図5を参照して説明したようにして差分波形DWを生成する(S11)。そして、立体物検出部33は、一時刻前の差分波形DWt-1と今回の差分波形DWとを対応付けることで、立体物の推定速度を算出する(S12)。
 その後、立体物検出部33は、ステップS12において算出された推定速度が検出対象であるか否かを判断する(S13)。ここで、本実施形態において立体物検出装置1は、車線変更時に接触の可能性がある他車両や二輪車等を検出するものである。このため、立体物検出部33は、ステップS13において推定速度が他車両や二輪車等の速度として適切であるかを判断することとなる。
 推定速度が他車両や二輪車等の速度として適切であると判断した場合(S13:YES)、立体物検出部33は、差分波形DWによって示される立体物が検出対象となる立体物(他車両や二輪車等)であると判断する(S14)。そして、図9に示す処理は終了する。一方、推定速度が他車両や二輪車等の速度として適切でないと判断した場合(S13:NO)、立体物検出部33は、差分波形DWによって示される立体物が検出対象となる立体物でないと判断し、図9に示す処理は終了する。
 このようにして、本実施形態に係る立体物検出装置1及び立体物検出方法によれば、自車位置と区分線との車幅方向距離Δyが長くなるほど、当該区分線が存在する側に位置する検出領域A1,A2を車幅方向外側に拡大させるため、例えば自車両Vが区分線から離れているために、検出領域A1,A2が隣接車両に適切に設定されることなく、他車両等の立体物が検出領域A1,A2から外れて検出漏れしてしまう事態を防止することができる。従って、立体物の検出精度を向上させることができる。
 また、検出領域A1,A2の大きさを拡大リミット値で拡大させ、且つ、拡大した検出領域A1,A2を拡大リミット値よりも小さな縮小リミット値で車幅方向内側に縮小させるため、検出領域A1,A2を縮小する場合には急激に検出領域A1,A2が変化してしまうことを防止でき、一層検出漏れを起こしてしまう事態等を防止することができる。
 また、立体物の検出中において、立体物の非検出中よりもリミット値を小さくさせる。すなわち、拡大リミット値よりも縮小リミット値が小さくされているため、立体物検出中に検出領域A1,A2の大きさを急激に縮小させてしまい、検出領域A1,A2が極端に縮小されて検出漏れを起こしてしまう事態等を防止することができる。
≪第2実施形態≫
 次に、本発明の第2実施形態を説明する。第2実施形態に係る立体物検出装置及び立体物検出方法は、第1実施形態のものと同様であるが、構成及び処理内容が一部異なっている。以下、第1実施形態との相違点を説明する。
 図10は、第2実施形態に係る計算機30の詳細を示すブロック図である。なお、図10においては、接続関係を明確とするためにカメラ10及び車速センサ20についても図示するものとする。
 図10に示すように、第2実施形態に係る計算機30は、車線幅検出部(幅検出手段)35を備えている。車線幅検出部35は、走行車線の車線幅を検出するものである。この車線幅検出部35は、カメラ10により撮像された撮像画像データに基づいて、走行道路の車線幅を検出する。なお、車線幅検出部35は、隣接車線の車線幅を検出し、これを走行車線の車線幅として検出してもよい。基本的に車線幅は道路上で均一だからである。
 ここで、図11を参照して、車線幅が狭い場合の車両走行状態を説明する。図11は、車線幅が狭い場合における車両の走行状態を示す上面図であって、領域設定部33bが検出領域A1を拡大させた場合の例を示している。車線幅が狭い場合、第1実施形態と同様に検出領域A1を拡大させてしまうと、図11に示すように、隣々接車線の他車両Vが検出領域A1に入ってしまう場合がある。そして、このような検出領域A1に基づいて立体物検出を行ってしまうと、立体物検出の精度が低下してしまうこととなる。なお、検出領域A2についても同様である。
 そこで、第2実施形態において領域設定部33bは、車線幅検出部35により検出された車線幅が小さくなるほど、検出領域A1,A2の大きさを車幅方向外側に拡大させる際の拡大量を小さくする。
 図12は、第2実施形態において、区分線との車幅方向距籬Δyと検出領域A1の大きさ(拡大量Δyfs)との関係を示すグラフである。
 図12に示すように、車幅方向距離Δyがy1からy2までの場合、車幅方向距離Δyの大きさに応じて検出領域A1の拡大量が大きくなるようになっているが、その拡大量は図8に示す例よりも小さい。すなわち、第2実施形態に係る領域設定部33bは、検出領域A1,A2を拡大させる際の拡大量を小さくすることにより、検出領域A1が拡大され過ぎないようにする。これにより、検出領域A1が隣々接車線に設定されてしまい、立体物検出の精度が低下してしまうことを防止している。
 なお、第2実施形態では最大値yfs’が図8に示す例よりも小さくされていることが望ましい。これにより、検出領域A1が隣々接車線に設定されてしまうことを一層防止できるからである。
 次に、第2実施形態に係る立体物検出方法を説明する。図13及び図14は、第2実施形態に係る立体物検出方法を示すフローチャートである。
 まず、車線幅検出部35は、カメラ10により撮像された画像データに基づいて、走行車線の車線幅を検出する(S21)。次いで、領域設定部33bは、拡大量を設定する(S22)。すなわち、領域設定部33bは、図12に示すように、車線幅が小さくなるほど車幅方向距離Δyに応じた拡大量を低下させる。なお、この処理において領域設定部33bは、最大値yfs’についても低下させることが望ましい。
 その後、ステップS23~S36において、図9に示したステップS1~S14と同様の処理が実行される。
 このようにして、第2実施形態に係る立体物検出装置2及び立体物検出方法によれば、第1実施形態と同様に、立体物の検出精度を向上させることができ、立体物の検出漏れを起こしてしまう事態等を(一層)防止することができる。また、検出領域A1,A2が極端に縮小されて検出漏れを起こしてしまう事態等を防止することができる。
 また、第2実施形態によれば、走行車線の車線幅が小さくなるほど、検出領域A1,A2の大きさを拡大させる際の拡大量を小さくする。このため、車線幅が小さい場合に検出領域A1,A2が隣接車線でなく隣々接車線に設定されてしまう事態を防止することができる。
≪第3実施形態≫
 次に、本発明の第3実施形態を説明する。第3実施形態に係る立体物検出装置及び立体物検出方法は、第1実施形態のものと同様であるが、構成及び処理内容が一部異なっている。以下、第1実施形態との相違点を説明する。
 図15は、第3実施形態に係る計算機30の詳細を示すブロック図である。なお、図15においては、接続関係を明確とするためにカメラ10及び車速センサ20についても図示するものとする。
 図15に示すように、第3実施形態に係る計算機30は、車線変更検出部(車線変更検出手段)36を備えている。車線変更検出部36は、自車両Vの車線変更を検出するものであり、例えばカメラ10の撮像にて得られた画像データに基づいて、区分線ヘの接近度合いを算出して、自車両Vが車線変更するか否かを判断するものである。なお、車線変更検出部36は、上記に限らず、操舵量から車線変更を判断してもよいし、他の方法から判断してもよい。
 具体的に車線変更検出部36は、自車両Vの側面が区分線から所定距離(例えば10cm)以内に進入した場合に自車両Vが車線変更すると検出する。また、車線変更検出部36は、自車両Vの側面が区分線から所定距離以内に進入したものの、再度所定距離以上離れた場合、車線変更しないものと検出してもよい。さらに車線変更検出部36は、車線変更した後に区分線から所定距離以上離れた場合(すなわち車線変更により区分線を越えた後に区分線から所定距離以上離れた場合)、車線変更を完了したと判断してもよい。
 ここで、図16を参照して、車線変更時の様子を説明する。図16は、車線変更時における車両の走行状態を示す上面図である。図16に示すように、自車両Vが車線中央に位置し(符号Va参照)、その後車線変更を行って位置Vbに到達したとする。このとき、一時的に自車両Vの側面と区分線との車幅方向距離Δyが長くなってしまう。このため、検出領域A1が拡大されてしまい、隣々接車線の他車両Vが検出領域A1内に入ってしまう可能性がある。そして、このような場合、立体物検出の精度が低下してしまう。
 そこで、第3実施形態において領域設定部33bは、車線変更検出部36により自車両Vの車線変更が検出された場合、一定時間の間、検出領域A1,A2の大きさを拡大させる際の拡大量を小さくする。すなわち、領域設定部33bは、車線変更検出部36により自車両Vの車線変更が検出された場合、一定時間の間、図16に示す自車両Vの側面と区分線との車幅方向距離Δyに対する検出領域A1,A2の拡大量Δyfsを小さくする。具体的には、領域設定部33bは、図17に示すように、自車両Vの車線変更が検出された後の一定時間の間は、車線変更前と比べて、自車両Vの側面と区分線との車幅方向距離Δyに対する検出領域A1,A2の拡大量Δyfsを小さくする。これにより、車線変更時に一時的に検出領域A1,A2が拡大され過ぎてしまう事態を防止することができる。なお、図17は、第3実施形態において、車幅方向距籬と検出領域の大きさ(拡大量Δyfs)との関係を示すグラフである。
 次に、第3実施形態に係る立体物検出方法を説明する。図18及び図19は、第3実施形態に係る立体物検出方法を示すフローチャートである。
 まず、車線変更検出部36は、カメラ10により撮像された画像データに基づいて、区分線ヘの接近度合いを算出して、自車両Vが車線変更するか否かを判断する(S41)。自車両Vが車線変更しないと判断した場合(S41:NO)、処理はステップS43に移行する。一方、自車両Vが車線変更すると判断した場合(S41:YES)、領域設定部33bは、拡大量を設定する(S42)。すなわち、領域設定部33bは、図17に示すように、車幅方向距離Δyに応じた拡大量を低下させる。なお、この処理において領域設定部33bは、最大値yfs’についても低下させることが望ましい。
 その後、ステップS43~S56において、図9に示したステップS1~S14と同様の処理が実行される。
 このようにして、第3実施形態に係る立体物検出装置3及び立体物検出方法によれば、第1実施形態と同様に、立体物の検出精度を向上させることができ、立体物の検出漏れを起こしてしまう事態等を(一層)防止することができる。また、検出領域A1,A2が極端に縮小されて検出漏れを起こしてしまう事態等を防止することができる。
 また、第3実施形態によれば、自車両Vの車線変更が検出された場合、検出領域A1,A2の大きさを拡大させる際の拡大量を小さくする。このため、車線変更中に一時的に区分線に寄った状態において検出領域A1,A2が隣接車線でなく隣々接車線に設定されてしまう事態を防止することができる。
≪第4実施形態≫
 次に、本発明の第4実施形態を説明する。第4実施形態に係る立体物検出装置及び立体物検出方法は、第1実施形態のものと同様であるが、構成及び処理内容が一部異なっている。以下、第1実施形態との相違点を説明する。
 図20は、第4実施形態に係る計算機30の詳細を示すブロック図である。なお、図20においては、接続関係を明確とするためにカメラ10及び車速センサ20についても図示するものとする。
 図20に示すように、第4実施形態に係る計算機30は、接地線検出部37を備えている。接地線検出部37は、隣接車線を走行する他車両Vのタイヤが接地する位置(車幅方向における位置)を接地線として検出する。以下に、図21および図22を用いて、詳細を説明する。なお、図21および図22は、接地線検出部37による接地線の検出方法を説明するための図である。
 まず、接地線検出部37は、検出領域A1,A2に対して、自車両Vの進行方向と略平行な複数の線L~Lをそれぞれ異なる位置に設定する。たとえば、図21に示す例において、接地線検出部37は、4本の略平行な線を設定する。なお、以下の説明において4本の略平行な線L~Lを例に説明するが、これに限らず、平行な線は2本又は3本であってもよいし、 5本以上であってもよい。
 そして、接地線検出部37は、設定した線L~Lについて、差分波形生成部33aに差分波形DWを生成させる。すなわち、接地線検出部37は、差分波形生成部33aに、差分画素DPの数をカウントさせた後、差分画像DWのデータ上において立体物が倒れ込む方向上の線Laと各線L~Lとの交点CPを求め、該交点CPとカウント数とを対応付けさせることで、各線L~L毎に差分波形DWを生成させる。これにより、接地線検出部37は、図21(b)に示すように、複数の差分波形を得ることができる。なお、図21(b)において、差分波形DWt1は略平行な線Lに基づくものであり、差分波形DWt2は略平行な線Lに基づくものであり、差分波形DWt3は略平行な線Lに基づくものであり、差分波形DWt4は略平行な線Lに基づくものである。
 ここで、複数の差分波形DWt1~DWt4を参照すると、自車両Vに近い略平行な線Lに基づく差分波形DWt3の方が、自車両Vから遠い略平行な線L,Lに基づく差分波形DWt1,DWt2よりも度数が増加する傾向にある。これは、他車両Vが立体物であるため、差分画像PD上において他車両Vが必ず無限遠に伸びるためである。ところが、差分波形DWt3と差分波形DWt4とは度数が同じとなっている。これは、略平行な線L,Lの双方が差分画像PD上において他車両Vと重なっていないためである。すなわち、略平行な線Lと線Lとの問に差分画素DPが入っていないためである。
 接地線検出部37は、上記のような複数の差分波形DWt1~DWt4の形状変化から、他車両Vの接地線Lを判断する。図21(b)に示す例の場合、接地線検出部37は、略平行な線Lを接地線Lと判断する。具体的には、図22に示す面積の増加率から接地線Lを判断する。図22は、図21(b)に示した複数の差分波形DWt1~DWt4の面積の増加率を示すグラフである。図22に示すように、接地線検出部37は、算出された面積のうち最も遠い略平行な線から最も近い略平行な線ヘ向かって面積の増加率を参照する。ここで、差分波形DWt2の面積は差分波形DWt1の面積に対して一定の増加率を示し、差分波形DWt3の面積は差分波形DWt2の面積に対して一定の増加率を示している。これに対して、差分波形DWt4の面積と差分波形DWt3との面積とは同じとなっており、増加率は所定値以下となっている。これは、上記したように、略平行な線Lと線Lとの間に差分画素DPが入っていないためである。すなわち、略平行な線Lと線Lとの間には立体物(たとえば隣接車両のタイヤ)が存在しないと推定できる。よって、接地線検出部37は、略平行な線L3を他車両Vの接地線Lとして検出する。
 図20に戻り、第4実施形態に係る領域設定部33bは、第1実施形態と同様に、自車両Vの側面と区分線との車幅方向距離Δyに基づいて、検出領域A1,A2の大きさを拡大させるとともに、第4実施形態ではさらに、接地線検出部37により検出された他車両Vの接地線Lに基づいて、検出領域A1,A2を車幅方向外側に拡大させる際の拡大量Δyfsを変化させる。具体的には、領域設定部33bは、図23に示すように、自車両V1の側面から他車両Vの接地線Lまでの車幅方向の距離が短いほど、検出領域A1,A2の大きさを拡大させる際の拡大量Δyfsを小さくする。
 このようにして、第4実施形態に係る立体物検出装置4及び立体物検出方法によれば、第1実施形態と同様に、立体物の検出精度を向上させることができ、立体物の検出漏れを起こしてしまう事態等を(一層)防止することができる。また、検出領域A1,A2が極端に縮小されて検出漏れを起こしてしまう事態等を防止することができる。
 また、第4実施形態によれば、隣接車線を走行する他車両Vの接地線Lを検出し、自車両Vの側面から接地線Lまでの距離が短いほど、検出領域A1,A2の大きさを拡大させる際の変化量Δyfsを小さくする。これにより、第4実施形態では、自車両Vの側面から隣接車両までの車幅方向における距離が短く、検出領域A1,A2の大きさを拡大させる拡大量を抑えても、隣接車線で他車両Vを適切に検出できるような場合には、検出領域A1,A2の大きさを拡大させる際の変化量Δyfsを抑えることで、検出領域A1,A2が隣々接車線や路外に設定されてしまい、隣々接車線を走行する他車両や路外の草などを隣接車両として誤検出してしまうことを有効に防止することができる。
≪第5実施形態≫
 次に、本発明の第5実施形態を説明する。第5実施形態に係る立体物検出装置及び立体物検出方法は、第1実施形態のものと同様であるが、構成及び処理内容が一部異なっている。以下、第1実施形態との相違点を説明する。
 図24は、第5実施形態に係る計算機30の詳細を示すブロック図である。なお、図24においては、接続関係を明確とするためにカメラ10及び車速センサ20についても図示するものとする。
 図24に示すように、第5実施形態に係る計算機30は、旋回状態検出部(旋回状態検出手段)38を備えている。旋回状態検出部38は、車速センサ20により検出された自車速や、図示しない操舵角センサにより検出された操舵量に基づいて、自車両Vが旋回している状態であるか否かを判定し、さらに、自車両Vが旋回している状態である場合には、自車両Vの旋回半径を検出する。なお、旋回状態検出部38による旋回状態の検出方法は、特に限定されず、たとえば、横方向の加速度センサによる検出結果に基づいて、自車両V1の旋回状態を検出してもよいし、あるいは、カメラ10で撮像した撮像画像に基づいて道路形状を予測することで、自車両V1の旋回状態を検出してもよい。また、ナビゲーションシステム等の地図情報や自車両Vの現在位置情報に応じて、自車両Vが走行している道路を特定することで、自車両V1の旋回状態を検出してもよい。
 第5実施形態に係る領域設定部33bは、第1実施形態と同様に、自車両Vの側面と区分線との車幅方向距離Δyに基づいて、検出領域A1,A2の大きさを拡大させるとともに、第5実施形態ではさらに、旋回状態検出部38により自車両Vが旋回している状態であると判定された場合に、自車両Vの旋回半径に応じて、検出領域A1,A2の大きさを拡大させる際の拡大量Δyfsを変化させる。具体的には、領域設定部33bは、自車両Vの旋回半径が小さいほど、検出領域A1,A2の拡大量Δyfsを小さくする。
 ここで、図25は、車両旋回時における車両の走行状態を示す上面図であって、領域設定部33bが検出領域A1を拡大させた場合の例を示している。図25に示すように、自車両Vがカーブなどを旋回している場面では、自車両Vの旋回半径が小さいほど、旋回方向外側の検出領域A1,A2が隣々接車線内に設定され易く、第1実施形態と同様に検出領域A1を車幅方向外側に拡大させてしまうと、隣々接車線の他車両Vが検出領域A1に入ってしまい、このような他車両Vを隣接車両として誤検出してしまう場合がある。
 そこで、領域設定部33bは、旋回状態検出部38により自車両Vが旋回していると判定された場合に、図26に示すように、自車両Vの旋回半径が小さいほど、車幅方向距離Δyに対する検出領域A1,A2の拡大量Δyfsを小さくする。これにより、自車両Vがカーブを旋回している場合でも、検出領域A1,A2が隣々接車線内に設定されることを抑制することができ、その結果、隣々接車線の他車両Vを隣接車両として誤検出してしまうことを有効に防止することができる。
 また、第5実施形態において領域設定部33bは、上記の構成に加えて、第2実施形態で記載したように、自車両の走行車線の車線幅に基づいて、検出領域A1,A2の拡大量Δyfsを小さくする構成を採用することもできる。この場合、領域設定部33bは、旋回半径に基づいて決定された検出領域A1,A2の拡大量Δyfsと、車線幅に基づいて決定された検出領域A1,A2の拡大量Δyfsとを比較し、小さい方の拡大量Δyfsを選択して、検出領域A1,A2の大きさを車幅方向外側に拡大させることができる。
 このようにして、第5実施形態に係る立体物検出装置5及び立体物検出方法によれば、第1実施形態と同様に、立体物の検出精度を向上させることができ、立体物の検出漏れを起こしてしまう事態等を(一層)防止することができる。また、検出領域A1,A2が極端に縮小されて検出漏れを起こしてしまう事態等を防止することができる。
 また、第5実施形態では、旋回状態検出部38により自車両Vが旋回していると判定された場合に、図26に示すように、自車両Vの旋回半径が小さいほど、車幅方向距離Δyに対する検出領域A1,A2の拡大量Δyfsを小さくすることで、図25に示すように、自車両Vがカーブを旋回している場合でも、検出領域A1,A2が隣々接車線内に設定されることを抑制することができ、その結果、隣々接車線の他車両Vを隣接車両として誤検出してしまうことを有効に防止することができる。
 さらに、第5実施形態によれば、自車両Vが車線変更を行う際に、自車両Vの旋回状態に基づいて、検出領域A1,A2の拡大量Δyfsを抑制することもできる。たとえば、自車両V1が直線道路を走行している際に、自車両Vが旋回していることを検出した場合には、その旋回半径が小さいほど、自車両Vが車線変更を行う可能性が高いものと判断できる。そこで、自車両Vの旋回半径が小さいほど、自車両Vが車線変更を行う可能性が高いものと判断し、検出領域A1,A2の拡大量Δyfsを小さくすることで、車線変更時に、検出領域A1,A2が隣々接車線に設定されてしまい、隣々接車線を走行する他車両を隣接車両として誤検出してしまうことを有効に防止することもできる。
≪第6実施形態≫
 次に、本発明の第6実施形態を説明する。第6実施形態に係る立体物検出装置及び立体物検出方法は、第1実施形態のものと同様であるが、処理内容が一部異なっている。以下、第1実施形態との相違点を説明する。
 図27は、第6実施形態における車両の走行状態を示す上面図であって、領域設定部33bが検出領域A1を拡大させた場合の例を示している。第6実施形態において、領域設定部33bは、自車両Vの側面と区分線との車幅方向距離Δyに基づいて、検出領域A1,A2を車幅方向外側にシフトさせるとともに、自車両Vの側面と区分線との車幅方向距離Δyに基づいて、検出領域A1,A2を車幅方向外側に拡大させる。以下に、詳細を説明する。
 ここで、図28(A)は、区分線との車幅方向距離Δyと、検出領域A1,A2を車幅方向外側にシフトさせる際の移動量(シフト量Δyfs1)との関係を示すグラフであり、図28(B)は、区分線との車幅方向距離Δyと、検出領域A1,A2を車幅方向外側に拡大させる際の拡大量(拡大量Δyfs2)との関係を示すグラフである。
 具体的には、領域設定部33bは、図28(A)に示すように、自車両V1の側面と区分線との車幅方向距離Δyがy未満である場合には、検出領域A1,A2をそのまま変更せず、車幅方向距離Δyがy以上でありy未満である場合には、車幅方向距離Δyに応じて、検出領域A1,A2を車幅方向外側にシフトさせる。なお、図28(B)に示すように、自車両V1の側面と区分線との車幅方向距離Δyがy以上でありy未満である場合には、検出領域A1,A2の車幅方向外側への拡大は行われない。
 また、領域設定部33bは、車幅方向距離Δyがy以上である場合には、図28(A)に示すように、検出領域A1,A2を所定のシフト量Δyfs1’だけ車幅方向外側にシフトさせるとともに、検出領域A1,A2を車幅方向外側に拡大させる。具体的には、車幅方向距離Δyがy以上でありy未満である場合には、図28(B)に示すように、車幅方向距離Δyに応じて、検出領域A1,A2を車幅方向外側に拡大させ、車幅方向距離Δyがy以上である場合には、検出領域A1,A2を所定の拡大量Δyfs2’だけ車幅方向外側に拡大させる。
 これにより、たとえば、自車両Vが区分線から離れる場面において、領域設定部33bは、自車両Vの側面と区分線との車幅方向距離Δyがy以上となった場合に、車幅方向距離Δyに応じて、検出領域A1,A2を車幅方向外側にシフトさせていき、その後、車幅方向距離Δyがy以上となった場合に、検出領域A1,A2の車幅方向外側へのシフトを停止し、代わりに、検出領域A1,A2を車幅方向外側に拡大させることとなる。そして、領域設定部33bは、車幅方向距離Δyがyになるまで、車幅方向距離Δyに応じて、検出領域A1,A2を車幅方向外側に拡大させていき、車幅方向距離Δyがyになった時点で、検出領域A1,A2の車幅方向外側への拡大も停止することとなる。
 一方、自車両Vが区分線に近づく場面では、領域設定部33bは、車幅方向距離Δyがy未満となった場合には、拡大している検出領域A1,A2の大きさを車幅方向内側に狭めていき、その後、車幅方向距離Δyがy未満となった場合に、検出領域A1,A2の車幅方向内側への縮小を停止し、代わりに、車幅方向距離Δyに応じて、検出領域A1,A2を車幅方向内側にシフトさせることとなる。そして、領域設定部33bは、車幅方向距離Δyがy未満となった場合に、検出領域A1,A2の車幅方向内側へのシフトも停止することとなる。
 さらに、第6実施形態において、領域設定部33bは、検出領域A1,A2のシフト量Δyfs1、拡大量Δyfs2のそれぞれについて、自車両Vの車線変更時、立体物の検知時、通常時(自車両Vが直進、かつ、立体物の非検出時)のそれぞれの状況に応じた変化量のリミット値(拡大規定値、規定値)を有している。そして、領域設定部33bは、各状況に応じたΔyfs1,Δyfs2のリミット値を越えない範囲で、検出領域A1,A2を車幅方向外側に徐々にシフトさせ、検出領域A1,A2の大きさを車幅方向外側に徐々に拡大させる。なお、自車両の旋回状態や走行車線の車線幅にかかわらず、上述した状況ごとのリミット値が適用されることとなる。
 このようにして、第6実施形態に係る立体物検出装置6及び立体物検出方法によれば、第1実施形態と同様に、立体物の検出精度を向上させることができ、立体物の検出漏れを起こしてしまう事態等を(一層)防止することができる。また、検出領域A1,A2が極端に縮小されて検出漏れを起こしてしまう事態等を防止することができる。
 また、第6実施形態によれば、自車両Vの側面と区分線との車幅方向距離Δyに基づいて、検出領域A1,A2を車幅方向外側にシフトさせ、その後、車幅方向距離Δyが所定値以上となり、検出領域A1,A2のシフト量が所定量となった場合に、検出領域A1,A2のシフトに代えて、検出領域A1,A2を車幅方向外側に拡大させることで、以下の効果を奏することができる。
 すなわち、検出領域A1,A2において隣接車線を走行する立体物(他車両など)を検出する場合、検出領域A1,A2のうち車幅方向外側に位置する領域ほど、実際の移動速度よりも立体物の移動速度が速い速度で算出される傾向にあり、また、検出領域A1,A2のうち車幅方向内側に位置する領域ほど、実際の移動速度よりも立体物の移動速度が遅い速度で算出される傾向にある。そのため、車幅方向距離Δyに基づいて、検出領域A1,A2を車幅方向外側に拡大させ過ぎてしまうと、検出領域A1,A2における立体物の検出位置に応じて、検出される立体物の移動速度にバラツキが生じてしまい、立体物の検出精度が低下してしまう場合がある。これに対して、本実施形態では、自車両Vが区分線から離れた場合に、自車両Vの側面と区分線との車幅方向距離Δyに基づいて、検出領域A1,A2を車幅方向外側にシフトさせることで、このような立体物の移動速度の検出結果のバラツキを抑え、立体物(隣接車両)を適切に検出することが可能となる。
 また、検出領域A1,A2を車幅方向外側にシフトさせ過ぎてしまうと、車幅方向において自車両V1に近い位置を走行する二輪車などが検出領域A1,A2に入らず、このような二輪車を検出できない場合がある。しかし、本実施形態では、検出領域A1,A2を車幅方向外側にシフトさせるシフト量が所定量以上となった場合には、検出領域A1,A2のシフトに代えて、検出領域A1,A2を車幅方向外側に拡大させることで、このような問題も有効に解決することができる。
≪第7実施形態≫
 次に、本発明の第7実施形態を説明する。第7実施形態に係る立体物検出装置及び立体物検出方法は、第1実施形態のものと同様であるが、構成及び処理内容が一部異なっている。以下、第1実施形態との相違点を説明する。
 図29は、第7実施形態に係る計算機30の詳細を示すブロック図である。なお、図29においては、接続関係を明確とするためにカメラ10及び車速センサ20についても図示するものとする。
 図29に示すように、第7実施形態に係る計算機30は、異物検出部(異物検出手段)39を備えている。異物検出部39は、カメラ10により撮像された撮像画像に基づいて、レンズに付着する雨滴や水垢などの異物を検出するものである。たとえば、異物検出部39は、赤外光をレンズに向けて照射し、照射した赤外光が雨滴により減衰した減衰量を検出することで、レンズに付着した雨滴の量を検出する雨滴センサや、ワイパーの動作強度を検出することで、レンズ付着した雨滴の量を検出するものであり、検出した雨滴の量を領域設定部33bに出力する。
 また、異物検出部39は、雨滴を検出するものに限定されず、たとえば、レンズに付着した水垢や泥を検出するものであってもよい。たとえば、異物検出部39は、撮像画像から被写体のエッジを抽出し、抽出したエッジの特性から、画像の鮮明さを判断することで、レンズに水垢などが付着しており、レンズが白濁している(レンズ表面に白色の薄膜が形成されている)度合いを判断し、これにより、レンズに付着する異物の量を検出してもよい。あるいは、異物検出部39は、一定時間にわたり、撮像画像のうち同じ領域で同様の強度のエッジが検出された場合に、該領域に異物が付着していると判断して、レンズに付着する異物の量を検出してもよい。
 第7実施形態に係る領域設定部33bは、第1実施形態と同様に、自車両Vの側面と区分線との車幅方向距離Δyに基づいて、検出領域A1,A2を車幅方向外側に拡大させるとともに、第7実施形態ではさらに、異物検出部39により検出された異物の量に基づいて、検出領域A1,A2を拡大させる際の拡大量Δyfsを変化させる。具体的には、領域設定部33bは、レンズに付着した異物の量が多いほど、検出領域A1,A2を拡大する際の拡大量Δyfsを小さくする。
 ここで、図30は、レンズに付着した異物の量と検出領域A1,A2の大きさ(拡大量Δyfs)との関係を示す図である。領域設定部33bは、図30に示すように、レンズに付着した異物の量が多くなるほど、検出領域A1,A2を拡大する際の拡大量Δyfsを小さくする。具体的には、領域設定部33bは、レンズに付着した異物の量がq未満である場合には、検出領域A1,A2の拡大量Δyfsを、車幅方向距離Δyに基づいて決定された初期の拡大量のままとし、レンズに付着した異物の量がq以上であり、かつ、q未満である場合には、レンズに付着した異物の量が多くなるほど検出領域A1,A2の拡大量Δyfsを小さくし、レンズに付着した異物の量がqを超える場合には、検出領域A1,A2の拡大量を、最も小さい所定値Δyfs’’に設定する。
 このようにして、第7実施形態に係る立体物検出装置7及び立体物検出方法によれば、第1実施形態と同様に、立体物の検出精度を向上させることができ、立体物の検出漏れを起こしてしまう事態等を(一層)防止することができる。また、検出領域A1,A2が極端に縮小されて検出漏れを起こしてしまう事態等を防止することができる。
 また、第7実施形態によれば、カメラ10のレンズに付着した異物の量を検出し、異物の量が多いほど、検出領域A1,A2の拡大量Δyfsを小さくする。ここで、レンズに付着した異物の量が多いほど、被写体からの光束の一部が異物により遮られたり、乱反射してしまい、その結果、カメラ10で撮像される区分線の像が歪んだり、ぼやけてしまい、区分線の検出精度が低下してしまう場合がある。そのため、本実施形態では、レンズに付着した異物の量が多い場合には、検出領域A1,A2の拡大量Δyfsを小さくすることで、車両Vの側面と区分線との車幅方向距離Δyの検出誤差により、検出領域A1,A2の拡大量が大きくなり過ぎてしまい、隣々接車線を走行する他車両や路外の草などが隣接車両として誤検出されてしまうことを有効に防止することができる。
≪第8実施形態≫
 次に、本発明の第8実施形態を説明する。第8実施形態に係る立体物検出装置及び立体物検出方法は、第1実施形態のものと同様であるが、構成及び処理内容が一部異なっている。以下、第1実施形態との相違点を説明する。
 図31は、第8実施形態に係る計算機30の詳細を示すブロック図である。なお、図31においては、接続関係を明確とするためにカメラ10及び車速センサ20についても図示するものとする。
 図31に示すように、第8実施形態に係る計算機30は、区分線種別特定部(区分線種別特定手段)40を備えている。区分線種別特定部40は、カメラ10により撮像された撮像画像に基づいて、区分線の種別を特定するものである。なお、区分線の種別の特定方法は、特に限定されないが、たとえば、区分線種別特定部40は、カメラ10で撮像された区分線に対して、パターンマッチングを行うことで、区分線の種別を特定することができる。あるいは、区分線種別特定部40は、ナビゲーションシステム等の地図情報や自車両Vの現在位置情報に応じて、自車両Vが走行する道路(車線)を特定することで、地図情報から、区分線の種別を特定することができる。
 第8実施形態に係る領域設定部33bは、第1実施形態と同様に、自車両Vの側面と区分線との車幅方向距離Δyに基づいて、検出領域A1,A2を車幅方向外側に拡大させるとともに、第8実施形態ではさらに、区分線種別特定部40により特定された区分線の種別に基づいて、検出領域A1,A2を拡大させる際の拡大量Δyfsを変化させる。
 ここで、図32は、区分線の種別と検出領域A1,A2の大きさとの関係を示す図である。領域設定部33bは、特定された区分線が、自車両Vの走行車線と隣接車線とを区分する区分線である可能性が低いほど、検出領域A1,A2の拡大量Δyfsを小さくする。たとえば、図32に示す例において、領域設定部33bは、区分線の種別として、破線の白線、実線の白線、黄色線、および、多重線の4種類の区分線をそれぞれ特定可能であるものとする。この場合に、領域設定部33bは、区分線が破線の白線である場合には、これら4種類の区分線のうち、自車両Vの走行車線に隣接する領域が隣接車線である可能性が最も高いものと判断し、これら4種類の区分線のうち、検出領域A1,A2の拡大量Δyfsを最も大きくする。また、領域設定部33bは、区分線が実線の白線である場合には、自車両Vの走行車線の隣が隣接車線である可能性があるものと判断し、破線の白線よりは小さいが、他の区分線よりも検出領域A1,A2の拡大量Δyfsが大きくなるように、拡大量Δyfsを設定する。一方、領域設定部33bは、区分線が黄色線である場合には、自車両Vの走行車線の隣が隣接車線である可能性が低いものと判断し、検出領域A1,A2の拡大量Δyfsを小さくし、区分線が多重線である場合には、自車両Vの走行車線の隣が隣接車線である可能性が最も低いものと判断し、これら4つの区分線の種別の中で、検出領域A1,A2の拡大量Δyfsを最も小さくする。
 このようにして、第8実施形態に係る立体物検出装置8及び立体物検出方法によれば、第1実施形態と同様に、立体物の検出精度を向上させることができ、立体物の検出漏れを起こしてしまう事態等を(一層)防止することができる。また、検出領域A1,A2が極端に縮小されて検出漏れを起こしてしまう事態等を防止することができる。
 また、第8実施形態によれば、区分線の種別を特定し、特定した区分線の種別に基づいて、検出領域A1,A2の拡大量Δyfsを異ならせる。たとえば、区分線の種別が黄色線や多重線である場合には、自車両Vの走行車両の隣は路肩、路外、あるいは、対向車線の可能性があり、このような場合に、検出領域A1,A2の拡大してしまうと、路外の草やノイズなどの検出をしてしまう可能性が増加し、立体物(他車両など)の検出精度が低下してしまう。本実施形態では、たとえば、区分線の種別が黄色線や多重線である場合には、検出領域A1,A2の拡大を抑制することで、路外の草やノイズなどの検出を有効に抑制することができる。一方、区分線の種別が破線の白線や実線の白線である場合には、自車両Vの走行車両の隣は隣接車両の可能性があり、このような場合に、車幅方向距離Δyに応じて検出領域A1,A2を適切に拡大させることで、隣接車線の立体物(他車両V)を適切に検出することができる。
 以上、実施形態に基づき本発明を説明したが、本発明は上記実施形態に限られるもので
は無く、本発明の趣旨を逸脱しない範囲で、変更を加えてもよいし、各実施形態を組み合
わせてもよい。
 たとえば、上述した第3実施形態では、車線変更検出部36により自車両Vの車線変更が検出された場合に、一定時間の間、検出領域A1,A2の大きさを拡大させる際の拡大量Δyfsを小さくする構成を例示したが、この構成に加えて、自車両Vの車線変更が検出された場合に、自車両Vの車幅方向への移動速度を算出し、自車両Vの車幅方向への移動速度が速いほど、検出領域A1,A2の大きさを拡大させる際の拡大量Δyfsを小さくする構成とすることができる。この場合、自車両Vの車幅方向への移動速度が速いほど、自車両Vが車線変更する可能性が高いものと判断することができるため、自車両Vの車幅方向への移動速度が速いほど、検出領域A1,A2の拡大量Δyfsを小さくすることで、自車両Vの車線変更によって、検出領域A1,A2が拡大され過ぎてしまい、検出領域A1,A2が隣々接車線内に設定されてしまうことを有効に防止することができる。なお、自車両Vの車幅方向への移動速度の算出方法は、特に限定されず、たとえば、領域設定部33bは、横位置検出部34により検出された自車両Vの側面から区分線までの車幅方向距離Δyの時間変化に基づいて、あるいは、図示しない横加速度センサを用いることで、自車両Vの車幅方向への移動速度を算出することができる。
 また、上述した第6実施形態では、自車両Vの側面から区分線までの車幅方向距離Δyに基づいて、検出領域A1,A2を車幅方向外側にシフトさせた後に、検出領域A1,A2の大きさを車幅方向外側に拡大させる構成を例示したが、この構成に限定されず、たとえば、検出領域A1,A2を車幅方向外側にシフトさせながら、同時に、検出領域A1,A2の大きさを車幅方向外側に拡大させる構成としてもよい。
 さらに、上記した実施形態では、自車両Vの車速を速度センサ20からの信号に基づいて判断しているが、これに限らず、異なる時刻の複数の画像から速度を推定するようにしてもよい。この場合、車速センサが不要となり、構成の簡素化を図ることができる。また、車両挙動についても画像のみから判断するようにしてもよい。
 加えて、上記実施形態では、撮像した現時刻の画像と一時刻前の画像とを鳥瞰図に変換し、変換した鳥瞰図の位置合わせを行ったうえで差分画像PDを生成し、生成した差分画像PDを倒れ込み方向(撮像した画像を鳥瞰図に変換した際の立体物の倒れ込み方向)に沿って評価して差分波形DWを生成しているが、これに限定されない。例えば、一時刻前の画像のみを鳥瞰図に変換し、変換した鳥瞰図を位置合わせした後に再び撮像した画像相当に変換し、この画像と現時刻の画像とで差分画像を生成し、生成した差分画像を倒れ込み方向に相当する方向(すなわち、倒れ込み方向を撮像画像上の方向に変換した方向)に沿って評価することによって差分波形DWを生成しても良い。すなわち、現時刻の画像と一時刻前の画像との位置合わせを行い、位置合わせを行った両画像の差分から差分画像PDを生成し、差分画像PDを鳥瞰図に変換した際の立体物の倒れ込み方向に沿って評価できれば、必ずしも鳥瞰図を生成しなくとも良い。
 また、本実施形態に係る立体物検出装置1~3は、差分波形DWに基づいて、立体物を検出しているが、これに限らず、例えば、オプティカルフローを用いたり、画像テンプレートを用いたりして、立体物を検出するようにしてもよい。さらには、差分波形DWに限らず、差分画像PDを用いて立体物を検出するようにしてもよい。さらに、検出領域A1,A2の大きさを拡大させる際に、本実施形態では検出領域A1,A2の大きさそのものを変更しているが、これに限らず、検出領域A1,A2とは別の拡大領域を設定してもよい。
 さらに、本実施形態における位置合わせ部32は、異なる時刻の鳥瞰視画像の位置を鳥瞰視上で位置合わせするものであるが、この「位置合わせ」処理は、検出対象の種別や要求される検出精度に応じた精度で行うことができる。たとえば、同一時刻および同一位置を基準に厳密な位置合わせを行う構成としてもよいし、各鳥瞰視画像の座標を把握するという程度の緩い位置合わせを行う構成としてもよい。
1~3…移動距航検出装置
10…カメラ(撮像手段)
20…一車速センサ
30…計算機
31…視点変換部
32…位置合わせ部
33…一立体物検出部(立体物検出手段)
33a…差分波形生成部
33b…領域設定部(領域設定手段)
34…横位置検出部(横位置検出手段)
35…車線幅検出部(幅検出手段)
36…車線変更検出部(車線変更検出手段)
37…接地線検出部(接地線検出手段)
38…旋回状態検出部(旋回状態検出手段)
39…異物検出部(異物検出手段)
40…区分線種別特定部(区分線種別特定手段)
a…画角
A1,A2…検出領域
CP…交点
DP…差分画素
DW,DW’ …差分波形
La,Lb…立体物が倒れ込む方向上の線
PB…鳥瞰画像
PD…差分画像
V…自車両、他車両
Δy…車幅方向距離

Claims (12)

  1.  自車両が走行する走行車線に境界である区分線を介して隣接する隣接車線を走行する立体物を検出する立体物検出装置であって、
     自車両に搭載され、前記区分線及び前記隣接車線の所定領域を含んで撮像する撮像手段と、
     前記撮像手段により撮像された所定領域内に立体物が存在するか否かを判断する立体物判断手段と、
     前記撮像手段が撮像した画像から、自車両の走行車線における自車位置と、前記区分線との車幅方向距離を検出する横位置検出手段と、
     前記横位置検出手段により検出された区分線との車幅方向距離が長くなるほど、当該区分線が存在する側に位置する前記所定領域の大きさを車幅方向外側に拡大させる領域設定手段と、
     自車両の車線変更を検出する車線変更検出手段と、を備え、
     前記領域設定手段は、前記車線変更検出手段により自車両の車線変更が検出された場合に、前記所定領域の大きさを車幅方向外側に拡大させる際の拡大量を小さくすることを特徴とする立体物検出装置。
  2.  前記領域設定手段は、前記車線変更検出手段により自車両の車線変更が検出された場合に、自車両の車幅方向への移動速度を算出し、該車幅方向への移動速度が速いほど、前記所定領域の大きさを車幅方向外側に拡大させる際の拡大量を小さくすることを特徴とする請求項1に記載の立体物検出装置。
  3.  自車両の走行車線または前記隣接車線の車線幅を検出する幅検出手段をさらに備え、
     前記領域設定手段は、前記幅検出手段により検出された前記車線幅が小さくなるほど、前記所定領域の大きさを車幅方向外側に拡大させる際の拡大量を小さくすることを特徴とする請求項1または2に記載の立体物検出装置。
  4.  前記領域設定手段は、前記所定領域の大きさを拡大させる際には、前記所定領域を所定の拡大規定値ずつ複数回の処理により拡大させ、且つ、拡大した前記所定領域を元の大きさに戻す際には、前記所定領域を前記拡大規定値より小さな規定値ずつ複数回の処理により車幅方向内側に縮小させることを特徴とする請求項1~3のいずれかに記載の立体物検出装置。
  5.  前記領域設定手段は、立体物の検出中において、立体物の非検出中よりも前記規定値を小さくさせることを特徴とする請求項1~4のいずれかに記載の立体物検出装置。
  6.  前記隣接車線を走行する立体物の接地線を検出する接地線検出手段をさらに備え、
     前記領域設定手段は、自車両から前記接地線までの車幅方向における距離が短いほど、前記所定領域の大きさを車幅方向外側に拡大させる際の拡大量を小さくすることを特徴とする請求項1~5のいずれかに記載の立体物検出装置。
  7.  自車両の旋回状態を検出する旋回状態検出手段をさらに備え、
     前記領域設定手段は、前記旋回状態検出手段により検出された自車両の旋回半径が小さいほど、前記所定領域の大きさを車幅方向外側に拡大させる際の拡大量を小さくすることを特徴とする請求項1~6のいずれかに記載の立体物検出装置。
  8.  前記領域設定手段は、前記車幅方向距離が所定値以上の場合に、前記所定領域を車幅方向外側に移動させるとともに、前記所定領域の大きさを車幅方向外側に拡大させることを特徴とする請求項1~7のいずれかに記載の立体物検出装置。
  9.  前記領域設定手段は、前記所定領域を車幅方向外側に移動させた後に、前記所定領域の大きさを車幅方向外側に拡大させることを特徴とする請求項8に記載の立体物検出装置。
  10.  前記撮像手段が有するレンズに付着した異物を検出する異物検出手段をさらに備え、
     前記領域設定手段は、前記異物検出手段により検出された異物の量が多いほど、前記所定領域の大きさを車幅方向外側に拡大させる際の拡大量を小さくすることを特徴とする請求項1~9のいずれかに記載の立体物検出装置。
  11.  前記区分線の種別を特定する区分線種別特定手段をさらに備え、
     前記領域設定手段は、前記区分線種別特定手段により特定された前記区分線の種別に基づいて、前記所定領域の大きさを車幅方向外側に拡大させる際の拡大量を異ならせることを特徴とする請求項1~10のいずれかに記載の立体物検出装置。
  12.  自車両が走行する走行車線に境界である区分線を介して隣接する隣接車線を走行する立体物を検出する立体物検出方法であって、
     自車両から、前記区分線及び前記隣接車線の所定領域を含んで撮像する撮像工程と、
     前記撮像工程において撮像された所定領域内に立体物が存在するか否かを判断する立体物判断工程と、
     前記撮像工程における撮像により得られた画像から、自車両の走行車線における自車位置と、前記区分線との車幅方向距離を検出する横位置検出工程と、
     自車両の車線変更を検出する車線変更検出工程と、
     前記横位置検出工程において検出された区分線との車幅方向距髄が長くなるほど、当該区分線が存在する側に位置する前記所定領域の大きさを車幅方向外側に拡大させるとともに、自車両の車線変更が検出された場合、前記所定領域の大きさを車幅方向外側に拡大させる際の拡大量を小さくする領域設定工程と、を有することを特徴とする立体物検出方法。
PCT/JP2012/069094 2011-08-02 2012-07-27 立体物検出装置及び立体物検出方法 WO2013018673A1 (ja)

Priority Applications (8)

Application Number Priority Date Filing Date Title
EP12819626.8A EP2741271B8 (en) 2011-08-02 2012-07-27 Object detector and object detection method
RU2014107926/11A RU2563534C1 (ru) 2011-08-02 2012-07-27 Устройство обнаружения сплошных объектов и способ обнаружения сплошных объектов
CN201280037841.9A CN103718224B (zh) 2011-08-02 2012-07-27 三维物体检测装置和三维物体检测方法
BR112014001824-3A BR112014001824B1 (pt) 2011-08-02 2012-07-27 dispositivo e método de detecção de objeto sólido
MX2014000652A MX2014000652A (es) 2011-08-02 2012-07-27 Dispositivo de deteccion de objeto solido y metodo de deteccion de objeto solido.
US14/233,404 US9092676B2 (en) 2011-08-02 2012-07-27 Object detector and object detection method
JP2013526868A JP5761349B2 (ja) 2011-08-02 2012-07-27 立体物検出装置及び立体物検出方法
MYPI2013004517A MY183995A (en) 2011-08-02 2012-07-27 Object detector device and object detection method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2011168904 2011-08-02
JP2011-168904 2011-08-02

Publications (1)

Publication Number Publication Date
WO2013018673A1 true WO2013018673A1 (ja) 2013-02-07

Family

ID=47629197

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2012/069094 WO2013018673A1 (ja) 2011-08-02 2012-07-27 立体物検出装置及び立体物検出方法

Country Status (9)

Country Link
US (1) US9092676B2 (ja)
EP (1) EP2741271B8 (ja)
JP (1) JP5761349B2 (ja)
CN (1) CN103718224B (ja)
BR (1) BR112014001824B1 (ja)
MX (1) MX2014000652A (ja)
MY (1) MY183995A (ja)
RU (1) RU2563534C1 (ja)
WO (1) WO2013018673A1 (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014017434A1 (ja) * 2012-07-27 2014-01-30 クラリオン株式会社 画像処理装置
CN103942960A (zh) * 2014-04-22 2014-07-23 深圳市宏电技术股份有限公司 一种车辆变道检测方法及装置
WO2015008566A1 (ja) * 2013-07-18 2015-01-22 クラリオン株式会社 車載装置
EP2927710A3 (en) * 2014-03-13 2015-12-30 Ricoh Company, Ltd. Ranging system, information processing apparatus, information processing method and program thereof
US11077853B2 (en) * 2017-09-29 2021-08-03 Mando Corporation Apparatus and method for controlling lane-keeping
WO2022176245A1 (ja) * 2021-02-22 2022-08-25 日立Astemo株式会社 後方監視装置
WO2023157721A1 (ja) * 2022-02-17 2023-08-24 株式会社デンソー 車両制御装置、車両制御方法

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5916444B2 (ja) * 2012-03-08 2016-05-11 日立建機株式会社 鉱山用車両
JP6132359B2 (ja) * 2014-10-20 2017-05-24 株式会社Soken 走行区画線認識装置
JP6532229B2 (ja) * 2014-12-18 2019-06-19 株式会社デンソーテン 物体検出装置、物体検出システム、物体検出方法及びプログラム
JP6581379B2 (ja) * 2015-03-31 2019-09-25 株式会社デンソー 車両制御装置、及び車両制御方法
US20170248958A1 (en) * 2016-02-25 2017-08-31 Delphi Technologies, Inc. Adjacent lane verification for an automated vehicle
MX2018011509A (es) * 2016-03-24 2019-01-10 Nissan Motor Metodo de deteccion de carril de circulacion y dispositivo de deteccion de carril de circulacion.
US9910440B2 (en) * 2016-05-13 2018-03-06 Delphi Technologies, Inc. Escape-path-planning system for an automated vehicle
CN109804421A (zh) * 2016-10-07 2019-05-24 日产自动车株式会社 车辆判断方法、行驶路径修正方法、车辆判断装置及行驶路径修正装置
CN110023712A (zh) * 2017-02-28 2019-07-16 松下知识产权经营株式会社 位移计测装置以及位移计测方法
JP6530782B2 (ja) * 2017-06-09 2019-06-12 株式会社Subaru 車両制御装置
US10576894B2 (en) * 2018-06-04 2020-03-03 Fca Us Llc Systems and methods for controlling vehicle side mirrors and for displaying simulated driver field of view
JP7156225B2 (ja) * 2019-09-20 2022-10-19 株式会社デンソーテン 付着物検出装置および付着物検出方法
CN114078246A (zh) * 2020-08-11 2022-02-22 华为技术有限公司 确定检测对象的三维信息的方法及装置
CN118050054A (zh) * 2024-04-16 2024-05-17 中国民用航空飞行学院 基于智慧数据分析的飞行安全实时监控***及方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000149197A (ja) 1998-11-17 2000-05-30 Toyota Motor Corp 車両周辺監視装置
JP2003276542A (ja) * 2002-03-20 2003-10-02 Nissan Motor Co Ltd 車両用後方監視装置
JP2004331023A (ja) * 2003-05-12 2004-11-25 Nissan Motor Co Ltd 車両用運転操作補助装置およびその装置を備えた車両
JP2008100554A (ja) * 2006-10-17 2008-05-01 Yamaha Motor Co Ltd 後方視認装置
JP2008219063A (ja) 2007-02-28 2008-09-18 Sanyo Electric Co Ltd 車両周辺監視装置及び方法
JP2009116723A (ja) * 2007-11-08 2009-05-28 Denso Corp 車線変更支援装置

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000161915A (ja) * 1998-11-26 2000-06-16 Matsushita Electric Ind Co Ltd 車両用単カメラ立体視システム
DE10218010A1 (de) * 2002-04-23 2003-11-06 Bosch Gmbh Robert Verfahren und Vorrichtung zur Querführungsunterstützung bei Kraftfahrzeugen
US8130269B2 (en) * 2005-03-23 2012-03-06 Aisin Aw Co., Ltd. Visual recognition apparatus, methods, and programs for vehicles
JP4855158B2 (ja) * 2006-07-05 2012-01-18 本田技研工業株式会社 運転支援装置
JP4420011B2 (ja) * 2006-11-16 2010-02-24 株式会社日立製作所 物体検知装置
DE102007044535B4 (de) * 2007-09-18 2022-07-14 Bayerische Motoren Werke Aktiengesellschaft Verfahren zur Fahrerinformation in einem Kraftfahrzeug
JP5359085B2 (ja) * 2008-03-04 2013-12-04 日産自動車株式会社 車線維持支援装置及び車線維持支援方法
KR101356201B1 (ko) * 2008-09-19 2014-01-24 현대자동차주식회사 차량용 후측방 감지시스템

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000149197A (ja) 1998-11-17 2000-05-30 Toyota Motor Corp 車両周辺監視装置
JP2003276542A (ja) * 2002-03-20 2003-10-02 Nissan Motor Co Ltd 車両用後方監視装置
JP2004331023A (ja) * 2003-05-12 2004-11-25 Nissan Motor Co Ltd 車両用運転操作補助装置およびその装置を備えた車両
JP2008100554A (ja) * 2006-10-17 2008-05-01 Yamaha Motor Co Ltd 後方視認装置
JP2008219063A (ja) 2007-02-28 2008-09-18 Sanyo Electric Co Ltd 車両周辺監視装置及び方法
JP2009116723A (ja) * 2007-11-08 2009-05-28 Denso Corp 車線変更支援装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP2741271A4

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014017434A1 (ja) * 2012-07-27 2014-01-30 クラリオン株式会社 画像処理装置
JPWO2014017434A1 (ja) * 2012-07-27 2016-07-11 クラリオン株式会社 画像処理装置
US9721169B2 (en) 2012-07-27 2017-08-01 Clarion Co., Ltd. Image processing device for detecting vehicle in consideration of sun position
JPWO2015008566A1 (ja) * 2013-07-18 2017-03-02 クラリオン株式会社 車載装置
US10095934B2 (en) 2013-07-18 2018-10-09 Clarion Co., Ltd. In-vehicle device
WO2015008566A1 (ja) * 2013-07-18 2015-01-22 クラリオン株式会社 車載装置
CN105393293A (zh) * 2013-07-18 2016-03-09 歌乐株式会社 车载装置
EP2927710A3 (en) * 2014-03-13 2015-12-30 Ricoh Company, Ltd. Ranging system, information processing apparatus, information processing method and program thereof
CN103942960B (zh) * 2014-04-22 2016-09-21 深圳市宏电技术股份有限公司 一种车辆变道检测方法及装置
CN103942960A (zh) * 2014-04-22 2014-07-23 深圳市宏电技术股份有限公司 一种车辆变道检测方法及装置
US11077853B2 (en) * 2017-09-29 2021-08-03 Mando Corporation Apparatus and method for controlling lane-keeping
WO2022176245A1 (ja) * 2021-02-22 2022-08-25 日立Astemo株式会社 後方監視装置
JP7486657B2 (ja) 2021-02-22 2024-05-17 日立Astemo株式会社 後方監視装置
WO2023157721A1 (ja) * 2022-02-17 2023-08-24 株式会社デンソー 車両制御装置、車両制御方法

Also Published As

Publication number Publication date
EP2741271B1 (en) 2019-04-03
CN103718224A (zh) 2014-04-09
BR112014001824B1 (pt) 2021-04-20
JP5761349B2 (ja) 2015-08-12
EP2741271A4 (en) 2015-08-19
RU2563534C1 (ru) 2015-09-20
CN103718224B (zh) 2016-01-13
US9092676B2 (en) 2015-07-28
JPWO2013018673A1 (ja) 2015-03-05
EP2741271A1 (en) 2014-06-11
MX2014000652A (es) 2014-04-30
EP2741271B8 (en) 2019-09-11
BR112014001824A2 (pt) 2017-02-21
MY183995A (en) 2021-03-17
US20140147007A1 (en) 2014-05-29

Similar Documents

Publication Publication Date Title
JP5761349B2 (ja) 立体物検出装置及び立体物検出方法
JP5664787B2 (ja) 移動体検出装置及び移動体検出方法
EP2767927B1 (en) Road surface information detection apparatus, vehicle device control system employing road surface information detection apparatus, and carrier medium of road surface information detection program
JP5997276B2 (ja) 立体物検出装置及び異物検出装置
EP2803944A2 (en) Image Processing Apparatus, Distance Measurement Apparatus, Vehicle-Device Control System, Vehicle, and Image Processing Program
JP5787024B2 (ja) 立体物検出装置
JP5776795B2 (ja) 立体物検出装置
WO2014192137A1 (ja) 移動軌跡予測装置及び移動軌跡予測方法
JP2006018751A (ja) 車両用画像処理装置
JP6936098B2 (ja) 対象物推定装置
Suzuki et al. Sensor fusion-based pedestrian collision warning system with crosswalk detection
JP2019003606A (ja) 地図変化点検出装置
JP6115429B2 (ja) 自車位置認識装置
JP3925285B2 (ja) 走行路環境検出装置
JP2012252501A (ja) 走行路認識装置及び走行路認識用プログラム
JP5794378B2 (ja) 立体物検出装置及び立体物検出方法
CN112078580A (zh) 用于确定对象与行车带的重合度的方法,装置和存储介质
KR102003387B1 (ko) 조감도 이미지를 이용한 교통 장애물의 검출 및 거리 측정 방법, 교통 장애물을 검출하고 거리를 측정하는 프로그램을 저장한 컴퓨터 판독가능 기록매체
JP5938940B2 (ja) 立体物検出装置
JP5999183B2 (ja) 立体物検出装置および立体物検出方法
KR102681321B1 (ko) 듀얼 카메라를 이용하여 거리를 계산하는 고속도로 주행지원 시스템의 성능 평가 장치와 그 방법
JP5732890B2 (ja) 並走体検出装置及び並走体検出方法
JP5724570B2 (ja) 走行支援装置及び走行支援方法
JP5842466B2 (ja) 移動体検出装置及び移動体検出方法
JP5817913B2 (ja) 立体物検出装置及び立体物検出方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12819626

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2013526868

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: MX/A/2014/000652

Country of ref document: MX

WWE Wipo information: entry into national phase

Ref document number: 14233404

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2014107926

Country of ref document: RU

Kind code of ref document: A

REG Reference to national code

Ref country code: BR

Ref legal event code: B01A

Ref document number: 112014001824

Country of ref document: BR

ENP Entry into the national phase

Ref document number: 112014001824

Country of ref document: BR

Kind code of ref document: A2

Effective date: 20140124