WO2012081359A1 - レーン認識装置 - Google Patents

レーン認識装置 Download PDF

Info

Publication number
WO2012081359A1
WO2012081359A1 PCT/JP2011/076664 JP2011076664W WO2012081359A1 WO 2012081359 A1 WO2012081359 A1 WO 2012081359A1 JP 2011076664 W JP2011076664 W JP 2011076664W WO 2012081359 A1 WO2012081359 A1 WO 2012081359A1
Authority
WO
WIPO (PCT)
Prior art keywords
lane
voting
straight line
linear element
image
Prior art date
Application number
PCT/JP2011/076664
Other languages
English (en)
French (fr)
Inventor
洋介 坂本
Original Assignee
本田技研工業株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 本田技研工業株式会社 filed Critical 本田技研工業株式会社
Priority to US13/992,819 priority Critical patent/US9076046B2/en
Priority to JP2012548707A priority patent/JP5687712B2/ja
Priority to CN201180060646.3A priority patent/CN103262139B/zh
Priority to EP11848555.6A priority patent/EP2615597B1/en
Publication of WO2012081359A1 publication Critical patent/WO2012081359A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/167Driving aids for lane monitoring, lane changing, e.g. blind spot detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/181Segmentation; Edge detection involving edge growing; involving edge linking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/48Extraction of image or video features by mapping characteristic values of the pattern into a parameter space, e.g. Hough transformation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/40Picture signal circuits
    • H04N1/409Edge or detail enhancement; Noise or error suppression
    • H04N1/4092Edge or detail enhancement
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30256Lane; Road marking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2101/00Still video cameras

Definitions

  • the present invention relates to a lane recognition device that recognizes a lane based on a captured image in front of a vehicle photographed by an imaging device.
  • an imaging device is mounted on a vehicle, a road condition ahead of the vehicle is photographed, and a lane mark is detected from the captured image by image processing.
  • image processing for detecting a lane mark, one using Hough conversion is known.
  • Patent Document 1 discloses a road shape estimation device that detects a lane mark (lane display line) from a captured image in front of a vehicle by a method different from Hough conversion.
  • the road shape estimation apparatus sets a plurality of trapezoidal windows in the captured image so that the lane display line is included, and detects edge points in the captured image by edge extraction processing.
  • the road shape estimation apparatus counts the number of edge points on the line segment for all line segments having one point at the upper base and one point at the lower base of each window (two points facing the lane). And the line segment having the maximum number of edge points is detected as the detection line of the window.
  • the road shape estimation device determines whether the window is an interrupted vehicle from the adjacent lane to the host vehicle traveling lane, based on whether the number of edge points of the detection straight line of the window is equal to or greater than a threshold value. And narrow down to the window without vehicle interruption, and detect the lane display line of the entire captured image.
  • the road shape estimation device of Patent Document 1 recognizes the detected straight line as a lane boundary recognition target when the detected straight line of each window is caused by an interrupting vehicle by comparing the number of edge points on the detected straight line with a predetermined threshold. Can be appropriately excluded from However, in the road shape estimation device, when the detected straight line is derived from something other than the interrupting vehicle and other than the lane mark, this is identified and the detected straight line is excluded from the recognition target of the lane boundary line. It ’s difficult.
  • An object of the present invention is to accurately extract a linear element derived from a lane mark from a linear element extraction image in which a linear element derived from a non-lane mark and a linear element derived from a lane mark are mixed,
  • a lane recognition device capable of recognizing a line is provided.
  • a lane recognition device of the present invention is a lane recognition device that recognizes a lane based on a captured image in front of a vehicle by an imaging device, and extracts a linear element included in the captured image.
  • a linear element extraction image generation unit that generates a linear element extraction image; an area setting unit that sets a predetermined range of lane extraction areas in the vertical direction in the linear element extraction image; and a local area in the lane extraction area.
  • a local straight line determination unit that determines a local straight line of each local region based on a linear element part in each local region, an intersection calculation unit that calculates an intersection of each local straight line and a reference horizontal line in a predetermined position in the vertical direction, In a voting space having the direction and intersection as coordinate components, a voting unit that votes the direction and intersection of each local straight line, a detection unit that detects a detection line based on the voting result in the voting space, Based on the serial detection straight line, characterized in that it comprises a recognition unit for recognizing the lane boundary line (first invention).
  • the direction and the intersection of the reference horizontal line are calculated, and the direction and the intersection of each local straight line are voted in the voting space.
  • the direction of the local straight line derived from the lane mark continuously laid on the road and the coordinates on the voting space associated with the intersection point include the local line derived from a non-lane mark such as another vehicle locally existing on the road. Votes gather more than the coordinates on the voting space associated with the direction and intersection of the straight line. Therefore, since the difference in the number of votes between the two becomes significant, it is possible to recognize the lane boundary line by accurately excluding the linear element derived from the non-lane mark.
  • the area setting unit is divided into a plurality of lanes extraction area of the linear element extraction image in the vertical direction, the voting unit, each vote that are associated with each lane extraction area Vote for space based on each local straight line of the lane extraction area corresponding to the voting space, the detection unit detects a detection straight line for each lane extraction area based on the voting result of each voting space, The recognizing unit recognizes the lane boundary line in the linear element extraction image based on the joining of the detection straight lines in the respective lane extraction areas (second invention).
  • the lane boundary line of the curve can be accurately recognized by connecting the detection straight lines of the vertical lane extraction areas in the vertical direction.
  • the area setting unit converts the linear element extraction image into a plurality of lane extraction areas in the vertical direction so that the vertical dimension is smaller in the upper lane extraction area in the vertical direction. Divide (third invention).
  • the length in the real space corresponding to the length between the adjacent pixel points in the range increases in the upper range in the vertical direction.
  • the vertical lane extraction area on the upper side in the vertical direction is reduced in size in the vertical direction, so that the vertical line of the detection line is vertical compared to the case where the vertical dimensional area is divided into a plurality of lane extraction areas having the same vertical dimension.
  • the distance in the real space associated with each detection straight line in the direction joining is made uniform, and the accuracy of each part of the detection straight line after joining can be made uniform.
  • the local straight line determination unit divides a predetermined range of directions into a first predetermined number of direction sections and assigns the direction of each local straight line to one of the corresponding direction sections.
  • the intersection calculation unit divides the reference horizontal line into a second predetermined number of position sections, and determines the intersection of each local straight line and the reference horizontal line as an intersection section as a corresponding position section,
  • the voting unit makes coordinate components of directions and intersections defined in the voting space coincide with the direction sections and intersection sections (fourth invention).
  • the voting space direction defined by the voting unit and the coordinate component of the intersection are matched with the first and second predetermined number of direction sections and intersection sections defined for the direction and intersection of the local straight line.
  • the first predetermined number or the second predetermined number is set smaller in the upper lane extraction area than in the lower lane extraction area (fifth invention).
  • the upper lane extraction area image is detected from the upper lane extraction area image because the distance from the host vehicle to the corresponding real space position is farther than the lower lane extraction area image.
  • the accuracy of the real space position difference that can be made is lower than the accuracy of the real space position difference that can be detected from the lower lane extraction area.
  • the first predetermined number or the second predetermined number is set to be smaller in the upper lane extraction area than in the lower lane extraction area, thereby detecting the position of the real space from each image.
  • a calculation process is performed on the direction or intersection of the local straight line with a roughness corresponding to the accuracy. As a result, it is possible to eliminate the waste of processing with higher accuracy than necessary for the lane extraction area with low detection accuracy for the direction or intersection.
  • the first predetermined number or the second predetermined number is set smaller in the upper local region than in the lower local region in the same lane extraction area (sixth invention).
  • the distance from the vehicle to the corresponding position in the real space is farther than the lower local area image, so the real space that can be detected from the upper local area image
  • the accuracy of the position difference is lower than the accuracy of the position difference in the real space that can be detected from the lower local region.
  • the first predetermined number or the second predetermined number is set smaller in the upper local region than in the lower local region, thereby improving the detection accuracy of the position of the real space from each image.
  • a calculation process for the direction or intersection is performed for the local straight line with the corresponding roughness. As a result, it is possible to eliminate the waste of processing with higher accuracy than necessary for the local region of detection accuracy with respect to the direction or intersection.
  • the detection unit detects, as a detection straight line, a straight line having a direction and an intersection corresponding to a coordinate having a maximum number of votes in the voting space (seventh invention).
  • the detection straight line is detected based on the maximum number of votes, not the comparison between the number of votes and a predetermined threshold value in the voting space.
  • a detection straight line derived from a lane mark can also be accurately detected from a linear element extraction image in which elements are mixed.
  • the horizontal direction of the captured image corresponds to the left-right direction of the vehicle in a real space
  • the recognition unit detects the linear element based on a time-series linear element extraction image.
  • the eighth invention it is possible to accurately recognize that the lane is a curve from the horizontal speed of the detected straight line.
  • the linear element extraction image generation unit generates an intermediate extraction image generation unit that generates a first intermediate extraction image obtained by extracting linear elements included in the captured image, and the first intermediate extraction.
  • the linear element extraction image By replacing each linear element included in the image with one or a plurality of line segments based on a change in the horizontal direction width or inclination angle in the vertical direction, the linear element extraction image from the first intermediate extraction image And a line segment replacement unit for generating (9th invention).
  • the intermediate extraction image generation unit When driving on a curve, the lane boundary line becomes a curve, so the local straight line directions and intersections of a plurality of local regions in the lane extraction area are dispersed with respect to one lane boundary line. Such dispersion causes the coordinates of the voting space of the voting destination to be dispersed and makes it difficult to detect the detection straight line by voting.
  • the intermediate extraction image generation unit generates a first intermediate extraction image obtained by extracting a linear element included in the captured image, and the line segment replacement unit is included in the first intermediate extraction image. Each linear element is replaced with one or a plurality of line segments based on a change in the horizontal direction width or inclination angle in the vertical direction to generate a linear element extraction image.
  • the local straight line determination unit determines the local straight line based on the line segment in which the curved linear element is replaced, so that dispersion of voting destinations in the voting space is suppressed. Therefore, the detection unit can smoothly detect the detection line based on the voting result in the voting space.
  • the intermediate extracted image generation unit extracts a second intermediate extracted image extracted from the captured image while holding a linear element included in the captured image at the same position as the position in the captured image. And the second intermediate extraction image is projectively transformed into an upward view image to generate the first intermediate extraction image (a tenth aspect of the invention).
  • the shape of the linear element on the first intermediate extraction image is obtained from the vehicle. Shape distortion due to perspective is eliminated, and the shape is close to that in real space. As a result, each linear element can be replaced with an appropriate line segment, and the local straight line determined based on the replaced line segment can be accurately corrected.
  • the voting unit performs the voting for each time-series lane extraction area set for the time-series linear element extraction image generated in association with the time-series captured image.
  • a space is set, and for each time-series voting space, the local straight line direction and intersection of each local region in the lane extraction area where the voting space is set are voted, and the detection unit performs time-series voting.
  • a detection straight line is detected based on the voting result of the space (11th invention).
  • the lane mark-derived linear element in the linear element extraction image has a high continuity in appearance in the time-series linear element extraction image, whereas the non-lane mark in the linear element extraction image
  • the derived linear element has low continuity of appearance in the time-series linear element extraction image. Therefore, a voting space is set for each time-series lane extraction area set for the time-series linear element extraction image, and each time-series voting space is associated with a local straight line of each local region. By voting on the coordinates and detecting the detection line based on the voting result in the time-series voting space, the detection accuracy of the detection line corresponding to the lane mark can be increased.
  • the detection unit creates a total voting space in which the number of votes of each coordinate is a total value obtained by summing up the number of votes of corresponding coordinates in each time-series voting space.
  • the detection straight line is detected based on the coordinates where the number of votes is maximized (a twelfth aspect of the invention).
  • the linear element derived from the lane mark in the linear element extraction image has a high continuity of appearance in the time-series linear element extraction image
  • the coordinate corresponding to the lane mark in the total voting space is displayed.
  • the number of votes is significantly larger than the number of votes for coordinates corresponding to temporary noise or the like.
  • the number of votes of coordinates corresponding to the lane mark is larger than the number of votes of the surrounding coordinates, and the number of votes of coordinates corresponding to the lane mark is maximum with respect to the number of votes. Therefore, the detection accuracy of the detection line corresponding to the lane mark can be improved by detecting the detection line based on the coordinates where the number of votes is maximum in the total voting space.
  • the detection unit reduces the number of votes for coordinates having a vote number less than a threshold in each voting space, and then totals the number of votes for each coordinate in each time-series voting space. (13th invention).
  • the detection unit decreases the number of votes for each coordinate in which the number of votes is less than a threshold, and then coordinates in each time-series vote space. Total the votes of.
  • the detection unit compares the voting results of the first and second voting spaces at different times on the time series, and determines from the coordinates where the number of votes is maximum in the first voting space.
  • the number of votes in the distance range is not the maximum in the second voting space, the number of votes of the coordinate in the first voting space is excluded from the total in the total voting space (14th invention).
  • the fourteenth invention when the number of votes of the second coordinate within a predetermined distance range from the first coordinate of the first voting space is not maximal in the second voting space, the first voting space in the first voting space By excluding the number of votes of coordinates from the total in the total vote space, it is possible to prevent a detection straight line derived from noise or the like from being detected from the total vote space.
  • the schematic diagram of the vehicle carrying a vehicle driving assistance device The block diagram of the lane recognition apparatus with which a vehicle travel assistance apparatus is equipped.
  • a schematic diagram of a voting space The figure which showed the voting space in the three-dimensional form by making the number of votes in each coordinate high.
  • the block diagram of another lane recognition apparatus The flowchart about the lane recognition method which the another lane recognition apparatus of FIG. 7 implements. Explanatory drawing of the line segment replacement process by a line segment replacement part.
  • a camera (imaging device) 11 such as a CCD camera, a CMOS image sensor or a near-infrared camera, and a vehicle travel support device 12.
  • the camera 11 is attached to the interior space so as to take a picture of the front of the vehicle 10 through the front window.
  • the location of the camera 11 may be changed as appropriate on the dashboard of the vehicle 10 or on the front portion.
  • a lane recognition device 20 equipped in the vehicle travel support device 12 includes a captured image memory 21, a linear element extraction image processing unit 22, a resolution determination unit 23, a voting processing unit 24, a straight line detection unit 25, and a recognition unit. 26.
  • the linear element extraction image processing unit 22 corresponds to a linear element extraction image generation unit, an area setting unit, a local straight line determination unit, and an intersection calculation unit in the present invention.
  • the voting processing unit 24 corresponds to the voting unit in the present invention.
  • the straight line detection unit 25 corresponds to the detection unit in the present invention.
  • the lane recognition device 20 includes a computer (not shown) equipped with a calculation memory and a program storage memory, and includes a linear element extraction image processing unit 22, a resolution determination unit 23, a voting processing unit 24, a straight line detection unit 25, and Each function of the recognition unit 26 is realized by software information processing in a computer. Note that in the lane recognition devices 65 (FIG. 7) and 100 (FIG. 16) described later, the functions of the components constituting them are also realized by software information processing in a computer.
  • FIG. 3 is a flowchart of the lane recognition method performed by the lane recognition device 20. The operation of the lane recognition device 20 will be described with reference to the flowchart of FIG.
  • the processing of the linear element extraction image generation unit in the present invention corresponds to the processing of STEP12.
  • the processing of the area setting unit, local straight line determination unit, and intersection calculation unit in the present invention corresponds to the processing of STEP13.
  • the process of the voting unit in the present invention corresponds to the process of STEP14.
  • the processing of the detection unit in the present invention corresponds to the processing of STEP15.
  • the lane recognition device 20 stores the data of the captured image 30 in the captured image memory 21.
  • the captured image 30 will be described with reference to FIG.
  • the horizontal direction horizontal axis direction or left-right direction
  • vertical direction The vertical direction or the vertical axis direction
  • the origin is defined as the lower left vertex of each rectangular image for convenience of processing.
  • the x-axis direction corresponds to the left-right direction of the vehicle 10 in real space.
  • the y-axis corresponds to the traveling direction and the vertical direction of the vehicle 10 in real space. Therefore, in the real space, the farther away from the vehicle 10 in front of the vehicle 10 and the higher upward in the vertical direction, the higher the position in the y-axis direction.
  • the vehicle 10 is traveling in the right lane.
  • the upper half is a captured image 30 in which the camera 11 captures the front of the vehicle 10, and the lower half is a linear element generated by performing linear element extraction processing such as edge processing on the captured image 30.
  • This is an extracted image 40.
  • the camera 11 outputs captured images 30 in front of the vehicle 10 at regular time intervals.
  • Each captured image 30 corresponds to one frame.
  • Each linear element in the linear element extraction image 40 is composed of a set of pixel points extracted from the captured image 30. Specifically, among the extracted pixel points distributed in the linear element extraction image 40, the linear elements are high. It is a region of a plurality of extracted pixel points gathered in density or continuously.
  • a left lane mark 32, a center lane mark 31, and a right lane mark 33 are captured in order from the left side to the right side of the road 29 on which the vehicle 10 is currently traveling as viewed from the host vehicle.
  • the center lane mark 31 has a broken line shape
  • the left and right lane marks 32 and 33 have a continuous line shape.
  • a plurality of tree trunks 35 are further captured along the road 29 on the right side of the road 29.
  • the linear element extraction image processing unit 22 extracts edges or lane marks from the captured image 30. Specifically, edge processing and lane mark extraction processing are performed on the captured image 30 to generate a linear element extraction image 40.
  • edge processing each coordinate G (x, y) of the captured image 30 is filtered by, for example, a Sobel operator to obtain a first derivative in the x-axis direction, and the value Sx (x, y) is expressed as G ( x, y).
  • the threshold value Cs is compared with Sx (x, y), a pixel point where Sx (x, y)> Cs is extracted, this pixel point is determined as an edge point, and this pixel point is the background color. What is displayed in a different color is the linear element extraction image 40.
  • a white (lane mark color) pixel point is extracted from the captured image 30, or a pixel point whose luminance is equal to or higher than a predetermined threshold is extracted, and the pixel point thus extracted is extracted. Is displayed in a different color (for example, white) from the background color (for example, black).
  • the center lane mark 31 and the right lane mark 33 of the captured image 30 are extracted as linear elements 41 and 42, respectively.
  • the plurality of linear elements 55 of the linear element extraction image 40 correspond to the trunk 35 of the tree stand included in the distant view in the captured image 30.
  • the lane extraction area 45 is set as a range of a predetermined dimension in the y-axis direction in the linear element extraction image 40.
  • the dimension in the y-axis direction of the lane extraction area 45 is not fixed, and can be appropriately adjusted depending on the driving condition, traveling condition, etc. of the vehicle 10.
  • various adjustments such as the direction of the camera 11 are performed on the captured image 30 so that, for example, a road range from several meters to several tens of meters is captured in front of the vehicle 10. ing.
  • the reference horizontal line 46 is set at a position in the y-axis direction above the upper side of the lane extraction area 45 in the linear element extraction image 40, and extends parallel to the x-axis. Note that the reference horizontal line 46 can be set in the lane extraction area 45, and can be set outside the linear element extraction image 40, for example, above the upper side of the linear element extraction image 40 in the calculation process. .
  • the plurality of local regions 47 are set in the lane extraction area 45 so as not to overlap each other and to be adjacent to each other in a range including each linear element.
  • the local region 47 corresponds to the window of Patent Document 1 described above.
  • the local region 47 has a congruent rectangular outline, but may have a shape other than a rectangle, or one vote for a voting space 56 (FIG. 5) described later for each local region 47. It is also possible to vary the shape and size of each local region 47 while assigning the right to vote.
  • the local region 47 can be densely distributed over the entire surface of the lane extraction area 45. Typically, however, the local region 47 is limited to a portion of each linear element in the lane extraction area 45, and Each linear element is set to be completely covered with one or more local regions 47. The setting of the local region 47 in a range where no linear element exists is omitted.
  • the voting described later is applied to the local region 47 in which the local straight line 54 described later cannot be extracted because the linear element portion is not included.
  • the voting right to the space 56 is 0, that is, no voting right.
  • the local area 47 from which the local straight line 54 can be extracted has one vote in the voting space 56.
  • the local region 47 is another part or line of the linear element 41 in the lane extraction area 45. It is also set for the part of the shape element 42.
  • the target detection line segments 51, 52, and 53 correspond to detection straight line portions that are desired to be detected from the respective portions of the linear elements 41, 42, and 43 in the lane extraction area 45, and are ideally detected by the straight line detection unit 25. It is shown for reference as a detection straight line.
  • the linear element 55 exists outside the lane extraction area 45 and is excluded from the target of local straight line determination processing described later for the lane extraction area 45. Further, as will be described later, the target detection line segment 53 is excluded from the detection straight line of the lane extraction area 45 because the number of votes of the corresponding coordinates is less than the threshold value V1.
  • the linear element extraction image processing unit 22 calculates a local straight line 44. Specifically, for each local region 47, one straight line is determined as the local straight line 44 based on the distribution of extracted pixel points in that region.
  • the local straight line 44 passes through each local region 47, and the inclination angle ( ⁇ described later) has an inclination angle extracted from the linear element portion as the inclination angle of the linear element portion in the local region 47. Defined as a straight line.
  • the local straight line 44 of each local region 47 can be calculated, for example, by applying a least square method or the like to the coordinates of each extracted pixel point in the local region 47. For example, among the labeled linear elements, the sum of values obtained by squaring the distances between all the pixel points constituting the linear element portion existing in each local region 47 and the straight line is calculated, and the straight line that minimizes the total is calculated. And the found straight line is defined as a local straight line 44 in the local region 47.
  • a straight line that overlaps the line segment may be the local straight line 44 of the local region 47.
  • the linear element extraction image processing unit 22 first obtains only a by the above-mentioned least square method or the like, and then determines a predetermined point in the local region that passes the local straight line 44. From this, b is obtained. How to obtain b will be described later.
  • is defined in the range of 0 to ⁇ , and corresponds to the “direction” of the local straight line 44.
  • the linear element extraction image processing unit 22 calculates, for each local straight line 44, an x coordinate (hereinafter, appropriately referred to as an “x intersection”) of an intersection where it intersects the reference horizontal line 46.
  • the specific calculation method is as shown in STEPs 131 to 133 below.
  • the linear element extraction image processing unit 22 executes STEPs 131 to 133 as substeps of STEP 13 in FIG.
  • b xc ⁇ a ⁇ yc (1)
  • (xc, yc) is the coordinates of a predetermined point in the local region 47 from which each local straight line 44 is generated, for example, the center point 49.
  • STEP 132 Using the b calculated in the equation (1), the x coordinate ux (x intersection) of the intersection (ux, uy) between the local straight line 44 and the reference horizontal line 46 is calculated by the following equation (2).
  • ux a ⁇ uy + b (2)
  • uy is a predetermined value as the y coordinate of a predetermined position through which the reference horizontal line 46 passes.
  • ⁇ and vx are calculated from ux and ⁇ based on the following equations (3) and (4).
  • ( ⁇ / (maximum value assumed for ⁇ )) ⁇ (number of ⁇ divisions Nc) (3)
  • vx (ux / (maximum value assumed for ux)) ⁇ (number of divisions of vx Nx) (4)
  • Nc and Nx in the equations (3) and (4) are determined according to the position resolution of the attention area of the captured image 30.
  • the position resolution of the region of interest of the captured image 30 refers to the resolution at which the position difference in the real space corresponding to the region of interest in the captured image 30 is identified by the image information of the region of interest.
  • Nc and Nx can be increased as the position resolution of the attention area of the captured image 30 is higher.
  • Nc and Nx are, for example, 32 and 64, respectively.
  • the resolution determining unit 23 determines Nc and Nx according to the resolution of the captured image 30 and outputs the determined value to the linear element extraction image processing unit 22.
  • the linear element extraction image processing unit 22 calculates vx and ⁇ of the local straight line 44 of each local region 47 based on Nc and Nx from the resolution determining unit 23, and corresponds the calculated vx and ⁇ to each local region 47.
  • the data is stored in the memory of the linear element extraction image processing unit 22.
  • FIG. 5 shows the voting space 56.
  • the horizontal axis and the vertical axis are defined by ⁇ and vx, respectively. Since ⁇ is associated with the inclination angle ⁇ , the horizontal axis as the axis of ⁇ in the voting space 56 is referred to as a direction axis. Further, vx is associated with ux as the x intersection as defined in the above equation (4), so the vertical axis as the axis of vx in the voting space 56 is called the intersection axis.
  • the voting processing unit 24 refers to vx and ⁇ of each local region 47 stored in the memory of the linear element extraction image processing unit 22 and performs voting on the voting space 56 based on the reference value. . That is, one vote is assigned to each local region 47, and each vote is voted on the coordinates (vx, ⁇ ) of the voting space 56 that coincides with vx and ⁇ of the local straight line 44 of each local region 47.
  • the number of votes vote (vx, ⁇ ) to each coordinate (vx, ⁇ ) as a voting result in the voting space 56 is shown in FIG.
  • the number of votes vote (vx, ⁇ ) for each coordinate in the voting space 56 is represented by a height in FIG.
  • a plurality of mountains 59 appear in the voting space 56 in which the number of votes vote (vx, ⁇ ) is expressed in height.
  • the mountain 59 appears in a coordinate area where the vote number vote (vx, ⁇ ) is increasing with respect to the surroundings.
  • the result of the vote number vote (vx, ⁇ ) is a mountain shape in which the local straight line 44 corresponding to the lane mark usually has a peak at the coordinate where the height is a maximum value, and the base spreads around the coordinate.
  • the number of votes to the coordinates at which vote (vx, ⁇ ) has a maximum value is sufficient for the number of local regions 47 allocated to the linear elements 41, 42, 43 illustrated in the lane extraction area 45. Close to.
  • the straight line detection unit 25 detects a detection straight line based on the voting result in the voting space 56.
  • the detection straight line becomes ux in which the x intersection point is associated with vx by the above-described equation (4) with respect to the coordinate (vx, ⁇ ) where the vote number vote (vx, ⁇ ) is equal to or greater than the threshold value V1 and the maximum value.
  • the direction is a straight line corresponding to ⁇ corresponding to ⁇ by the above-described equation (3).
  • the maximum value is the upper two or three maximum values, and the upper limit is the maximum number of coordinates (vx, ⁇ ).
  • a straight line associated with the coordinates can be used as a detection straight line.
  • the local straight line derived from the linear element 43 is not detected as a detection straight line because the maximum value of vote (vx, ⁇ ) in the voting space 56 is less than V1.
  • the maximum value of vote (vx, ⁇ ) in the voting space 56 is less than V1.
  • only local straight lines derived from the linear elements 41 and 42 are detected from the voting space 56 as two detection straight lines in the linear element extraction image 40.
  • the recognition unit 26 recognizes each detection straight line as the center lane mark 31 and the right lane mark 33 on the captured image 30 and recognizes the relative position and contour of the lane boundary line of the road 29 with respect to the vehicle 10.
  • the recognition unit 26 can also determine whether or not the road 29 on which the vehicle 10 is traveling is a curve, separately from the recognition of the lane boundary line of the road 29. The specific determination process will be described.
  • the series of processes in FIG. 3 is performed for each captured image 30 captured by the camera 11. Since the camera 11 captures the front of the vehicle 10 at regular time intervals, a time-series captured image 30 is obtained.
  • the recognition unit 26 determines whether the road on which the vehicle 10 is currently traveling is a straight line or a curve from a predetermined number of time-series captured images 30.
  • the recognizing unit 26 recognizes an average speed in which the lane boundary recognized from a predetermined number of time-series captured images 30 is less than the threshold D in the x-axis direction (even if the average speed is the average speed in the captured image 30, If it is determined that the road 29 is moving in the actual space, the road 29 is recognized as a straight line. On the other hand, when it is determined that the lane boundary line is moving in the x-axis direction at an average speed equal to or higher than the threshold value D, the road 29 is recognized as being curved.
  • FIG. 7 is a block diagram of another lane recognition device 65.
  • a curved linear element such as the linear element 42 has a plurality of local areas that occupy the area of the linear element. Since the inclination angle ⁇ of the local straight line in the region 47 is dispersed, voting in the voting space 56 is dispersed, and it is difficult to determine a detection straight line associated with the linear element 42 from the voting space 56.
  • the lane recognition device 65 is configured to suppress the voting based on the local straight line 44 derived from the linear element of the curve of the linear element extraction image 40 from being dispersed in the voting space 56.
  • the difference between the lane recognition device 65 and the lane recognition device 20 is that the lane recognition device 65 includes an intermediate extraction image generation unit 66 and a line segment replacement unit 67 in the linear element extraction image processing unit 22.
  • the intermediate extraction image generation unit 66 of the processing line element extraction image processing unit 22 of the lane recognizing device 20 of FIG. 2 is performing in STEP12,13 3, is intended to the treatment of STEP 12, No new processing is performed on the linear element extraction image processing unit 22 of the lane recognition device 20. That is, the intermediate extraction image generation unit 66 only performs STEP 12 and generates the linear element extraction image 40 of FIG.
  • FIG. 8 is a flowchart of the lane recognition method performed by the lane recognition device 65.
  • STEP21 is added between STEP12 and 13 with respect to the flowchart of FIG. 7 and 8, the description of the same parts as those in FIGS. 2 and 3 will be omitted, and only the differences will be described.
  • the line segment replacement unit 67 replaces each linear element included in the linear element extraction image 40 with one or more line segments based on the connectivity in the vertical direction.
  • FIG. 9 shows the captured image 30 in which the camera 11 captures the front of the vehicle 10 as in FIG. 4, and the lower half performs linear element extraction processing such as edge processing on the captured image 30.
  • generated in this way is shown.
  • the linear element extraction image 40 generated by performing linear element extraction processing such as edge processing on the captured image 30 and in the state before the line segment replacement processing in STEP 21 is the main image. This corresponds to the first intermediate extraction image generated by the intermediate extraction image generation unit of the invention. Further, the linear element extraction image 40 after the line segment replacement processing in STEP 21 corresponds to the linear element extraction image generated by the line segment replacement unit of the present invention.
  • linear element extraction image 40 in FIG. 9 for convenience describing line replacement process by the line segment replacing unit 67, the linear element corresponding to the center lane mark 31 and the right lane mark 33 of the captured image 30, numbered as It has been fixed.
  • linear elements 41a ⁇ 41c are attached a, b, the subscript c in the order for the plurality of linear elements 41 from the central lane mark 31 dashed type of the captured image 30 from closer of the vehicle 10 It is a thing.
  • the linear element 42 is a linear element derived from the continuous linear type right lane mark 33.
  • linear elements 41a and 41c are shown as linear linear elements.
  • the linear elements 41b and 42 are shown as curved linear elements.
  • the linear elements 41 b and 42 are surrounded by the enclosures 86 and 88.
  • the enclosures 86 and 88 are only illustrated in FIG. 9 for convenience of explanation, and do not exist in the actual linear element extraction image 40.
  • linear element extraction image 40 all linear elements are composed of a set in which horizontal pixel rows are continuous in the vertical direction. Further, in the linear element extraction image 40 of FIG. 9, the linear elements 41a to 41c and 42 are extracted from the center lane mark 31 and the right lane mark 33. Therefore, the set of horizontal pixel columns that constitute each of the linear elements 41a to 41c, 42 has continuity in the vertical direction on the linear element extraction image 40 with respect to the horizontal width and the inclination angle.
  • both horizontal pixel columns are assumed to have continuity in the vertical direction with respect to the horizontal width.
  • both horizontal pixel rows have continuity in the vertical direction with respect to the inclination angle. Note that the same inclination angle as the inclination angle ⁇ defined for the local straight line 44 in FIG. 4 can be defined for the straight line connecting the horizontal center points of both horizontal pixel rows.
  • a predetermined number that continues in the vertical direction is used instead of judging only the presence or absence of continuity by comparing both horizontal pixel columns.
  • the presence or absence of continuity may be determined based on the group of horizontal pixel rows. Specifically, the average value of the difference in horizontal width or the average value of the difference in horizontal position of the center point is calculated for all pairs of horizontal pixel columns adjacent in the vertical direction in the group. If the average value is within a predetermined threshold, it is determined that all horizontal pixel columns in the group have continuity in the vertical direction.
  • the line segment replacement unit 67 has, for each linear element in the linear element extraction image 40, a vertical range that has vertical connectivity with respect to the horizontal pixel column constituting the linear element. Labeling is performed by assigning one label to the set part.
  • vertical connectivity is, for example, the above-mentioned “vertical continuity”.
  • the continuity in the vertical direction is determined from the inclination angle of the straight line connecting the center points of the horizontal pixel columns with respect to the inclination angle, but without being limited to the center points of the horizontal pixel columns. It is also possible to determine the connectivity in the vertical direction from the inclination angle of the straight line connecting the left ends and the right ends.
  • the line segment replacement unit 67 does not perform the processing of STEP 21 for all the linear elements in the linear element extraction image 40, and does not enter the lane extraction area 45 (FIG. 4) in the linear element extraction image 40. In a limited manner, the processing of STEP 21 can be performed to reduce the processing load.
  • the line segment replacing unit 67 is a vertical direction even if it is a set part of horizontal pixel columns having vertical connectivity. It is also possible to divide into a set part of a predetermined length and assign a different label to each divided part and replace each divided part with one line segment. Replacement line segments 891a to 891c in FIG. 10 to be described later are generated according to this policy.
  • the significance of replacing a curved linear element with a line segment was to suppress dispersion of voting destinations in the voting process of STEP 14 and facilitate straight line detection in STEP 15, but replace a long curved linear element with one replacement.
  • the line segment replacement unit 67 overcomes this problem by assigning a different label to each divided portion and replacing the divided portion with a corresponding line segment.
  • the line segment replacing unit 67 determines the replacement line segments 85a to 85c and 89 specifically.
  • the line segment replacement unit 67 makes the vertical lengths of the replacement line segments 85a to 85c and 89 equal to the vertical lengths of the linear elements 41a to 41c and 42, respectively.
  • the upper end of the replacement segment 89, a middle of the linear element 42 from the original substitution segment 89 is subsequently vertically upwards, horizontal width is predetermined linear elements 42
  • the location is below the threshold. This is because a sufficiently far part of the lane mark has little significance for recognition, and the processing load can be reduced if the recognition process is omitted.
  • the line segment replacement unit 67 equalizes the widths of the replacement line segments 85a to 85c and 89 regardless of the widths of the linear elements 41a to 41c and 42 from which the replacement line segments 85a to 85c and 89 are derived. Make uniform over range.
  • Segment replacing unit 67 if from the original linear elements of each line segment is a linear element of linearly, from the destination substituted segment 85a, the inclination angle of 85c, from the original linear elements The inclination angle.
  • the line segment replacement unit 67 applies a line segment from the center of the lower horizontal pixel column to the center of the lower horizontal pixel column for the horizontal pixel columns at a plurality of different vertical positions of the linear element.
  • the drawing process is repeated in the vertical direction from bottom to top. Then, from the change in the inclination angle of each line segment by this processing, it can be determined whether the linear element is a straight linear element or a curved linear element.
  • the line segment replacement unit 67 has, for the curved line elements 41b and 42, the inclination angles of the replacement line segments 85b and 89 to be replaced by the original line elements at the respective positions.
  • An appropriate inclination angle in a range between the maximum value and the minimum value can be selected.
  • the line segment replacement unit 67 calculates the inclination angle of the replacement line segments 85b and 89 by, for example, the following (a). Alternatively, it may be calculated by other methods such as the following (b) to (d). Since the next calculation method is common to the linear elements 41b and 42, only the linear element 41b will be described.
  • the line segment replacement unit 67 sets, for example, the positional relationship between the linear element and the replacement line segment that replaces the linear element as follows. Since the vertical ends of the replacement line segment are aligned with the vertical ends of the linear element, the vertical position of the replacement line segment is uniquely determined.
  • the horizontal position of the replacement line can be any one of the vertical ranges of the linear elements (eg, the vertical position of the vertical center point), or if possible, at multiple vertical positions. Align the center of the width of the minute with the center of the width of the linear element. In short, the horizontal position of the replacement line segment is conditional on the replacement line segment overlapping with the original linear element in at least one location.
  • the origin linear elements 41a to 41c, 42 and the origin substitution line segments 85a to 85c, 89 are slightly separated in the horizontal direction, but this is not shown for the sake of convenience in the drawing. In the actual processing, the origin source linear elements 41a to 41c and 42 and the origin substitution line segments 85a to 85c and 89 overlap each other.
  • the lane recognition device 65 uses the replacement line segments 851a to 851c and 891a to 89c shown in FIG. 10 instead of the replacement line segments 85a to 85c and 89 for replacing the linear elements 41a to 41c and 42 of the linear element extraction image 40. Can also be adopted.
  • FIG. 10 shows a projective transformation image 70 in which the intermediate extracted image generation unit 66 has generated the linear element extraction image 40 by the upward perspective projection transformation.
  • the captured image 30 in which the linear element extraction image 40 is generated is an image of the front of the vehicle 10 from the camera 11, the center lane mark 31 and the right lane mark 33 on the captured image 30 are The farther away, the closer to the center of the captured image 30, or the reduction rate in the captured image 30 increases.
  • the shape of the linear element on the linear element extraction image 40 the difference increased with the shape of the lane mark drawn on the road surface in the real space, would not exact replacement segment is set become.
  • the projective transformation image 70 is generated in order to prevent such an incorrect replacement line segment from being set in this way. Conversion from the linear element extraction image 40 to the projective conversion image 70 is performed by the intermediate extraction image generation unit 66 as part of the processing in STEP 21. In the projective transformation image 70, the linear elements 41a to 41c and 42 of the linear element extraction image 40 are converted into linear element portions 411a to 411c and 421, respectively, by projective transformation of the top view. In the linear element portions 411a to 411c, 421 in the projective transformation image 70, shape distortion due to a difference in distance from the vehicle 10 is eliminated.
  • the linear elements extracted image 40 corresponds to the second intermediate extraction image of the present invention, the projection-transformed image 70 before the replacement process to the replacement segment of the linear elements present
  • the projective transformation image 70 corresponding to the first intermediate extraction image of the invention, after replacing each linear element with a replacement line segment, sets a local region for determining a local straight line. It corresponds to the extracted image.
  • the line element 421 is derived from the right lane mark 33 continuous linear line segment replacing unit 67, with respect to the linear element 421, and the labeling process by vertical connectivity, with a single label
  • the line segment replacement unit 67 divides the linear element 421 into a plurality of linear elements 421a to 421c having equal lengths along the center line by divisions 91a to 91c. Labeling is performed every 421c and replaced with replacement line segments 891a to 891c.
  • the lane recognition device 65 replaces the projective transformation image 70 replaced with the replacement line segments 851a to 851c and 891a to 891c with the linear element extraction image 40 in STEP 21, and then replaces the projection transformation image 70 of FIG. The processing after STEP13 is performed.
  • FIGS. 11 to 14 has been described with reference to linear elements extracted image 40 of Figure 4 lane recognizing device 20 of FIG. 2 are processed, the lane recognizing device 65 (FIG. 7 11 is replaced with the linear element extraction image 40, the lane recognition method shown in FIGS. 11 to 14 can be applied to the lane recognition device 65 as well.
  • the linear element extraction image processing unit 22 sets the vertical dimension (y-axis direction dimension) of each lane extraction area 45. More specifically, as shown in FIG. 12, the predetermined range is divided into five lanes extraction area 45 to the y-axis direction in the linear element extraction image 40, as the upper lane extraction area 45, y-axis dimension Is shortened.
  • the dimension in the y-axis direction of each lane extraction area 45 is set to be equal to each other (for example, a predetermined value within 10 to 15 m) when converted into a real space dimension.
  • the y-axis direction dimension of each lane extraction area 45 may be fixed, but is preferably adjusted according to the traveling state of the vehicle 10 (the traveling state includes the driving state).
  • the initial value for the y-axis dimension of each lane extraction area 45 when the operation is started in the vehicle 10, the y-axis dimension of each lane extraction area 45 is, the length of each example 10m at the vehicle center line of the vehicle 10 in real space It is set to be.
  • the dimension in the y-axis direction of each lane extraction area 45 is changed according to the vehicle speed.
  • the dimension in the y-axis direction of each lane extraction area 45 is increased as the vehicle speed increases.
  • the number of lane extraction areas 45 can be decreased.
  • the y-axis direction dimension of each lane extraction area 45 is maximized when the road 29 is a straight line, and decreases as the curvature of the road 29 increases.
  • Levels 1, 2,..., 5 are assigned to each lane extraction area 45 in order from the upper side to the lower side. As shown in FIG. 13, one voting space is set for each lane extraction area 45.
  • the voting spaces Q1 to Q5 in FIG. 13 are associated with the lane extraction areas 45 of levels 1 to 5 in FIG. As the lane extraction area 45 has a smaller level value (upper lane extraction area 45), the position resolution of the attention area of the captured image 30 and the linear element extraction image 40 is lowered.
  • the position resolution of the region of interest of the linear element extraction image 40 is defined similarly to the position resolution of the region of interest of the captured image 30 described in connection with the above equation in STEP133 (3) and (4). That is, the position resolution of the attention area of the linear element extraction image 40 is the resolution for identifying the position difference in the real space corresponding to the attention area by the image information of the attention area in the linear element extraction image 40.
  • the direction resolution of the attention area of the linear element extraction image 40 refers to the resolution when the difference in direction in the real space corresponding to the attention area is identified by the image information of the attention area in the linear element extraction image 40. .
  • the intersection resolution of the region of interest of the linear element extraction image 40, when the reference horizontal line 46 is set to the region of interest, the difference of the linear element extraction image position on the straight line corresponding to the reference horizontal line 46 in the real space The resolution at the time of identifying by the image information of the attention area in 40.
  • the position resolution decreases as the region of interest is an image portion that is distant from the vehicle 10. Therefore, the intersection resolution and the direction resolution also decrease as the region of interest is an image portion that is distant from the vehicle 10.
  • a detection accuracy of detecting from said image portion the detection accuracy of the position of the real space corresponding to the intersection
  • the intersection point relating to the local straight line 44 of the image portion having a low intersection resolution decreases.
  • the detection accuracy when detecting from the image portion, and the direction of the straight line in the real space corresponding to the straight line decreases as the direction of the local line of the image portion having a lower directional resolution.
  • the intersection resolution and the direction resolution are reduced in the upper lane extraction area 45, and vx and ⁇ are calculated. To do. Further, in order to match the intersection resolution and the direction resolution with the coordinate components of the voting space, the values of the coordinate components of the voting spaces Q1 to Q5 are the local straight lines of the lane extraction area 45 at the level corresponding to the voting space. Are defined in association with the discrete values of the inclination angle ⁇ and the x intersection.
  • the voting processing unit 24 votes for the corresponding voting spaces Q1 to Q5 for each lane extraction area 45.
  • the vote number vote (vx, ⁇ ) is obtained for each of the voting spaces Q1 to Q5.
  • the straight line detection unit 25 detects a detection straight line for each lane extraction area 45 based on the number of votes vote (vx, ⁇ ) for each voting space Q1 to Q5.
  • FIG. 14 shows detection straight lines detected by the straight line detection unit 25 for each lane extraction area 45.
  • the left detection straight line 76a and the right detection straight line 79a are detected
  • Q5 level 5 voting space 56
  • a left detection straight line 76e and a right detection straight line 79e are detected.
  • the recognition unit 26 connects the detection straight lines of the lane extraction areas 45 between the lane extraction areas 45.
  • the connection beyond the lane extraction area 45 is not limited to the connection of detection straight lines between the lane extraction areas 45 adjacent to each other in the y-axis direction, and one or more lanes in the middle in the y-axis direction are extracted. It also includes the joining of the detection straight lines between the lane extraction areas 45 that jump over the area 45. This is because when the lane mark is a broken line type like the central lane mark 31, there may be no detection straight line to be connected to one or more lane extraction areas 45 in the middle of the y-axis direction.
  • the recognition unit 26 recognizes the lane boundary line of the curve based on the joining of the detection straight lines in STEP 40. That is, the lane boundary line 77 corresponding to the center lane mark 31 of the broken-line lane mark is recognized from the connection of the left detection straight lines 76a, 76b, and 76e on the left side. Further, the lane boundary line 80 corresponding to the right lane mark 33 of the continuous linear lane mark is recognized from the joining of the right detection straight lines 79a to 79e on the right side.
  • FIG. 15 is an explanatory diagram of an improved example of the local straight line direction calculation processing by the lane recognition device 20 (FIG. 2) described in relation to FIG.
  • the improved example can also be applied to the lane recognition device 65 (FIG. 7) by replacing the linear element extraction image 40 of FIG. 15 with the projective transformation image 70 of FIG.
  • the number of sections of the inclination angle ⁇ for the local region 47 in one lane extraction area 45 is changed according to the y coordinate of the local region 47. Therefore, according to the above (3), the number of sections of ⁇ also changes according to the y coordinate of the local region 47.
  • the y coordinate of the local region 47 is a predetermined point in the local region 47, for example, the y coordinate of the center point, as described above. In the linear element extraction image 40, the information amount of one pixel increases in the upper local region 47, and thus the directional resolution decreases.
  • corresponding to the local straight line of the local region 47 (eg, the two lower local regions 47 in FIG. 15) corresponding to the position of the vehicle 10 up to 40 m in the real space.
  • the number of sections is 32, and the number of sections of ⁇ associated with the local straight line of the local region 47 (eg, the top local region 47 in FIG. 15) corresponding to a position exceeding 40 m is 16.
  • the first detection method as described with reference to FIG. 12, one for each division form (one division form is counted for each different number of divisions), that is, for each lane extraction area portion of the same division form.
  • One voting space 56 is defined, and a detection straight line is detected for each lane extraction area portion of the same section form. In that case, lane boundary lines in one lane extraction area 45 are recognized by connecting the detection straight lines in the y-axis direction.
  • the second detection method of the detection straight line defines one voting space 56 regardless of the number of sections of ⁇ .
  • one vote is voted for the coordinates of the voting space 56 corresponding to the ⁇ for the local straight line of the local region 47 in which ⁇ is represented by 32 sections.
  • a local straight line in the local region 47 in which ⁇ is represented by 16 sections a total of two coordinates corresponding to the ⁇ , a coordinate of the voting space 56 and a discrete value coordinate one above or below it, One half of each vote, which is equalized, is voted.
  • the coordinates of the voting space 56 and the coordinates of discrete values one above and below that correspond to ⁇ . 1/3 votes obtained by equalizing one vote may be voted on three coordinates in total.
  • one vote is assigned to one local area 47 regardless of the number of sections of ⁇ , and one vote is divided according to the number of sections for the local area 47 in the section form with a small number of sections.
  • the value is reduced by, and distributed to a plurality of corresponding coordinates.
  • vote (vx, ⁇ ) in the voting space 56 is calculated, and a detection straight line corresponding to the maximum value vote (vx, ⁇ ) is detected.
  • FIG. 16 is a block diagram of still another lane recognition device 100.
  • the lane recognition device 100 includes an area specifying unit 101, a data saving unit 102, a voting overlay unit 103, and a straight line detection unit 104 in place of the voting processing unit 24 and the straight line detection unit 25 of the lane recognition device 20.
  • FIG. 17 is a flowchart of a lane recognition method performed by the lane recognition apparatus 100.
  • the same STEP number as the STEP number given to the STEP having the same processing content in the flowchart of FIG. 3 is assigned to the STEP having the same processing content as the STEP of the flowchart of FIG. ing.
  • STEPs 51 to 54 are added after STEP 14 of the flowchart of FIG. STEPs 51, 52, 53, and 54 are executed by the area specifying unit 101, the data saving unit 102, the voting overlay unit 103, and the straight line detecting unit 104, respectively.
  • the lane recognition device 20 of FIG. 2 recognizes the lane boundary lines of the road 29 individually for one voting space 56 illustrated on the left side of FIG.
  • the lane recognition device 100 in FIG. 16 recognizes the lane boundary line of the road 29 from the time-series n voting spaces K1 to Kn illustrated on the right side of FIG.
  • the generation time interval between adjacent voting spaces is approximately equal to the imaging time interval of the captured image 30.
  • the voting spaces K1 to Kn are in the order of the capturing time of the original captured image 30.
  • the lane recognition device 100 updates the recognition of the lane boundary line of the road 29 every time a new captured image 30 is generated. Therefore, the lane recognition device 20 updates the recognition of the lane boundary line.
  • the interval is the same as the imaging interval of the captured image 30.
  • the update interval for the recognition of the lane boundary line by the lane recognition device 100 can be appropriately increased by making it an integer (an integer of 2 or more) times the generation interval of the captured image 30.
  • the area specifying unit 101 narrows down the area on the voting space 56 based on the voting result in the voting space 56 as a result of the processing in STEP 14.
  • the maximum vote number vote (vx, ⁇ ) that does not reach the threshold W1 (W1> 1) is considered not a lane mark-derived vote but a temporary noise-derived vote. .
  • the maximum vote number vote (vx, ⁇ ) that does not reach the threshold value W1 (W1> 1) is a coordinate area as a voting area that spreads in the shape of the base, that is, the area in FIG.
  • the vote number vote (vx, ⁇ ) of all coordinates included in B is cleared (set to 0). Instead of clearing the vote number vote (vx, ⁇ ), the vote number vote (vx, ⁇ ) can be decreased by an appropriate amount.
  • the vote number vote (vx, ⁇ ) is maintained as it is without clearing the coordinate area where the maximum vote number vote (vx, ⁇ ) is equal to or greater than the threshold value W1, that is, the area A in FIG. .
  • W1 is typically equal to or less than the threshold value V1 described in relation to STEP 14 in FIG. 3, but may be set to a value larger than the threshold value V1, or a driving situation (eg, vehicle speed, weather, time zone, or road curvature). It can be made variable depending on the situation.
  • the data saving unit 102 saves the data in the voting space 56 after processing by the area specifying unit 101 to a predetermined memory.
  • the data of the voting space 56 processed by the area specifying unit 101 is data of the number of votes vote (vx, ⁇ ) for only the area A of the detected straight line in the single linear element extraction image 40.
  • One linear element extraction image 40 corresponds to one linear element extraction image 40.
  • the number of linear element extraction images 40 in which the vote number vote (vx, ⁇ ) is saved in the predetermined memory is limited to a predetermined number (for example, n described above), and the number of saved linear element extraction images 40 is already present. When the predetermined number has been reached, the data of the oldest linear element extraction image 40 can be replaced with the data of the latest linear element extraction image 40 to save necessary memory capacity.
  • time-series voting spaces K1 to Kn are generated as illustrated on the right side of FIG.
  • the range in the y-axis direction of the lane extraction area 45 defined in each linear element extraction image 40 is the same regardless of the linear element extraction image 40. Therefore, the vehicle front-rear direction lengths of the real spaces associated with the y-axis dimensions of the lane extraction areas 45 of the voting spaces K1 to Kn are equal if the vehicle speeds are the same.
  • the processing performed by the voting superimposing unit 103 in STEP 53 and the processing performed by the straight line detecting unit 104 in STEP 54 are not individual processing for the voting space 56 derived from each linear element extraction image 40, but time-sequential n linear shapes. This is processing for the total voting space set for the voting spaces K1 to Kn derived from the element extraction image 40.
  • the voting superposition unit 103 superimposes the voting spaces K1 to Kn defined for the time-series linear element extraction images 40. Specifically, the overlapping of the voting spaces K1 to Kn is to generate a total voting space described with reference to FIG.
  • the number n of the voting spaces K1 to Kn in each time series is typically fixed regardless of the traveling state of the vehicle 10, but can be adjusted according to the vehicle speed and the curvature of the road 29. Since the time interval of the linear element extraction image 40 is constant, the number n can be reduced as the vehicle speed increases, and the lane boundary line recognition update interval can be shortened. Further, the number n can be decreased as the vehicle travels on the road 29 with a large change in curvature so that a lane boundary line having a change in the curvature of the road 29 can be recognized quickly.
  • FIG. 19B shows a specific example of the total voting space generated as a result of the processing by the voting superposition unit 103 in STEP53.
  • vote (vx, ⁇ ) in the total voting space is represented by t-vote (vx, ⁇ ) in order to distinguish it from individual votes (vx, ⁇ ). Note that “t” was used to mean total.
  • t-vote (vx, ⁇ ) is the vote (vx, ⁇ ) of the plurality of linear element extraction images 40 (time-series voting spaces) temporarily saved in a predetermined memory by the data saving unit 102 or in STEP 52. ⁇ ). That is, t-vote (vx, ⁇ ) excludes vote (vx, ⁇ ) of noise area B in FIG. 19A and narrows down to vote (vx, ⁇ ) of area A. This is a total value of vote (vx, ⁇ ) in time-series voting spaces K1 to Kn with respect to vote (vx, ⁇ ).
  • the real spaces associated with the voting spaces K1 to Kn are not in the same range, and as the vehicle 10 travels, the vehicle travels in the vehicle traveling direction little by little depending on the vehicle speed. It is to change to the range. Accordingly, the position and direction of the real space associated with the coordinates (vx, ⁇ ) in the voting spaces K1 to Kn are shifted between the voting spaces K1 to Kn.
  • the real space associated with the voting spaces K1 to Kn is the same in the relative area to the vehicle 10, but is based on the earliest voting space K1 in terms of time.
  • the captured image 30 from which the voting space K1 is derived is gradually shifted with respect to the x-axis direction and the y-axis direction.
  • the xy coordinates of the linear element extraction image 40 from which the voting space other than the reference voting space in the time series is derived are converted into the reference coordinates of the reference voting space, and the same coordinates are actualized among the n voting spaces in the time series. Correspond to the same position in the space.
  • (vx, ⁇ ) is calculated as the xy coordinates after conversion into the xy coordinates of the reference voting space, and voting is performed on (vx, ⁇ ) of each voting space, and t-vote (vx, ⁇ ) of the total voting space. Get.
  • the vehicle speed and the turning angular velocity of the vehicle 10 are used as calculation factors in the conversion formula for converting the xy coordinates of the linear element extraction image 40 into the reference coordinates of the reference voting space.
  • the straight line detection unit 104 detects a detection straight line based on the voting result in the total voting space.
  • the recognition unit 26 recognizes the lane boundary line based on the detected straight line detected by the straight line detection unit 104. Next, a specific method of detecting the detection straight line by the straight line detection unit 104 will be described.
  • the straight line detection unit 104 sets a threshold value W2 (W2> W1) in the total voting space, and with respect to coordinates (vx, ⁇ ) where t-vote (vx, ⁇ ) is equal to or greater than the threshold value W2 and is a maximum value. Then, a straight line having an x intersection point and an inclination angle ⁇ respectively associated with vx and ⁇ is detected as a detection straight line.
  • the maximum value is higher in the total voting space for t-vote (vx, ⁇ ). It is also possible to limit the coordinates of the maximum value t-vote (vx, ⁇ ) included in the number, and to set only the straight line associated with the limited coordinates as the detection straight line.
  • the straight line detection unit 104 can further perform the following processing.
  • a front linear element extraction image 40 and a rear linear element extraction image 40 that are temporally changed in time series are defined.
  • the previous linear element extraction image 40 and the rear linear element extraction image 40 may not be adjacent linear element extraction images 40 in time series.
  • the distance L on the voting space 56 from the back coordinate (vx, ⁇ ) where the number of votes is maximal (instead of the distance L, a distance in real space conversion of the distance L may be used).
  • the vote number vote (vx, ⁇ ) of the previous coordinate (vx, ⁇ ) in the voting space 56 of the previous linear element extraction image 40 is cleared.
  • the number of votes of the coordinate corresponding to the previous coordinate (vx, ⁇ ) is greatly reduced.
  • the vote derived from noise tends to appear intermittently or once in the time-series captured image 30. Therefore, even if there is a local coordinate with the maximum value that is equal to or greater than W1 in the voting space 56 derived from one linear element extraction image 40, if the vote is derived from noise, In particular, in the voting space 56 derived from the linear element extraction image 40 behind it, there is a strong tendency that local coordinates do not appear if the number of votes is W1 or more within a predetermined distance from the rear coordinates. Therefore, in such a case, a detection straight line derived from noise is detected by excluding the number of votes of the previous coordinates (vx, ⁇ ) of the previous linear element extraction image 40 from the total in the total vote space. Can be suppressed.
  • the lane recognition device of the present invention is installed in an automobile and detects the position of the road or lane on which the automobile is running. Moreover, based on the road and lane detected according to the lane recognition apparatus of the present invention, it can be used for various controls such as collision avoidance with a predetermined object on the road and automatic traveling.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

 撮像画像を処理した線状要素抽出画像からレーンマーク由来の線状要素を的確に抽出して、レーン境界線を認識することができるレーン認識装置を提供する。線状要素抽出画像40内に設定したレーン抽出エリア45に対し、各線状要素が1つ又は複数の所定寸法の局所領域47に含まれるように、局所領域47を設定し、各局所領域47の局所直線44を決定する。各局所直線44について方向及び所定の基準水平線46とのx交点に関連するvx,ψを算出する。各局所直線44を1票として、投票空間56の(vx,ψ)に投票する。投票結果に基いて方向及びx交点を決めた検出直線からレーン境界線を認識する。

Description

レーン認識装置
 本発明は、撮像装置により撮影した車両前方の撮像画像に基いてレーンを認識するレーン認識装置に関する。
 運転支援のために、車両に撮像装置を搭載して、車両前方の道路状況を撮影し、その撮像画像からレーンマークを画像処理により検出することが行われている。従来のレーンマーク検出用の画像処理として、Hough変換を利用したものが知られている。
 特許文献1は、Hough変換とは別の方式により車両前方の撮像画像からレーンマーク(車線表示ライン)を検出する道路形状推定装置を開示している。該道路形状推定装置は、車線表示ラインが含まれるように複数の台形型ウィンドウを撮像画像内に設定するとともに、エッジ抽出処理により撮像画像内のエッジ点を検出する。次に、該道路形状推定装置は、各ウィンドウの上底の一点と下底の一点と(車線方向へ向かい合う2点)を両端とする全部の線分について、該線分上のエッジ点の個数を調べ、エッジ点が最大数の線分を該ウィンドウの検出直線として検出する。そして、該道路形状推定装置は、自車走行車線への隣接車線からの車両の割り込みのあるウィンドウであるか否かを、該ウィンドウの検出直線のエッジ点数が閾値以上であるか否かに基いて判断し、車両割り込みのないにウィンドウに絞り込んで、撮像画像全体の車線表示ラインを検出する。
特許第3721594号公報
 Hough変換による撮像画像からのレーンマーク抽出では、(a)演算負荷が大きいこと、(b)点情報に基づくためノイズを拾い易いこと、及び(c)カーブ路(曲線路)を検出できないことという問題がある。
 特許文献1の道路形状推定装置は、検出直線上のエッジ点の個数と所定の閾値との対比により、各ウィンドウの検出直線が割り込み車両に起因するときには、該検出直線をレーン境界線の認識対象から適切に排除することができる。しかし、該道路形状推定装置では、検出直線が、割り込み車両以外でかつレーンマーク以外のものに由来しているときには、そのことを識別して、該検出直線をレーン境界線の認識対象から排除することは難しい。
 本発明の目的は、非レーンマーク由来の線状要素とレーンマーク由来の線状要素とが混在している線状要素抽出画像からレーンマーク由来の線状要素を的確に抽出して、レーン境界線を認識することができるレーン認識装置を提供することである。
 かかる目的を達成するために、本発明のレーン認識装置は、撮像装置による車両前方の撮像画像に基いてレーンを認識するレーン認識装置であって、前記撮像画像に含まれる線状要素を抽出した線状要素抽出画像を生成する線状要素抽出画像生成部と、前記線状要素抽出画像において垂直方向所定範囲のレーン抽出エリアを設定するエリア設定部と、前記レーン抽出エリア内の各局所領域に対し各局所領域内の線状要素部分に基づいて各局所領域の局所直線を決定する局所直線決定部と、各局所直線と垂直方向所定位置の基準水平線との交点を算出する交点算出部と、方向及び交点を座標成分とする投票空間において、各局所直線の方向と交点とを投票する投票部と、前記投票空間における投票結果に基いて検出直線を検出する検出部と、前記検出直線に基いてレーン境界線を認識する認識部とを備えることを特徴とする(第1発明)。
 第1発明によれば、各局所領域から決定された各局所直線について、方向と、基準水平線との交点とが算出され、投票空間において各局所直線の方向と交点とが投票される。ここで、道路に連続して敷設されるレーンマーク由来の局所直線の方向及び交点に対応付けられる投票空間上の座標には、道路に局所的に存在する他車両等の非レーンマーク由来の局所直線の方向及び交点に対応付けられる投票空間上の座標よりも投票が集まる。したがって、両者の投票数の差が顕著となるので、非レーンマーク由来の線状要素を的確に排除して、レーン境界線を認識することができる。
 第1発明において、好ましくは、前記エリア設定部は、前記線状要素抽出画像を垂直方向に複数のレーン抽出エリアに分割し、前記投票部は、各レーン抽出エリアに対応付けられている各投票空間に対し、当該投票空間に対応するレーン抽出エリアの各局所直線に基いて投票し、前記検出部は、各投票空間の投票結果に基いて各レーン抽出エリアごとの検出直線を検出し、前記認識部は、各レーン抽出エリアの検出直線のつなぎ合わせに基いて線状要素抽出画像内のレーン境界線を認識する(第2発明)。
 第2発明によれば、垂直方向の各レーン抽出エリアの検出直線の垂直方向のつなぎ合わせにより、曲線のレーン境界線を的確に認識することができる。
 第2発明において、好ましくは、前記エリア設定部は、垂直方向の上側のレーン抽出エリアほど、その垂直方向寸法が小さくなるように、前記線状要素抽出画像を垂直方向に複数のレーン抽出エリアに分割する(第3発明)。
 撮像画像では、その垂直方向上側の範囲ほど、該範囲における隣接画素点間の長さに対応する実空間上の長さが増大する。第3発明によれば、垂直方向の上側のレーン抽出エリアほど、その垂直方向寸法を小さくすることで、垂直方向寸法が等しい複数のレーン抽出エリアに分割する場合に比して、検出直線の垂直方向つなぎ合わせにおける各検出直線に対応付けられる実空間上の距離が均一化され、つなぎ合わせ後の検出直線の各部位の精度を均一化することができる。
 第2発明において、好ましくは、前記局所直線決定部は、所定範囲の方向を第1所定数の方向区分に分割して、各局所直線の方向を、該当するいずれかの方向区分に割り当てて決定し、前記交点算出部は、前記基準水平線を第2所定数の位置区分に分割して、各局所直線と前記基準水平線との交点を、該当する位置区分としての交点区分に割り当てて決定し、前記投票部は、前記投票空間に定義する方向及び交点の座標成分を、前記方向区分及び交点区分に一致させる(第4発明)。
 第4発明によれば、投票部が定義する投票空間の方向及び交点の座標成分が、局所直線の方向及び交点について定義されている第1及び第2所定数の方向区分及び交点区分に一致させられることにより、局所直線の方向区分及び交点区分と投票空間の方向及び交点の座標成分との整合が図られる。この結果、所望の検出精度の検出直線を検出する処理負荷の軽減を図ることができる。
 第4発明において、好ましくは、前記第1所定数又は前記第2所定数は、上側のレーン抽出エリアでは、下側のレーン抽出エリアよりも小さく設定されている(第5発明)。
 上側のレーン抽出エリアの画像は、対応する実空間上の位置までの自車両からの距離が、下側のレーン抽出エリアの画像よりも遠くなっているので、上側のレーン抽出エリアの画像から検出できる実空間の位置の差異の精度は、下側のレーン抽出エリアから検出できる実空間の位置の差異の精度よりも低くなる。第5発明によれば、第1所定数又は第2所定数は、上側のレーン抽出エリアでは、下側のレーン抽出エリアよりも小さく設定されることにより、各画像からの実空間の位置の検出精度に応じた粗さで局所直線について方向又は交点についての算出処理が行われる。この結果、方向又は交点について検出精度の低いレーン抽出エリアに対して必要以上に高精度で処理する無駄を排除することができる。
 第4発明において、好ましくは、前記第1所定数又は前記第2所定数は、同一のレーン抽出エリア内で、上側の局所領域では下側の局所領域よりも小さく設定されている(第6発明)。
 上側の局所領域の画像は、対応する実空間上の位置までの自車両からの距離が、下側の局所領域の画像よりも遠くなっているので、上側の局所領域の画像から検出できる実空間の位置の差異の精度は、下側の局所領域から検出できる実空間の位置の差異の精度よりも低くなる。第6発明によれば、第1所定数又は第2所定数は、上側の局所領域では、下側の局所領域よりも小さく設定されることにより、各画像からの実空間の位置の検出精度に応じた粗さで局所直線について方向又は交点についての算出処理が行われる。この結果、方向又は交点について検出精度の局所領域に対して必要以上に高精度で処理する無駄を排除することができる。
 第1発明において、好ましくは、前記検出部は、前記投票空間において投票数が極大である座標に対応付けられる方向及び交点をもつ直線を検出直線として検出する(第7発明)。
 第7発明によれば、投票空間において投票数と所定の閾値との対比ではなく、投票数の極大に基いて検出直線を検出することにより、破線型レーンマークと連続線型レーンマークとの線状要素が混在する線状要素抽出画像からもレーンマーク由来の検出直線を的確に検出することができる。
 第1発明において、好ましくは、前記撮像画像の水平方向は実空間における車両の左右方向に相当し、前記認識部は、時系列の線状要素抽出画像に基いて検出直線が前記線状要素抽出画像上で水平方向へ閾値以上の速度で変化していると判断したときは、レーン境界線がカーブしていると認識する(第8発明)。
 第8発明によれば、検出直線の水平方向速度からレーンがカーブであることを的確に認識することができる。
 第1発明において、好ましくは、前記線状要素抽出画像生成部は、前記撮像画像に含まれる線状要素を抽出した第1中間抽出画像を生成する中間抽出画像生成部と、該第1中間抽出画像に含まれる各線状要素を、その水平方向幅又は傾斜角度の垂直方向における変化に基づいて1つ又は複数の線分に置換することにより、前記第1中間抽出画像から前記線状要素抽出画像を生成する線分置換部とを備える(第9発明)。
 カーブ走行時では、レーン境界線が曲線となるため、1つのレーン境界線に対してレーン抽出エリア内の複数の局所領域の局所直線の方向及び交点が分散する。このような分散は、投票先の投票空間の座標を分散させて、投票による検出直線の検出を難しくする原因になる。第9発明によれば、前記中間抽出画像生成部が、撮像画像に含まれる線状要素を抽出した第1中間抽出画像を生成し、前記線分置換部が、該第1中間抽出画像に含まれる各線状要素を、その水平方向幅又は傾斜角度の垂直方向における変化に基づいて、1つ又は複数の線分に置換して線状要素抽出画像を生成する。この結果、局所直線決定部は、曲線状の線状要素が置き換えられた線分に基づいて局所直線を決定することになるので、投票空間における投票先の分散が抑制される。そのため、前記検出部は投票空間の投票結果に基いて検出直線を円滑に検出することができる。
 第9発明において、好ましくは、前記中間抽出画像生成部は、前記撮像画像に含まれる線状要素を、前記撮像画像における位置と同一位置に保持しつつ前記撮像画像から抽出した第2中間抽出画像を生成し、該第2中間抽出画像を上方視の画像に射影変換して前記第1中間抽出画像を生成する(第10発明)。
 第10発明によれば、第2中間抽出画像を、上方視の画像に射影変換した第1中間抽出画像を生成することにより、第1中間抽出画像上の線状要素の形状は、車両からの遠近による形状歪みが解消され、実空間における形状に近いものになる。この結果、各線状要素を適切な線分に置換して、置換した線分に基づいて決定される局所直線の正確化を図ることができる。
 第1発明において、好ましくは、前記投票部は、時系列の撮像画像に対応付けて生成された時系列の前記線状要素抽出画像に対して設定された時系列のレーン抽出エリアごとに前記投票空間を設定して、時系列の各投票空間ごとに、当該投票空間が設定されたレーン抽出エリアにおける各局所領域の局所直線の方向と交点とを投票し、前記検出部は、時系列の投票空間の投票結果に基づいて検出直線を検出する(第11発明)。
 第11発明によれば、線状要素抽出画像におけるレーンマーク由来の線状要素は、時系列の線状要素抽出画像において出現の継続性が高いのに対し、線状要素抽出画像における非レーンマーク由来の線状要素は、時系列の線状要素抽出画像において出現の継続性が低い。したがって、時系列の線状要素抽出画像に対して設定された時系列のレーン抽出エリアごとに投票空間を設定して、時系列の各投票空間ごとに、各局所領域の局所直線に対応付けられる座標に投票して、時系列の投票空間の投票結果に基づいて検出直線を検出することにより、レーンマークに対応する検出直線の検出精度を高めることができる。
 第11発明において、好ましくは、前記検出部は、各座標の投票数が、時系列の各投票空間における対応座標の投票数を合計した合計値となる合計投票空間を作成し、合計投票空間において投票数が極大となっている座標に基づいて前記検出直線を検出する(第12発明)。
 第12発明によれば、線状要素抽出画像におけるレーンマーク由来の線状要素は、時系列の線状要素抽出画像において出現の継続性が高いので、合計投票空間においてレーンマークに対応する座標の投票数は、一時的なノイズ等に対応する座標の投票数より大幅に大きくなる。また、合計投票空間において、レーンマークに対応する座標の投票数は、その周囲の座標の投票数より大となって、投票数に関してレーンマークに対応する座標の投票数は極大となっている。そのため、合計投票空間において投票数が極大となっている座標に基づいて検出直線を検出することにより、レーンマークに対応する検出直線の検出精度を高めることができる。
 第12発明において、好ましくは、前記検出部は、各投票空間において投票数が閾値未満である座標については該投票数を減少させてから、時系列の各投票空間の各座標の投票数を合計する(第13発明)。
 各投票空間において、ノイズ等に対応する座標の投票数は、レーンマークに対応する座標の投票数に比して小さい。しかしながら、各投票空間の各座標の投票が蓄積される合計空間では、無視できない投票数に達することがある。第13発明によれば、これに対処して、前記検出部は、各投票空間において投票数が閾値未満である座標については該投票数を減少させてから、時系列の各投票空間の各座標の投票数を合計する。これにより、合計投票空間では、ノイズ由来の投票数はレーンマーク由来の投票数に対して十分に小さい値となり、合計投票空間からノイズ由来の検出直線が検出されることを抑制することができる。
 第13発明において、好ましくは、前記検出部は、時系列上の別時刻の第1及び第2投票空間の投票結果を対比し、第1投票空間において投票数が極大となっている座標から所定の距離範囲内の座標が第2投票空間では投票数が極大になっていないときは、第1投票空間における該座標の投票数は合計投票空間における合計から除外する(第14発明)。
 ノイズ等の非レーンマーク由来の線状要素は、時系列の直線要素抽出画像における連続的な出現性が低い。そのため、時系列上の別時刻の第1及び第2投票空間の投票結果を対比した場合、第1投票空間において投票数が極大となっている座標から所定の距離範囲内の座標が第2投票空間において投票数が極大になっていないことが多い。第14発明によれば、第1投票空間の第1座標から所定の距離範囲内の第2座標の投票数が第2投票空間では極大になっていないときに、第1投票空間における該第1座標の投票数は合計投票空間における合計から除外することにより、ノイズ等に由来する検出直線が合計投票空間から検出されてしまうのを防止することができる。
車両走行支援装置を搭載する車両の模式図。 車両走行支援装置が装備するレーン認識装置のブロック図。 図2のレーン認識装置が実施するレーン認識方法についてのフローチャート。 撮像画像及びその線状要素抽出画像を上下に並べて示す図。 投票空間の模式図。 各座標における投票数を高さにして投票空間を三次元形態で示した図。 別のレーン認識装置のブロック図。 図7の別のレーン認識装置が実施するレーン認識方法についてのフローチャート。 線分置換部による線分置換処理の説明図。 線状要素抽出画像を射影変化した射影変換画像を示す図。 曲線のレーン境界線についての別の認識方法のフローチャート。 図11の別の認識方法におけるレーン抽出エリアについての説明図。 図11の別の認識方法における各レーン抽出エリアごとに生成される複数の投票空間を示す図。 図11の別の認識方法において各レーン抽出エリアから検出される検出直線を示す図。 1つのレーン抽出エリア内で局所領域の位置に応じて局所直線の方向の区分数を調整することについての説明図。 さらに別のレーン認識装置のブロック図。 図16のレーン認識装置が実施するレーン認識方法についてのフローチャート。 時系列の投票空間についての説明図。 図16のレーン認識装置による投票空間に対する処理の説明図。
 図1に示されている車両(四輪自動車)10には、CCDカメラ、CMOSイメージセンサや近赤外線カメラ等のカメラ(撮像装置)11と、車両走行支援装置12とが搭載されている。カメラ11は車両10の前方の様子をフロントウィンドウ越しに撮影するように車内空間に取り付けられている。なお、カメラ11の配置箇所は車両10のダッシュボードの上又はフロント部分等に適宜変更されてもよい。
 図2において、車両走行支援装置12に装備されるレーン認識装置20は、撮像画像メモリ21、線状要素抽出画像処理部22、分解能決定部23、投票処理部24、直線検出部25及び認識部26を備える。
 線状要素抽出画像処理部22は、本発明における線状要素抽出画像生成部、エリア設定部、局所直線決定部及び交点算出部に相当する。投票処理部24は本発明における投票部に相当する。直線検出部25は本発明における検出部に相当する。
 レーン認識装置20は、演算用メモリやプログラム格納用メモリを装備するコンピュータ(図示せず)を含み、線状要素抽出画像処理部22、分解能決定部23、投票処理部24、直線検出部25及び認識部26の各機能をコンピュータにおけるソフトウェアの情報処理により実現する。なお、後述のレーン認識装置65(図7),100(図16)において、それらを構成する各部の機能も、コンピュータにおけるソフトウェアの情報処理により実現される。
 図3は、レーン認識装置20が実施するレーン認識方法のフローチャートである。図3のフローチャートを参照しつつ、レーン認識装置20の作動について説明する。
 本発明における線状要素抽出画像生成部の処理はSTEP12の処理に相当する。本発明におけるエリア設定部、局所直線決定部及び交点算出部の処理はSTEP13の処理に相当する。本発明における投票部の処理はSTEP14の処理に相当する。本発明における検出部の処理はSTEP15の処理に相当する。
 STEP11では、レーン認識装置20は、撮像画像30のデータを撮像画像メモリ21に記憶する。撮像画像30について図4を参照して説明する。なお、図4並びに後述の図9、図12、図14及び図15の撮像画像30及びその線状要素抽出画像40において、水平方向(横軸方向又は左右方向)をx軸方向、垂直方向(上下方向又は縦軸方向)をy軸方向とし、原点は、処理の便宜上、各矩形画像の左下の頂点と定義する。x軸方向は実空間における車両10の左右方向に相当する。y軸は実空間における車両10の進行方向及び垂直方向に相当する。したがって、実空間において車両10の前方へ車両10から遠方の箇所ほど、及び上下方向へ上方の箇所ほど、y軸方向へ上の位置になる。この例では、車両10は右側のレーンを走行している。
 図4において、上半部はカメラ11が車両10の前方を撮影した撮像画像30であり、下半部は撮像画像30に対しエッジ処理等の線状要素抽出処理を行って生成した線状要素抽出画像40である。カメラ11は車両10の前方の撮像画像30を一定時間間隔で出力する。各撮像画像30は1つのフレームに相当する。線状要素抽出画像40における各線状要素は、撮像画像30から抽出された画素点の集合から成り、具体的には、線状要素抽出画像40に分布する抽出画素点の内、線状に高密度で又は連続して集まった複数の抽出画素点の領域となっている。
 撮像画像30には、車両10が現在走行している道路29について、自車から見て左側から右側へ順番に左レーンマーク32、中央レーンマーク31及び右レーンマーク33が撮像されている。この例では、中央レーンマーク31は破線型であるのに対し、左右のレーンマーク32,33は連続線型になっている。この撮像画像30には、さらに、複数の木立ちの幹35が、道路29の右側において道路29に沿って撮像されている。
 STEP12では、線状要素抽出画像処理部22は、撮像画像30からエッジ又はレーンマークを抽出する。具体的には、撮像画像30に対してエッジ処理やレーンマーク抽出処理を行って、線状要素抽出画像40を生成する。エッジ処理の具体例では、撮像画像30の各座標G(x,y)に対して例えばSobelオペレータによりフィルタ処理してx軸方向の一次微分を求め、その値Sx(x,y)をG(x,y)の濃度値とする。次に閾値CsとSx(x,y)とを対比し、Sx(x,y)>Csである画素点を抽出し、この画素点をエッジ点と判断し、該画素点を背景色とは別の色で表示したものが線状要素抽出画像40とされる。
 レーンマーク抽出処理の具体例では、撮像画像30から白色(レーンマークの色)の画素点のみを抽出するか、輝度が所定の閾値以上となっている画素点を抽出し、こうして抽出した画素点を背景色(例:黒)と別色(例:白)で表示したものが線状要素抽出画像40とされる。
 線状要素抽出画像40では、撮像画像30の中央レーンマーク31及び右レーンマーク33はそれぞれ線状要素41,42として抽出される。線状要素抽出画像40の複数の線状要素55は、撮像画像30において遠景に含まれている木立ちの幹35に相当するものである。レーン抽出エリア45は、線状要素抽出画像40においてy軸方向所定寸法の範囲として設定されている。レーン抽出エリア45のy軸方向寸法は、固定したものとせず、車両10の運転状況や走行状況等により適宜調整することができる。道路29が直線路の場合には、撮像画像30には、例えば車両10の前方、数mから数十mまでの道路範囲が撮影されるように、カメラ11の向き等の各種調整が行われている。
 基準水平線46は、線状要素抽出画像40内においてレーン抽出エリア45の上辺より上のy軸方向位置に設定され、x軸に対して平行に延在している。なお、基準水平線46はレーン抽出エリア45内に設定することもできるし、演算処理上は、線状要素抽出画像40外の、例えば線状要素抽出画像40の上辺より上に設定することもできる。
 複数の局所領域47は、相互に重ならないように、また各線状要素を含む範囲では相互に隣接するように、レーン抽出エリア45内に設定される。なお、局所領域47は、前述の特許文献1のウィンドウに相当する。図4の例では、局所領域47は、相互に合同の矩形輪郭となっているが、矩形以外の形状にしたり、各局所領域47に対して後述の投票空間56(図5)への1票の投票権を割り当てつつ、局所領域47ごとに形状や寸法を異ならせることもできる。
 局所領域47は、レーン抽出エリア45の全面にわたり密に分布させることも可能であるが、典型的には、局所領域47は、レーン抽出エリア45内において、各線状要素の部位に絞って、かつ各線状要素が1以上の局所領域47に完全に覆われるように設定する。線状要素の存在しない範囲への局所領域47の設定は省略する。なお、局所領域47をレーン抽出エリア45の全面にわたり格子状に分布させる場合に、線状要素部分が含まれないために後述の局所直線54が抽出できない局所領域47に対しては、後述の投票空間56への投票権を0票、すなわち投票権無しにする。なお、局所直線54が抽出できた局所領域47は投票空間56への投票権はこの実施例では1票である。
 図4には、局所領域47が線状要素41に対して2つしか図示されていないが、実際の処理では、局所領域47はレーン抽出エリア45内において線状要素41の他の部位や線状要素42の部位にも設定される。目標検出線分51,52,53は、レーン抽出エリア45内の線状要素41,42,43の各部位からの検出が望まれる検出直線部分に相当し、直線検出部25が検出すべき理想の検出直線として参考に示している。線状要素55は、レーン抽出エリア45の外に存在しており、レーン抽出エリア45に対する後述の局所直線決定処理の対象から外される。また、目標検出線分53は、後述するように、対応座標の投票数が閾値V1未満となるため、レーン抽出エリア45の検出直線から外される。
 STEP13では、線状要素抽出画像処理部22は、局所直線44を計算する。具体的には、各局所領域47に対し、その領域内の抽出画素点の分布に基いて1つの直線を局所直線44として決定する。局所直線44とは、各局所領域47を通過しているとともに、傾斜角度(後述のθ)が局所領域47内の線状要素部分の傾斜角度として該線状要素部分から抽出した傾斜角度をもつ直線と、定義される。
 各局所領域47の局所直線44は、例えば該局所領域47における各抽出画素点の座標に対し最小二乗法等を適用することにより算出することができる。例えば、ラベリングされた線状要素の内、各局所領域47内に存在する線状要素部分を構成する全画素点と直線との距離を二乗した値の合計を計算し、合計が最小となる直線を探し出し、探し出した直線が該局所領域47における局所直線44とされる。
 また、特許文献1の装置のように、局所領域47の上辺の一点と下辺の一点とを結ぶ全部の線分を考え、各線分上の抽出画素点が最大値となる線分に対し、該線分と重なる直線を該局所領域47の局所直線44とすることも可能である。
 局所直線44はx=a・y+bで表わされる。aは局所直線44の傾きと定義し、a=x軸方向増加分/y軸方向増加分である。STEP13における局所直線44の計算では、線状要素抽出画像処理部22は、前述の最小二乗法等によりaのみを最初に求め、次に、局所直線44を通す局所領域内の所定点を決めてから、bを求める。bの求め方については後述する。
 後述の投票空間56(図5)における投票処理に使用されるψに関連するθは、y軸の正方向に対して時計方向への局所直線44の傾斜角度と定義し、tanθ=aの関係がある。θは、0~πの範囲で定義され、局所直線44の「方向」に相当する。
 線状要素抽出画像処理部22は、次に、各局所直線44に対し、それが基準水平線46と交わる交点のx座標(以下、適宜「x交点」という。)を算出する。具体的な算出の仕方は次のSTEP131~133のとおりである。なお、線状要素抽出画像処理部22は、STEP131~133を図3のSTEP13のサブステップとして実行する。
 STEP131:局所直線をx=a・y+bとして、bを次の式(1)により算出する。
b=xc-a・yc・・・式(1)
ここで、(xc,yc)は、各局所直線44の生成元の局所領域47内の所定点、例えば中心点49の座標である。
 STEP132:式(1)で算出したbを使って、局所直線44と基準水平線46との交点(ux,uy)のx座標ux(x交点)を次の式(2)により算出する。
ux=a・uy+b・・・式(2)
uyは、前述のように、基準水平線46が通る所定位置のy座標として既定の値である。
 STEP133:ux,θから次の式(3)及び(4)に基づいてψ,vxを算出する。
ψ=(θ/(θについて想定される最大値))×(ψの区分数Nc)・・・(3)
vx=(ux/(uxについて想定される最大値))×(vxの区分数Nx)・・・(4)
式(3)及び(4)におけるNc,Nxは撮像画像30の注目領域の位置分解能に応じて決められる。なお、撮像画像30の注目領域の位置分解能とは、撮像画像30における当該注目領域に対応する実空間での位置の差異を当該注目領域の画像情報により識別する際の分解能をいう。撮像画像30の注目領域の位置分解能が高いほど、Nc,Nxは増大することができる。Nc,Nxはそれぞれ例えば32,64である。
 式(3)及び(4)におけるψ,vxは、1未満を切り下げられるとともに、ψ=Ncのときは、ψは1だけ減少され、vx=Nxのときは、vxは1だけ減少される。したがって、ψは[0,Nc-1]の範囲の整数により表わされ、vxは[0,Nx-1]の範囲の整数により表わされる。
 分解能決定部23は、撮像画像30の分解能に応じてNc,Nxを決定し、線状要素抽出画像処理部22へ出力する。線状要素抽出画像処理部22は、分解能決定部23からのNc,Nxに基いて各局所領域47の局所直線44のvx及びψを算出し、算出したvx及びψを各局所領域47に対応付けて線状要素抽出画像処理部22のメモリに記憶する。
 図5は投票空間56を示している。投票空間56は、横軸及び縦軸がそれぞれψ及びvxで定義されている。なお、ψは、傾斜角度θに対応付けられるので、投票空間56におけるψの軸としての横軸を方向軸と呼ぶ。また、vxは、前述の式(4)で定義したように、x交点としてのuxに対応付けられるので、投票空間56におけるvxの軸としての縦軸は交点軸と呼ぶ。
 STEP14では、投票処理部24は、線状要素抽出画像処理部22のメモリに記憶されている各局所領域47のvx及びψを参照して、参照値に基いて投票空間56への投票を行う。すなわち、各局所領域47に対して1票を割り当て、各局所領域47の局所直線44のvx及びψと一致する、投票空間56の座標(vx,ψ)に各1票を投票する。
 投票空間56における投票結果としての各座標(vx,ψ)への投票数vote(vx,ψ)は図6のように示される。投票空間56の各座標への投票数vote(vx,ψ)は図6において高さで表されている。投票数vote(vx,ψ)を高さで表わした投票空間56では、複数の山59が現れる。山59は、投票数vote(vx,ψ)が周囲に対して増大している座標領域に出現する。投票数vote(vx,ψ)の結果は、レーンマークに該当する局所直線44については通常、高さが極大値となっている座標を頂上として、その周囲に裾野が広がる山の形状となる。
 投票空間56においてvote(vx,ψ)が極大値となる座標への投票数は、レーン抽出エリア45に図示した線状要素41,42,43に対して割り振られた局所領域47の個数に十分に近くなる。
 STEP15では、直線検出部25は、投票空間56における投票結果に基いて検出直線を検出する。検出直線は、投票数vote(vx,ψ)が閾値V1以上でかつ極大値になっている座標(vx,ψ)に対し、x交点が前述の式(4)によりvxに対応付けられるuxとなり、方向が前述の式(3)によりψに対応付けられるθとなる直線とされる。なお、投票空間56において極大値が上位2個又は3個というように、上位所定数の極大値の座標(vx,ψ)であることを条件に付加して、上位所定数の座標に限定して、その座標に対応付けられる直線を検出直線とすることもできる。
 線状要素43に由来する局所直線は、投票空間56におけるvote(vx,ψ)の極大値がV1未満であるので、検出直線として検出されない。図4の線状要素抽出画像40の例では、線状要素41,42に由来する局所直線のみが線状要素抽出画像40内の2本の検出直線として投票空間56から検出される。
 認識部26は、各検出直線を撮像画像30上の中央レーンマーク31及び右レーンマーク33と認識して、車両10に対する道路29のレーン境界線の相対位置や輪郭を認識する。
 認識部26は、道路29のレーン境界線の認識とは別に、単に、車両10が走行している道路29がカーブであるか否かを判断することもできる。その具体的な判断処理について説明する。
 図3の直線のレーン境界線の認識方法では、カメラ11が撮影した各撮像画像30ごとに、図3の一連の処理が実施される。カメラ11は、一定時間間隔で車両10の前方を撮影するので、時系列の撮像画像30が得られる。認識部26は時系列の所定数の撮像画像30から車両10の現在走行中の道路が直線かカーブかを判断する。
 すなわち、認識部26は、時系列の所定数の撮像画像30から認識されるレーン境界線がx軸方向へ閾値D未満の平均速度(該平均速度は撮像画像30における平均速度であっても、実空間へ換算した平均速度であってもよい。)で移動していると判断したときは、道路29は直線であると認識する。これに対し、該レーン境界線がx軸方向へ閾値D以上の平均速度で移動していると判断したときは、道路29はカーブしていると認識する。
 図7は別のレーン認識装置65のブロック図である。図2のレーン認識装置20に関連して説明した図4の線状要素抽出画像40において、線状要素42のような曲線の線状要素については、該線状要素の領域を占める複数の局所領域47における局所直線の傾斜角度θが分散するため、投票空間56における投票が分散し、投票空間56からの線状要素42に対応付けられる検出直線の決定が困難になる。レーン認識装置65は、これに対処するため、線状要素抽出画像40の曲線の線状要素に由来する局所直線44に基づく投票が投票空間56において分散するのを抑制するようになっている。
 レーン認識装置20に対するレーン認識装置65の相違点は、レーン認識装置65は、線状要素抽出画像処理部22において中間抽出画像生成部66及び線分置換部67を備えることである。なお、中間抽出画像生成部66は、図2のレーン認識装置20の線状要素抽出画像処理部22が図3のSTEP12,13において行っていた処理の内、STEP12の処理をするものであり、レーン認識装置20の線状要素抽出画像処理部22に対して新規な処理をするものではない。すなわち、中間抽出画像生成部66は、STEP12を実施して、図4の線状要素抽出画像40を生成するだけである。
 図8は、レーン認識装置65により実施されるレーン認識方法のフローチャートである。図8のフローチャートでは、図3のフローチャートに対してSTEP21がSTEP12と13との間に追加される。図7及び図8において、図2及び図3との同一部分は説明を省略し、相違点についてのみ説明する。
 STEP21では、線分置換部67が、線状要素抽出画像40に含まれる各線状要素を、垂直方向の連結性に基づいて1つ又は複数の線分に置換する。
 STEP21における処理の具体例を、図9を参照して、説明する。図9は、図4と同様に、上半部はカメラ11が車両10の前方を撮影した撮像画像30を示し、下半部は撮像画像30に対しエッジ処理等の線状要素抽出処理を行って生成した線状要素抽出画像40を示している。
 なお、レーン認識装置65において、撮像画像30に対しエッジ処理等の線状要素抽出処理を行って生成しかつSTEP21の線分置換処理前の状態になっている線状要素抽出画像40は、本発明の中間抽出画像生成部が生成する第1中間抽出画像に相当する。また、STEP21の線分置換処理後の線状要素抽出画像40は本発明の線分置換部が生成した線状要素抽出画像に相当する。
 図9の線状要素抽出画像40では、線分置換部67による線分置換処理を説明する便宜上、撮像画像30の中央レーンマーク31及び右レーンマーク33に相当する線状要素について、符号を付け直している。図9において、線状要素41a~41cは、撮像画像30の破線型の中央レーンマーク31由来の複数の線状要素41について車両10の近い方から順番にa,b,cの添え字を付けたものである。線状要素42は連続線型の右レーンマーク33由来の線状要素である。
 図9の線状要素抽出画像40において、線状要素41a,41cは直線状の線状要素として示している。線状要素41b,42は曲線状の線状要素として示している。曲線状の線状要素について注目するために、線状要素41b,42は囲い86,88により囲っている。囲い86,88は、説明の便宜上、図9に図示しただけであり、実際の線状要素抽出画像40に存在するものではない。
 線状要素抽出画像40において、すべての線状要素は、水平画素列が垂直方向に連続する集合から構成されている。また、図9の線状要素抽出画像40では、線状要素41a~41c,42は、中央レーンマーク31及び右レーンマーク33から抽出されたものとなっている。したがって、線状要素41a~41c,42の各々を構成する水平画素列の集合は、水平方向幅及び傾斜角度について線状要素抽出画像40上で垂直方向の連続性を有している。
 垂直方向の連続性について具体的に説明すると、例えば、線状要素を構成し垂直方向へ隣接する水平方向画素列に対し、(a)両水平方向画素列の水平方向幅の差が所定の閾値以内であれば、両水平方向画素列は水平方向幅について垂直方向の連続性が有るとする。また、(b)両水平方向画素列の水平方向中心点の水平方向位置の差が所定の閾値以内であれば、両水平方向画素列は傾斜角度について垂直方向の連続性が有るとする。なお、両水平方向画素列の水平方向中心点を結ぶ直線について、図4において局所直線44について定義した傾斜角度θと同一の傾斜角度を定義することができる。
 垂直方向へ隣接する水平方向画素列同士について、垂直方向の連続性をいう場合に、両水平方向画素列だけを対比して、連続性の有無を判定する代わりに、垂直方向へ連続する所定数の水平方向画素列の群に基づいて連続性の有無を判定してもよい。具体的には、群において垂直方向へ隣接する水平方向画素列同士の全部の対について水平方向幅の差の平均値又は中心点の水平方向位置の差の平均値を算出する。そして、それら平均値が所定の閾値以内であれば、該群における全部の水平方向画素列同士は、垂直方向の連続性が有ると判定する。
 線分置換部67は、STEP21での処理の一つとして、線状要素抽出画像40内の各線状要素に対し、それを構成する水平方向画素列について垂直方向の連結性が有る垂直方向範囲の集合部分に対して、1つのラベルを付与するラベリングを行う。ここで「垂直方向の連結性」とは例えば前述の「垂直方向の連続性」のことである。前述の「垂直方向の連続性」では、傾斜角度について水平方向画素列の中心点を結ぶ直線の傾斜角度から垂直方向の連続性を判断したが、水平方向画素列の中心点に限定することなく、左端同士や右端同士を結ぶ直線の傾斜角度から垂直方向の連結性を判断することも可能である。
 線分置換部67は、STEP21において、図9の線状要素抽出画像40の線状要素41a~41c,42に対し、1つずつ識別用のラベルを付与し、置換線分85a~85c,89に置換する。なお、線分置換部67は、線状要素抽出画像40内の全部の線状要素に対してSTEP21の処理を行うことなく、線状要素抽出画像40内のレーン抽出エリア45(図4)に限定して、STEP21の処理を行って、処理負荷の軽減を図ることもできる。
 線分置換部67は、線状要素42のように、垂直方向寸法の長い湾曲線状要素に対しては、垂直方向の連結性が有る水平方向画素列の集合部分であっても、垂直方向へ所定の長さの集合部分に分割し、各分割部分ごとに別のラベルを付与して、各分割部分ごとに1つの線分に置換することもできる。後述の図10の置換線分891a~891cはこの方針に従って生成したものとなっている。
 湾曲線状要素を線分に置換する意義は、STEP14の投票処理における投票先の分散を抑制して、STEP15における直線検出を容易化するためであったが、長い湾曲線状要素を1つの置換線分に置換すると、湾曲線状要素の個々の要素部分の傾斜角度と置換線分の傾斜角度との差が増大し、STEP14における投票の分散は抑制されても、STEP15において検出する直線の方向が実空間のレーンマークの方向から大きくずれてしまう。そこで、線分置換部67は、各分割部分ごとに別のラベルを付与して、各分割部分ごとに対応の線分に置換することによりこの問題を克服している。
 線分置換部67が置換線分85a~85c,89を具体的に決める決め方について説明する。線分置換部67は、置換線分85a~85c,89の垂直方向長さを、線状要素41a~41c,42の垂直方向長さにそれぞれ等しくする。なお、図9では、置換線分89の上端を、置換線分89の由来元の線状要素42が垂直方向上方へ続いている途中であって、線状要素42の水平方向幅が所定の閾値未満になる箇所にしている。これは、レーンマークの十分に遠方の部分については、認識する意義が少ないとともに、認識処理を省略した方が処理負荷を軽減できるからである。
 線分置換部67は、置換線分85a~85c,89の幅を、置換線分85a~85c,89の由来元の線状要素41a~41c,42の幅に関係なく、等しくするとともに、両端範囲にわたり均一にする。
 線分置換部67は、各線分の由来元の線状要素が直線状の線状要素である場合には、由来先の置換線分85a,85cの傾斜角度を、由来元の線状要素の傾斜角度とする。線分置換部67は、線状要素の複数の異なる垂直方向位置における水平方向画素列に対し、下側の水平方向画素列の中心から次に下側の水平方向画素列の中心に線分を引く処理を、垂直方向下から上へ順番に繰り返す。そして、この処理による各線分の傾斜角度の変化から、当該線状要素が直線の線状要素であるか曲線の線状要素であるかを判断することができる。
 線分置換部67は、曲線状の線状要素41b,42に対しては、それらに置換する置換線分85b,89の傾斜角度を、その由来元の線状要素が各部位においてもつ傾斜角度の最大値と最小値との間の範囲の適切な傾斜角度に選定することができる。具体的には、線分置換部67は置換線分85b,89の傾斜角度を例えば次の(a)により算出する。あるいは、以下の(b)~(d)のような他の仕方により算出してもよい。次の算出の仕方は、線状要素41b,42に対して共通であるので、線状要素41bのみについて説明する。
(a)線状要素41bを構成する画素を分布点として最小二乗法により近似曲線を作成するとともに、該近似曲線の垂直方向両端は線状要素41bの垂直方向両端に一致させる。そして、該近似曲線の長さの中心点における接線の傾斜角度を置換線分85bの傾斜角度にする。
(b)上記(a)の近似曲線の両端における接線の傾斜角度の平均値を置換線分85bの傾斜角度にする。
(c)上記(a)の近似曲線上に等間隔に区分点を設定し、各区分点における接線の傾斜角度の平均値を置換線分85bの傾斜角度にする。
(d)線状要素41bの上下の端における水平方向画素列の中心画素を結ぶ線分の傾斜角度の平均値を置換線分85bの傾斜角度にする。
 線分置換部67は、線状要素とそれに置換する置換線分との位置関係については例えば次のように設定する。置換線分の垂直方向両端は線状要素の垂直方向両端に揃えられているので、置換線分の垂直方向位置は一義に決まる。置換線分の水平方向位置は、線状要素の垂直方向範囲の任意の1つ(例:垂直方向の中心点の垂直方向位置)、又は可能であれば、複数の垂直方向位置で、置換線分の幅の中心を線状要素の幅の中心に揃えたものにする。端的に言えば、置換線分の水平方向位置は、該置換線分がその少なくとも1箇所において由来元の線状要素と重なることを条件とする。
 図9では、由来元の線状要素41a~41c,42と由来先の置換線分85a~85c,89とは、水平方向に少し離れているが、これは図面において見易くするための便宜上、そのようにしたものであり、実際の処理では、由来元の線状要素41a~41c,42と由来先の置換線分85a~85c,89とは重なっている。
 レーン認識装置65は、線状要素抽出画像40の各線状要素41a~41c,42に対して置換する置換線分85a~85c,89の代わりに図10の置換線分851a~851c,891a~89cを採用することもできる。図10は中間抽出画像生成部66が線状要素抽出画像40を上方視の射影変換により生成した射影変換画像70を示している。
 線状要素抽出画像40が生成される撮像画像30は、カメラ11からの車両10の前方を見た画像となっているので、撮像画像30上の中央レーンマーク31及び右レーンマーク33等は、遠方の部位ほど、撮像画像30上の中央に寄って来たり、撮像画像30における縮小率が増加する。これは、線状要素抽出画像40上の線状要素の形状と、実空間の路面に描かれているレーンマークの形状との差異を増大させ、不的確な置換線分が設定されてしまう原因になる。
 射影変換画像70は、このように不的確な置換線分が設定されることを防止するために、生成されるものである。線状要素抽出画像40から射影変換画像70への変換は中間抽出画像生成部66がSTEP21内の処理の一部として実施する。射影変換画像70では、線状要素抽出画像40の線状要素41a~41c,42は、上方視の射影変換により、それぞれ線状要素部分411a~411c,421に変換されている。射影変換画像70における線状要素部分411a~411c,421は、車両10からの距離の相違による形状の歪みが解消されている。
 射影変換を実施するレーン認識装置65において、線状要素抽出画像40は本発明の第2中間抽出画像に相当し、各線状要素を置換線分への置換処理する前の射影変換画像70は本発明の第1中間抽出画像に相当し、各線状要素を置換線分への置換処理した後の射影変換画像70は、局所直線の決定のために局所領域を設定する、本発明の線状要素抽出画像に相当する。
 線状要素421は連続線型の右レーンマーク33由来のものであるので、線分置換部67が、線状要素421に対して、垂直方向連結性によりラベリング処理して、1つのラベルを付けて、1つの置換線分に置換すると、該置換線分の傾斜角度と線状要素421の個々の要素部分の傾斜角度との差が大きくなってしまう。これに対処するため、線分置換部67は、線状要素421に対し、中心線に沿って区切り91a~91cにより等長の複数の線状要素421a~421cに分割し、線状要素421a~421cごとにラベリングし、置換線分891a~891cに置換する。
 レーン認識装置65は、置換線分851a~851c,891a~891cに置換した射影変換画像70を線状要素抽出画像40にSTEP21において置き換えてから、置き換え後の射影変換画像70に対して図8のSTEP13以降の処理を実施する。
 次に、図11~図14を参照して、図2のレーン認識装置20によるカーブ道路におけるレーン境界線の別の認識方法について説明する。なお、図11~図14のレーン認識方法は、図2のレーン認識装置20が処理対象としている図4の線状要素抽出画像40を用いて説明しているが、レーン認識装置65(図7)が作成した図10の射影変換画像70を線状要素抽出画像40に置き換えれば、レーン認識装置65にも、図11~図14のレーン認識方法を適用することができる。
 図11~図14において、図2~図5の要素又はSTEPと同一のものについては、図2~図5の要素又はSTEPに付けた符号と同一の符号で指示する。
 図11のSTEP11~13は図3のSTEP11~13と同一の処理内容であるので、説明は省略する。STEP37では、線状要素抽出画像処理部22は、各レーン抽出エリア45の垂直方向寸法(y軸方向寸法)を設定する。具体的に述べると、図12に示すように、線状要素抽出画像40においてその所定範囲をy軸方向へ5つのレーン抽出エリア45に分割し、上側のレーン抽出エリア45ほど、y軸方向寸法を短くしている。各レーン抽出エリア45のy軸方向寸法は、それを実空間寸法に換算したしたときに、相互に等しく(例:10~15m内の所定値に)なるように、設定されている。
 各レーン抽出エリア45のy軸方向寸法は、固定したものとしてもよいが、好ましくは、車両10の走行状況(該走行状況には運転状況を含ませる。)に応じて調整する。車両10の運転開始時の各レーン抽出エリア45のy軸方向寸法の初期値としては、各レーン抽出エリア45のy軸方向寸法が、実空間において車両10の車両中心線上で例えば10mずつの長さになるように設定される。
 その後、各レーン抽出エリア45のy軸方向寸法は、車速に応じて変更される。一般的には、各レーン抽出エリア45のy軸方向寸法は、高車速時ほど増大させる。レーン抽出エリア45のy軸方向寸法の増大に伴い、レーン抽出エリア45の個数は減少させることもできる。また、各レーン抽出エリア45のy軸方向寸法は、道路29が直線である場合は最大とし、道路29の曲率の増大に連れて、減少させる。
 各レーン抽出エリア45には、処理上、上側のものから下側の方へ順番にレベル1,2,・・・,5が付けられる。図13に示すように、各レーン抽出エリア45ごとに1つの投票空間を設定する。図13の投票空間Q1~Q5は、図12のレベル1~5のレーン抽出エリア45にそれぞれ対応付けられている。レベル数値が小さいレーン抽出エリア45ほど(上側のレーン抽出エリア45ほど)、撮像画像30及び線状要素抽出画像40の注目領域の位置分解能が低下している。
 なお、線状要素抽出画像40の注目領域の位置分解能とは、前述のSTEP133の式(3)及び(4)に関連して説明した撮像画像30の注目領域の位置分解能と同様に定義する。すなわち、線状要素抽出画像40の注目領域の位置分解能とは、当該注目領域に対応する実空間での位置の差異を線状要素抽出画像40における当該注目領域の画像情報により識別する際の分解能をいう。線状要素抽出画像40の注目領域の方向分解能とは、当該注目領域に対応する実空間での方向の差異を線状要素抽出画像40における当該注目領域の画像情報により識別する際の分解能をいう。線状要素抽出画像40の注目領域の交点分解能とは、基準水平線46が当該注目領域に設定された場合に、実空間において基準水平線46に対応する直線上の位置の差異を線状要素抽出画像40における当該注目領域の画像情報により識別する際の分解能をいう。
 撮像画像30及び線状要素抽出画像40では、注目領域が車両10より遠方を映した画像部分である場合ほど、位置分解能が低下する。したがって、交点分解能及び方向分解能も、注目領域が車両10より遠方を映した画像部分である場合ほど、低下する。各線状要素抽出画像40の各画像部分の局所直線44と基準水平線46との交点に対し、当該画像部分から検出する際の検出精度であって、交点に対応する実空間の位置の検出精度は、交点分解能が低い画像部分の局所直線44に係る交点ほど低下する。各線状要素抽出画像40の各画像部分の直線(局所直線44を含む。)の方向に対し、当該画像部分から検出する際の検出精度であって、当該直線に対応する実空間の直線の方向の検出精度は、方向分解能が低い画像部分の局線の方向ほど低下する。
 線状要素抽出画像40上の各部位の位置分解能に交点分解能及び方向分解能を整合させるために、上側のレーン抽出エリア45ほど、そこの交点分解能及び方向分解能を低下させて、vx,ψを算出する。さらに、交点分解能及び方向分解能と投票空間の座標成分とを整合させるために、各投票空間Q1~Q5の座標成分の値は、該投票空間が対応しているレベルのレーン抽出エリア45の局所直線についての傾斜角度θ及びx交点の離散値に対応付けて定義される。
 STEP38では、投票処理部24は、各レーン抽出エリア45ごとに対応の投票空間Q1~Q5へ投票を行う。これにより、各投票空間Q1~Q5ごとに、投票数vote(vx,ψ)が得られる。
 STEP39では、直線検出部25は、各投票空間Q1~Q5ごとの投票数vote(vx,ψ)に基いて各レーン抽出エリア45ごとに検出直線を検出する。図14は、直線検出部25が各レーン抽出エリア45ごとに検出した検出直線を示している。投票空間Q1(=レベル1の投票空間56)では、左検出直線76a及び右検出直線79aが検出され、投票空間Q2(=レベル2の投票空間56)では、左検出直線76b及び右検出直線79bが検出され、投票空間Q3(=レベル3の投票空間56)では、右検出直線79cが検出され、投票空間Q4(=レベル4の投票空間56)では、右検出直線79dが検出され、投票空間Q5(=レベル5の投票空間56)では、左検出直線76e及び右検出直線79eが検出される。
 STEP40では、認識部26は、各レーン抽出エリア45の検出直線を、レーン抽出エリア45間でつなぎ合わせる。なお、ここでレーン抽出エリア45を越えてのつなぎ合わせには、y軸方向へ隣接するレーン抽出エリア45同士の検出直線のつなぎ合わせに限定されず、y軸方向へ途中の1以上のレーン抽出エリア45を飛び越えて行うレーン抽出エリア45間の検出直線のつなぎ合わせも含むものとする。レーンマークが中央レーンマーク31のような破線型である場合には、y軸方向へ途中の1以上のレーン抽出エリア45には、つなぎ合わせられる検出直線が存在しないことがあり得るからである。
 STEP41では、認識部26は、STEP40の検出直線のつなぎ合わせに基いてカーブのレーン境界線を認識する。すなわち、左側の左検出直線76a,76b,76eのつなぎ合わせからは破線型レーンマークの中央レーンマーク31に対応するレーン境界線77が認識される。また、右側の右検出直線79a~79eのつなぎ合わせからは連続線型レーンマークの右レーンマーク33に対応するレーン境界線80が認識される。
 図15は、図4に関連して説明した、レーン認識装置20(図2)による局所直線の方向算出処理を改良例についての説明図である。なお、該改良例は、図15の線状要素抽出画像40を図10の射影変換画像70に置き換えれば、レーン認識装置65(図7)にも適用可能である。
 図15では、1つのレーン抽出エリア45内の局所領域47について傾斜角度θの区分数を局所領域47のy座標に応じて変更している。したがって、前述の(3)により、ψの区分数も局所領域47のy座標に応じて変化する。局所領域47のy座標とは、前述したように、局所領域47内の所定点、例えば中心点のy座標である。線状要素抽出画像40では、上側の局所領域47ほど、1画素のもつ情報量は増えるので、方向分解能は低下する。
 例えば、傾斜角度θの範囲0~πについて、実空間において車両10の40mまでの位置に対応する局所領域47(例:図15において下側の2つの局所領域47)の局所直線に対応付けるψの区分数は32とし、40mを超える位置に対応する局所領域47(例:図15において一番上の局所領域47)の局所直線に対応付けるψの区分数は16とする。
 vxの区分数はy軸方向位置に関係なく固定しておき、ψのみの区分数をy軸方向位置に応じて変更して検出直線を検出することに対処する検出方式の2つの具体例を説明する。第1の検出方式では、図12に説明したように、各区分形態(区分数が異なるものごとに1つの区分形態と勘定する。)ごとに、すなわち同一区分形態のレーン抽出エリア部分ごとに1つの投票空間56を定義して、同一区分形態のレーン抽出エリア部分ごとに検出直線を検出する。その場合は、検出直線をy軸方向へつなぎ合わせて、1つのレーン抽出エリア45の中におけるレーン境界線を認識する。
 検出直線の第2の検出方式は、ψの区分数に関係なく、1つの投票空間56を定義するものである。例えば、ψが16個に区分化されている局所領域47の局所直線のψの離散値は、32個に区分化されている局所領域47の局所直線のψの離散値(例:ψ=1,3,5,・・・,29,31)を1つ置きに定義したものとすれば、32個に区分化されている局所領域47の離散値(例:ψ=0,1,2,3,・・・,28,29,30.31)に完全に含まれる。そのため、ψについての32個対処用の1つの投票空間56を、ψについて16区分用と32区分用とに共用することができる。
 そして、第2の認定方式では、ψが32区分で表わされる局所領域47の局所直線に対しては、そのψに該当する投票空間56の座標に1票が投票される。ψが16区分で表わされる局所領域47の局所直線に対しては、そのψに該当する、投票空間56の座標とそれより1つ上又は下の離散値の座標との計2つの座標に、1票を均等化したそれぞれ1/2票ずつが投票される。ψが16区分になっている局所直線に対しては、1/2ずつの投票に代えて、、そのψに該当する、投票空間56の座標とそれより1つ上及び下の離散値の座標との計3つの座標に、1票を均等化した1/3票ずつが投票されるようにしてもよい。
 すなわち、ψの区分数に関係になく、1つの局所領域47に対しては1票が割り当てられ、区分数の少ない区分形態の局所領域47の票は、1票を区分数に応じて割ることにより減じた値にされて、複数の該当座標に分配される。そして、投票空間56におけるvote(vx,ψ)が計算されて、極大値になっているvote(vx,ψ)に対応する検出直線が検出される。
 図16はさらに別のレーン認識装置100のブロック図である、レーン認識装置100の構成要素の内、図2のレーン認識装置20の構成要素と同一のものについては、レーン認識装置20の同一の構成要素に付けた符号と同一の符号を付けて、説明は省略する。レーン認識装置100は、レーン認識装置20の投票処理部24及び直線検出部25に代えて、エリア特定部101、データ退避部102、投票重ね合わせ部103及び直線検出部104を備える。
 図17はレーン認識装置100が実施するレーン認識方法のフローチャートである。図17のフローチャートにおいて、前述の図3のフローチャートのSTEPと処理内容が同一であるSTEPについては、図3のフローチャートにおける、処理内容が同一であるSTEPに付けたSTEP番号と同一のSTEP番号を付けている。
 図17のフローチャートでは、図3のフローチャートのSTEP14の後に、STEP51~54が追加されている。STEP51,52,53,54はそれぞれエリア特定部101、データ退避部102、投票重ね合わせ部103及び直線検出部104が実施する。
 図18はレーン認識装置100において処理される時系列の投票空間K1~Kn(例:n=5)を示している。図2のレーン認識装置20は、図18の左側に図示する1つの投票空間56に対して個々に道路29のレーン境界線を認識する。これに対し、図16のレーン認識装置100は、図18の右側に図示する時系列のn個の投票空間K1~Knから道路29のレーン境界線を認識する。時系列上、隣接する投票空間同士の生成時間間隔はほぼ撮像画像30の撮像時間間隔に等しい。図18では、投票空間K1~Knは、由来元の撮像画像30の撮像時刻順になっている。
 時系列の投票空間K1~Knは、新規の撮像画像30が生成されるごとに、最古の撮像画像30由来の投票空間が最新の撮像画像30由来の投票空間に置き換えられるとともに、古い順に投票空間K1~Knと並べ替えられる。したがって、時系列の投票空間K1~Knは、常時、最新のn個の投票空間となっている。
 また、典型的には、レーン認識装置100は、新規の撮像画像30が生成されるごとに、道路29のレーン境界線の認識を更新するので、レーン認識装置20におけるレーン境界線の認識の更新間隔は撮像画像30の撮像間隔と同一になる。レーン認識装置100によるレーン境界線の認識の更新間隔は、撮像画像30の生成間隔の整数(2以上の整数)倍にして、適当に長くすることもできる。
 レーン認識装置100が実施する処理について、図17のフローチャートを参照して、説明する。なお、図17のSTEP11~STEP14の処理内容は図3のSTEP11~14の処理内容と同一であるので、説明は省略する。
 STEP51では、エリア特定部101は、STEP14による処理の結果としての投票空間56における投票結果に基づいて投票空間56上のエリアを絞り込む。投票空間56において、極大値の投票数vote(vx,ψ)の内、閾値W1(W1>1)に達しないものは、レーンマーク由来の投票ではなく、一時的なノイズ由来の投票と考えられる。
 そこで、極大値の投票数vote(vx,ψ)が閾値W1(W1>1)に達しないものは、それを頂上として裾野状に広がる投票エリアとしての座標エリア、すなわち図19(a)におけるエリアBに含まれる全座標の投票数vote(vx,ψ)をクリアする(0にする)。なお、投票数vote(vx,ψ)をクリアする代わりに、投票数vote(vx,ψ)を適当量、減少させることもできる。
 また、極大値の投票数vote(vx,ψ)が閾値W1以上である座標エリア、すなわち図19(a)におけるエリアAについてはクリアすることなく、投票数vote(vx,ψ)をそのまま維持する。なお、W1は、典型的には、図3のSTEP14に関連して説明した閾値V1以下とするが、閾値V1より大きい値にしたり、運転状況(例:車速、天候、時間帯又は道路曲率)に応じて可変としたりすることもできる。
 STEP52では、データ退避部102は、エリア特定部101により処理後の投票空間56のデータを所定のメモリに退避する。エリア特定部101により処理後の投票空間56のデータとは、単一の線状要素抽出画像40における検出直線のエリアAのみの投票数vote(vx,ψ)のデータとなる。なお、1つの線状要素抽出画像40は1つの線状要素抽出画像40に相当する。該所定のメモリに投票数vote(vx,ψ)が退避される線状要素抽出画像40の個数は所定数(例えば、前述のn)に制限し、退避線状要素抽出画像40の個数がすでに所定数に達している場合には、最古の線状要素抽出画像40のデータを最新の線状要素抽出画像40のデータへ置き換えて、必要なメモリ容量の節約を図ることもできる。
 図17のSTEP11~14及び51,52の処理の結果、図18の右側に図示されているように、時系列の投票空間K1~Knが生成される。なお、各線状要素抽出画像40において定義されているレーン抽出エリア45のy軸方向範囲は線状要素抽出画像40に関係なく同一となっている。したがって、投票空間K1~Knのレーン抽出エリア45のy軸寸法に対応付けられる実空間の車両前後方向長さは、車速が同一であれば、等しくなっている。
 投票重ね合わせ部103がSTEP53において実施する処理及び直線検出部104がSTEP54において実施する処理は、各線状要素抽出画像40由来の投票空間56についての個別処理ではなく、時系列のn個の線状要素抽出画像40由来の投票空間K1~Knに対して設定された合計投票空間についての処理となる。
 STEP53では、投票重ね合わせ部103は、時系列の各線状要素抽出画像40に対して定義した投票空間K1~Knを重ね合わせる。投票空間K1~Knを重ね合わせるとは、具体的には、後述の図19(b)で説明する合計投票空間を生成することである。
 各時系列における投票空間K1~Knの個数nは、典型的には、車両10の走行状況に関係なく固定するが、車速や道路29の曲率に応じて調整することもできる。線状要素抽出画像40の時間間隔は一定であるので、個数nは、高車速時ほど減少させて、レーン境界線の認識の更新間隔を早めることができる。また、個数nは、曲率の変化が大きい道路29を走行しているときほど、減少させて、道路29の曲率の変化をもつレーン境界線を速やかに認識できるようにすることができる。
 図19(b)はSTEP53における投票重ね合わせ部103による処理の結果、生成される合計投票空間の具体例を示している。以下、合計投票空間のvote(vx,ψ)を、個別のvote(vx,ψ)と区別するために、t-vote(vx,ψ)で示すことにする。なお、"t"は、totalを意味するものとして使用した。
 t-vote(vx,ψ)は、データ退避部102により又はSTEP52において所定のメモリに一時的に退避しておいた複数の線状要素抽出画像40(時系列の投票空間)のvote(vx,ψ)の合計である。すなわち、t-vote(vx,ψ)は、図19(a)のノイズエリアBのvote(vx,ψ)を除外しエリアAのvote(vx,ψ)に絞り込む処理をした各投票空間56のvote(vx,ψ)に対し、時系列の投票空間K1~Knにおけるvote(vx,ψ)を合計した値となっている。
 ここで、注意すべきは、投票空間K1~Knに対応付けられる実空間は、同一の範囲となっておらず、車両10の走行に伴い、車両走行方向へ車速に応じて少しずつ車両前方の範囲へ変化していくことである。したがって、投票空間K1~Knにおける座標(vx,ψ)に対応付けられる実空間の位置及び方向は投票空間K1~Kn間においてずれる。
 同様に、道路29が曲線道路である場合には、投票空間K1~Knに対応付けられる実空間は、車両10に対する相対領域では同一となるが、時間的に最先の投票空間K1を基準にして、投票空間K1が由来する撮像画像30のx軸方向及びy軸方向に対して少しずつずれていく。
 時系列において最古の投票空間K1と最新の投票空間Knとが由来している撮像画像30の撮像時刻の差が小さい場合には、投票空間K1~Knの同一の座標(vx,ψ)に対応付けられる実空間の位置及び方向のずれは小さいので、投票空間K1~Knにおいて同一の座標(vx,ψ)同士のvote(vx,ψ)を単純に合計して、合計投票空間のt-vote(vx,ψ)とすればよい。
 時系列において最古の投票空間K1と最新の投票空間Knとが由来している撮像画像30の撮像時刻の差が大きい場合には、投票空間K1~Kn間の同一の座標(vx,ψ)同士に対応付けられる実空間の位置のずれが無視できなくなる。これに対処するため、投票空間K1~Knの中の1つ(例:K1、Kn又は真ん中の投票空間)を基準投票空間に設定するとともに、該基準投票空間が由来する線状要素抽出画像40のxy座標を基準座標に設定する。
 そして、時系列における基準投票空間以外の投票空間が由来する線状要素抽出画像40のxy座標を基準投票空間の基準座標に変換し、時系列のn個の投票空間間において、同一座標が実空間の同一位置に対応付けられるようにする。その後、基準投票空間のxy座標に変換後のxy座標として(vx,ψ)を算出し、各投票空間の(vx,ψ)に投票して、合計投票空間のt-vote(vx,ψ)を得る。なお、線状要素抽出画像40のxy座標を基準投票空間の基準座標に変換するときの変換式には、車両10の車速や旋回角速度が計算因子とされる。
 STEP54では、直線検出部104が合計投票空間の投票結果に基づいて検出直線を検出する。認識部26は、直線検出部104が検出した検出直線に基づいてレーン境界線の認識する。直線検出部104による検出直線の具体的な検出の仕方について次に説明する。
 合計投票空間では、ノイズに係る直線のt-vote(vx,ψ)とレーンマークに対応する直線のt-vote(vx,ψ)との差が、より顕著になる。なぜならば、一般に、レーンマーク由来の投票は、時系列の撮像画像30に連続して出現する傾向があるのに対し、ノイズ由来の投票は、時系列の撮像画像30に断続的又は1回限りで出現する傾向があるからである。直線検出部104は、合計投票空間において、閾値W2(W2>W1)を設定し、t-vote(vx,ψ)が閾値W2以上でかつ極大値になっている座標(vx,ψ)に対し、そのvx,ψにそれぞれ対応付けられるx交点及び傾斜角度θとする直線を検出直線として検出する。
 なお、時系列の投票空間において前述の基準投票空間を定めた場合には、検出直線を検出する基にした(vx,ψ)は基準投票空間の基準座標で表わされていることになる。
 単一の線状要素抽出画像40に対する1つの投票空間56におけるvote(vx,ψ)の場合と同様に、t-vote(vx,ψ)に対しても、合計投票空間において極大値が上位所定数内に含まれている極大値のt-vote(vx,ψ)の座標に限定して、限定した座標に対応付けられる直線のみを検出直線とすることもできる。
 直線検出部104はさらに次の処理を行うことができる。時系列において時間的に前後する前の線状要素抽出画像40及び後ろの線状要素抽出画像40を定義する。なお、前の線状要素抽出画像40及び後ろの線状要素抽出画像40は、時系列上の隣同士の線状要素抽出画像40でなくてもよい。前の線状要素抽出画像40に対応する投票空間56において投票数が極大となっている前座標(vx,ψ)と、時間上の後ろの線状要素抽出画像40に対応する投票空間56において投票数が極大となっている後ろ座標(vx,ψ)との投票空間56上の距離L(該距離Lの代わりに、該距離Lの実空間換算の距離を使用してもよい。)を算出し、距離Lが閾値L1以上であるときは、前の線状要素抽出画像40の投票空間56における前座標(vx,ψ)の投票数vote(vx,ψ)をクリアする。
 この結果、合計投票空間において、前座標(vx,ψ)に相当する座標の投票数は大幅に減少する。前述したように、ノイズ由来の投票は、時系列の撮像画像30に断続的又は1回限りで出現する傾向がある。したがって、たとえ、1つの線状要素抽出画像40に由来する投票空間56における投票数がW1以上である極大値の前座標があっても、その投票がノイズ由来のものである場合には、時間的にそれより後ろの線状要素抽出画像40に由来する投票空間56において、後ろ座標から所定距離内に、投票数がW1以上であると極大値の座標が出現しない傾向が強い。したがって、そのような場合には、前の線状要素抽出画像40の前座標(vx,ψ)の投票数は、合計投票空間における合計から除外することにより、ノイズ由来の検出直線が検出されてしまうことを抑制することができる。
 以上、本発明を実施の形態について説明したが、本発明は、その要旨を逸脱しない範囲で種々の設計変更を行うことが可能である。
 なお、「投票空間」を使用しているが、これはあくまで処理上の名前であり、すなわち、レーン抽出エリアの複数の局所直線に対し、その特徴(実施例では、vx,ψ)を同じくする各局所直線の個数を集計する処理に使用する場所名として使用していることは当業者が明確に理解するとおりである。したがって、処理内容を同一とするものであれば、別名であっても、本発明の要旨の範囲内である。
 本発明のレーン認識装置は、自動車に装備され、自動車が走行している道路やレーンの位置を検出する。また、本発明のレーン認識装置に従い検出した道路やレーンに基づいて、道路上の所定対象物との衝突回避や自動走行等の様々な制御に使用することができる。
10・・・車両、11・・・カメラ(撮像装置)、20,65,100・・・レーン認識装置、21・・・画像メモリ、22・・・線状要素抽出画像処理部、23・・・分解能決定部、24・・・投票処理部、25,104・・・直線検出部、26・・・認識部、29・・・道路、30・・・撮像画像、31・・・中央レーンマーク、32・・・左レーンマーク、33・・・右レーンマーク、40・・・線状要素抽出画像、41,42・・・線状要素、44・・・局所直線、45・・・レーン抽出エリア、46・・・基準水平線、47・・・局所領域、56・・・投票空間、66・・・中間抽出画像生成部、67・・・線分置換部、70・・・射影変換画像、76・・・左検出直線、77,80・・・レーン境界線、79・・・右検出直線、101・・・エリア特定部、102・・・データ退避部、103・・・投票重ね合わせ部。

Claims (14)

  1.  撮像装置による車両前方の撮像画像に基いてレーンを認識するレーン認識装置であって、
     前記撮像画像に含まれる線状要素を抽出した線状要素抽出画像を生成する線状要素抽出画像生成部と、
     前記線状要素抽出画像において垂直方向所定範囲のレーン抽出エリアを設定するエリア設定部と、
     前記レーン抽出エリア内の各局所領域に対し各局所領域内の線状要素部分に基づいて各局所領域の局所直線を決定する局所直線決定部と、
     各局所直線と垂直方向所定位置の基準水平線との交点を算出する交点算出部と、
     方向及び交点を座標成分とする投票空間において、各局所直線の方向と交点とを投票する投票部と、
     前記投票空間における投票結果に基いて検出直線を検出する検出部と、
     前記検出直線に基いてレーン境界線を認識する認識部と
    を備えることを特徴とするレーン認識装置。
  2.  請求項1記載のレーン認識装置において、
     前記エリア設定部は、前記線状要素抽出画像を垂直方向に複数のレーン抽出エリアに分割し、
     前記投票部は、各レーン抽出エリアに対応付けられている各投票空間に対し、当該投票空間に対応するレーン抽出エリアの各局所直線に基いて投票し、
     前記検出部は、各投票空間の投票結果に基いて各レーン抽出エリアごとの検出直線を検出し、
     前記認識部は、各レーン抽出エリアの検出直線のつなぎ合わせに基いて線状要素抽出画像内のレーン境界線を認識することを特徴とするレーン認識装置。
  3.  請求項2記載のレーン認識装置において、
     前記エリア設定部は、垂直方向の上側のレーン抽出エリアほど、その垂直方向寸法が小さくなるように、前記線状要素抽出画像を垂直方向に複数のレーン抽出エリアに分割することを特徴とするレーン認識装置。
  4.  請求項2記載のレーン認識装置において、
     前記局所直線決定部は、所定範囲の方向を第1所定数の方向区分に分割して、各局所直線の方向を、該当するいずれかの方向区分に割り当てて決定し、
     前記交点算出部は、前記基準水平線を第2所定数の位置区分に分割して、各局所直線と前記基準水平線との交点を、該当する位置区分としての交点区分に割り当てて決定し、
     前記投票部は、前記投票空間に定義する方向及び交点の座標成分を、前記方向区分及び交点区分に一致させることを特徴とするレーン認識装置。
  5.  請求項4記載のレーン認識装置において、
     前記第1所定数又は前記第2所定数は、上側のレーン抽出エリアでは、下側のレーン抽出エリアよりも小さく設定されていることを特徴とするレーン認識装置。
  6.  請求項4記載のレーン認識装置において、
     前記第1所定数又は前記第2所定数は、同一のレーン抽出エリア内で、上側の局所領域では下側の局所領域よりも小さく設定されていることを特徴とするレーン認識装置。
  7.  請求項1記載のレーン認識装置において、
     前記検出部は、前記投票空間において投票数が極大である座標に対応付けられる方向及び交点をもつ直線を検出直線として検出することを特徴とするレーン認識装置。
  8.  請求項1記載のレーン認識装置において、
     前記撮像画像の水平方向は実空間における車両の左右方向に相当し、
     前記認識部は、時系列の線状要素抽出画像に基いて検出直線が前記線状要素抽出画像上で水平方向へ閾値以上の速度で変化していると判断したときは、レーン境界線がカーブしていると認識することを特徴とするレーン認識装置。
  9.  請求項1記載のレーン認識装置において、
     前記線状要素抽出画像生成部は、
     前記撮像画像に含まれる線状要素を抽出した第1中間抽出画像を生成する中間抽出画像生成部と、
     該第1中間抽出画像に含まれる各線状要素を、その水平方向幅又は傾斜角度の垂直方向における変化に基づいて1つ又は複数の線分に置換することにより、前記第1中間抽出画像から前記線状要素抽出画像を生成する線分置換部とを備えることを特徴とするレーン認識装置。
  10.  請求項9記載のレーン認識装置において、
     前記中間抽出画像生成部は、前記撮像画像に含まれる線状要素を、前記撮像画像における位置と同一位置に保持しつつ前記撮像画像から抽出した第2中間抽出画像を生成し、該第2中間抽出画像を上方視の画像に射影変換して前記第1中間抽出画像を生成することを特徴とするレーン認識装置。
  11.  請求項1記載のレーン認識装置において、
     前記投票部は、時系列の撮像画像に対応付けて生成された時系列の前記線状要素抽出画像に対して設定された時系列のレーン抽出エリアごとに前記投票空間を設定して、時系列の各投票空間ごとに、当該投票空間が設定されたレーン抽出エリアにおける各局所領域の局所直線の方向と交点とを投票し、
     前記検出部は、時系列の投票空間の投票結果に基づいて検出直線を検出することを特徴とするレーン認識装置。
  12.  請求項11記載のレーン認識装置において、
     前記検出部は、各座標の投票数が、時系列の各投票空間における対応座標の投票数を合計した合計値となる合計投票空間を作成し、合計投票空間において投票数が極大となっている座標に基づいて前記検出直線を検出することを特徴とするレーン認識装置。
  13.  請求項12記載のレーン認識装置において、
     前記検出部は、各投票空間において投票数が閾値未満である座標については該投票数を減少させてから、時系列の各投票空間の各座標の投票数を合計することを特徴とするレーン認識装置。
  14.  請求項12記載のレーン認識装置において、
     前記検出部は、時系列上の別時刻の第1及び第2投票空間の投票結果を対比し、第1投票空間において投票数が極大となっている座標から所定の距離範囲内の座標が第2投票空間では投票数が極大になっていないときは、第1投票空間における該座標の投票数は合計投票空間における合計から除外することを特徴とするレーン認識装置。
PCT/JP2011/076664 2010-12-15 2011-11-18 レーン認識装置 WO2012081359A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
US13/992,819 US9076046B2 (en) 2010-12-15 2011-11-18 Lane recognition device
JP2012548707A JP5687712B2 (ja) 2010-12-15 2011-11-18 レーン認識装置
CN201180060646.3A CN103262139B (zh) 2010-12-15 2011-11-18 行车道识别装置
EP11848555.6A EP2615597B1 (en) 2010-12-15 2011-11-18 Lane recognition device

Applications Claiming Priority (6)

Application Number Priority Date Filing Date Title
JP2010279631 2010-12-15
JP2010-279631 2010-12-15
JP2010279630 2010-12-15
JP2010-279630 2010-12-15
JP2011230110 2011-10-19
JP2011-230110 2011-10-19

Publications (1)

Publication Number Publication Date
WO2012081359A1 true WO2012081359A1 (ja) 2012-06-21

Family

ID=46244472

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2011/076664 WO2012081359A1 (ja) 2010-12-15 2011-11-18 レーン認識装置

Country Status (5)

Country Link
US (1) US9076046B2 (ja)
EP (1) EP2615597B1 (ja)
JP (1) JP5687712B2 (ja)
CN (1) CN103262139B (ja)
WO (1) WO2012081359A1 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016526722A (ja) * 2013-06-24 2016-09-05 アリババ・グループ・ホールディング・リミテッドAlibaba Group Holding Limited 特定画像検出用の方法及び装置
JP2017219344A (ja) * 2016-06-03 2017-12-14 富士通テン株式会社 レーダ装置および信号処理方法
JP2018005617A (ja) * 2016-07-04 2018-01-11 株式会社Soken 走路形状認識装置、走路形状認識方法
CN107730520A (zh) * 2017-09-22 2018-02-23 智车优行科技(北京)有限公司 车道线检测方法及***
JP7149385B1 (ja) 2021-07-12 2022-10-06 株式会社デンソーテン 車線検出装置、車線検出方法および車線検出プログラム

Families Citing this family (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101279712B1 (ko) * 2011-09-09 2013-06-27 연세대학교 산학협력단 실시간 차선 검출 장치 및 방법과 이에 관한 기록매체
CN103164851B (zh) * 2011-12-09 2016-04-20 株式会社理光 道路分割物检测方法和装置
CN103177236B (zh) * 2011-12-22 2016-06-01 株式会社理光 道路区域检测方法和装置、分道线检测方法和装置
CN104024074B (zh) * 2011-12-28 2016-11-23 丰田自动车株式会社 车辆的驾驶支援装置
JP2013196454A (ja) * 2012-03-21 2013-09-30 Honda Elesys Co Ltd 画像処理装置、画像処理方法および画像処理プログラム
JP6087858B2 (ja) * 2014-03-24 2017-03-01 株式会社日本自動車部品総合研究所 走行区画線認識装置及び走行区画線認識プログラム
JP6185418B2 (ja) * 2014-03-27 2017-08-23 トヨタ自動車株式会社 走路境界区画線検出装置
GB2528028B (en) 2014-05-13 2017-08-09 String Labs Ltd Border tracing
GB2528429B (en) 2014-05-13 2016-12-14 String Labs Ltd Border detection
GB2528233B (en) 2014-05-13 2017-02-22 String Labs Ltd Identifying features
GB2528027B (en) 2014-05-13 2016-12-14 String Labs Ltd Perimeter detection
CN103978978B (zh) * 2014-05-26 2016-06-22 武汉理工大学 基于逆投影变换的车道保持方法
JP6140658B2 (ja) * 2014-08-20 2017-05-31 株式会社Soken 走行区画線認識装置、走行区画線認識プログラム
JP6483446B2 (ja) * 2015-01-15 2019-03-13 トヨタ自動車株式会社 複合線判定装置及び複合線判定方法
US10576974B2 (en) * 2015-06-29 2020-03-03 The Regents Of The University Of California Multiple-parts based vehicle detection integrated with lane detection for improved computational efficiency and robustness
KR102384580B1 (ko) * 2015-08-17 2022-04-08 엘지이노텍 주식회사 차선상태 판단 장치 및 이를 이용한 차선상태 판단 방법
KR101694347B1 (ko) * 2015-08-31 2017-01-09 현대자동차주식회사 차량 및 차선인지방법
US9761000B2 (en) * 2015-09-18 2017-09-12 Qualcomm Incorporated Systems and methods for non-obstacle area detection
US10325339B2 (en) * 2016-04-26 2019-06-18 Qualcomm Incorporated Method and device for capturing image of traffic sign
TWI611961B (zh) 2016-06-01 2018-01-21 緯創資通股份有限公司 車道線影像分析方法、影像分析裝置及其電腦可讀取式媒體
TWI621073B (zh) * 2016-12-08 2018-04-11 Road lane detection system and method thereof
KR101864066B1 (ko) * 2017-01-11 2018-07-05 숭실대학교산학협력단 차선 인식 장치, 차선 이탈 판단 장치, 차선 인식 방법 및 차선 이탈 판단 방법
JP2019154018A (ja) * 2018-03-06 2019-09-12 パナソニックIpマネジメント株式会社 車両周辺表示システム、表示制御装置およびコンピュータプログラム
CN110765812B (zh) * 2018-07-26 2021-02-19 北京图森智途科技有限公司 一种图像数据车道线的标定方法和装置
US11518384B2 (en) * 2018-12-07 2022-12-06 Thinkware Corporation Method for displaying lane information and apparatus for executing the method
KR20200090527A (ko) * 2019-01-21 2020-07-29 현대자동차주식회사 차선 인식 장치 및 그 방법
CN110060266B (zh) * 2019-04-24 2021-04-13 百度在线网络技术(北京)有限公司 车道线提取方法及装置、服务器及计算机可读介质
CN110619651B (zh) * 2019-09-09 2023-01-17 博云视觉(北京)科技有限公司 一种基于监控视频的行车道路分割方法
CN113515973A (zh) * 2020-04-09 2021-10-19 北京地平线机器人技术研发有限公司 数据获取方法、训练方法、调整方法以及装置
CN111860319B (zh) * 2020-07-20 2024-03-26 阿波罗智能技术(北京)有限公司 车道线的确定方法、定位精度的评测方法、装置、设备
JP2022142510A (ja) * 2021-03-16 2022-09-30 パナソニックIpマネジメント株式会社 車両用周辺警戒装置および車両用周辺警戒方法
CN112949769B (zh) * 2021-04-07 2022-09-06 中国科学技术大学 一种目标检测方法及目标检测***
CN113435427B (zh) * 2021-08-27 2021-11-09 湖北亿咖通科技有限公司 车道线的聚合方法和装置

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001076147A (ja) * 1999-09-03 2001-03-23 Nec Corp 道路白線検出システム、道路白線検出方法および道路白線検出用プログラムを記録した記録媒体
JP2001092970A (ja) * 1999-09-22 2001-04-06 Fuji Heavy Ind Ltd 車線認識装置
JP2003331295A (ja) * 2002-05-14 2003-11-21 Nissan Motor Co Ltd 道路白線認識装置
JP2004271404A (ja) * 2003-03-10 2004-09-30 Nissan Motor Co Ltd 車両用障害物検出装置
JP2005182407A (ja) * 2003-12-18 2005-07-07 Nissan Motor Co Ltd 車線逸脱防止装置
JP3721594B2 (ja) 1995-03-15 2005-11-30 日産自動車株式会社 道路形状推定装置
JP2008027046A (ja) * 2006-07-19 2008-02-07 Fuji Heavy Ind Ltd 車線認識装置

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5359666A (en) 1988-09-28 1994-10-25 Honda Giken Kogyo Kabushiki Kaisha Driving way judging device and method
EP0361914B1 (en) * 1988-09-28 1995-12-13 Honda Giken Kogyo Kabushiki Kaisha A driving way judging device and method
JP3733875B2 (ja) 2000-09-29 2006-01-11 日産自動車株式会社 道路白線認識装置
JP4703136B2 (ja) * 2004-06-02 2011-06-15 トヨタ自動車株式会社 線図形化処理装置
JP4801821B2 (ja) * 2007-09-21 2011-10-26 本田技研工業株式会社 道路形状推定装置
JP4697480B2 (ja) * 2008-01-11 2011-06-08 日本電気株式会社 車線認識装置、車線認識方法および車線認識プログラム
JP5212212B2 (ja) * 2009-03-25 2013-06-19 株式会社Ihi 通路検出プログラム、通路検出装置及び方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3721594B2 (ja) 1995-03-15 2005-11-30 日産自動車株式会社 道路形状推定装置
JP2001076147A (ja) * 1999-09-03 2001-03-23 Nec Corp 道路白線検出システム、道路白線検出方法および道路白線検出用プログラムを記録した記録媒体
JP2001092970A (ja) * 1999-09-22 2001-04-06 Fuji Heavy Ind Ltd 車線認識装置
JP2003331295A (ja) * 2002-05-14 2003-11-21 Nissan Motor Co Ltd 道路白線認識装置
JP2004271404A (ja) * 2003-03-10 2004-09-30 Nissan Motor Co Ltd 車両用障害物検出装置
JP2005182407A (ja) * 2003-12-18 2005-07-07 Nissan Motor Co Ltd 車線逸脱防止装置
JP2008027046A (ja) * 2006-07-19 2008-02-07 Fuji Heavy Ind Ltd 車線認識装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP2615597A4

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016526722A (ja) * 2013-06-24 2016-09-05 アリババ・グループ・ホールディング・リミテッドAlibaba Group Holding Limited 特定画像検出用の方法及び装置
JP2017219344A (ja) * 2016-06-03 2017-12-14 富士通テン株式会社 レーダ装置および信号処理方法
JP2018005617A (ja) * 2016-07-04 2018-01-11 株式会社Soken 走路形状認識装置、走路形状認識方法
CN107730520A (zh) * 2017-09-22 2018-02-23 智车优行科技(北京)有限公司 车道线检测方法及***
CN107730520B (zh) * 2017-09-22 2020-10-27 智车优行科技(北京)有限公司 车道线检测方法及***
JP7149385B1 (ja) 2021-07-12 2022-10-06 株式会社デンソーテン 車線検出装置、車線検出方法および車線検出プログラム
JP2023011400A (ja) * 2021-07-12 2023-01-24 株式会社デンソーテン 車線検出装置、車線検出方法および車線検出プログラム

Also Published As

Publication number Publication date
CN103262139A (zh) 2013-08-21
US20130272577A1 (en) 2013-10-17
JPWO2012081359A1 (ja) 2014-05-22
JP5687712B2 (ja) 2015-03-18
EP2615597A1 (en) 2013-07-17
CN103262139B (zh) 2015-06-24
US9076046B2 (en) 2015-07-07
EP2615597B1 (en) 2017-05-10
EP2615597A4 (en) 2014-06-18

Similar Documents

Publication Publication Date Title
JP5687712B2 (ja) レーン認識装置
JP4956452B2 (ja) 車両用環境認識装置
EP2958054B1 (en) Hazard detection in a scene with moving shadows
EP3082066A1 (en) Road surface gradient detection device
JP6156400B2 (ja) 走行路面検出装置及び走行路面検出方法
JP4930046B2 (ja) 路面判別方法および路面判別装置
US20070084655A1 (en) Device for detecting a road traveling lane
JP4416039B2 (ja) 縞模様検知システム、縞模様検知方法および縞模様検知用プログラム
US20170287108A9 (en) Dense structure from motion
US10127702B2 (en) Image processing device and image processing method
US20120327189A1 (en) Stereo Camera Apparatus
EP3557527A1 (en) Object detection device
JP5180126B2 (ja) 道路認識装置
JP2003228711A (ja) レーンマーク認識方法
JP6743882B2 (ja) 画像処理装置、機器制御システム、撮像装置、画像処理方法及びプログラム
JP5402828B2 (ja) 車線境界検出装置、車線境界検出プログラム
EP3545464A1 (en) Information processing device, imaging device, equipment control system, mobile object, information processing method, and computer-readable recording medium
JP6592991B2 (ja) 物体検出装置、物体検出方法及びプログラム
CN109522779B (zh) 图像处理装置
CN111971682A (zh) 路面检测装置、利用了路面检测装置的图像显示装置、利用了路面检测装置的障碍物检测装置、路面检测方法、利用了路面检测方法的图像显示方法以及利用了路面检测方法的障碍物检测方法
JP6086424B2 (ja) 車載画像処理装置
CN110809766B (zh) 高级驾驶员辅助***和方法
JP2016206801A (ja) 物体検出装置、移動体機器制御システム及び物体検出用プログラム
JP4696925B2 (ja) 画像処理装置
WO2018097269A1 (en) Information processing device, imaging device, equipment control system, mobile object, information processing method, and computer-readable recording medium

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 11848555

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2012548707

Country of ref document: JP

REEP Request for entry into the european phase

Ref document number: 2011848555

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2011848555

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 13992819

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE