WO2020004231A1 - レーン推定装置、方法およびプログラム - Google Patents

レーン推定装置、方法およびプログラム Download PDF

Info

Publication number
WO2020004231A1
WO2020004231A1 PCT/JP2019/024570 JP2019024570W WO2020004231A1 WO 2020004231 A1 WO2020004231 A1 WO 2020004231A1 JP 2019024570 W JP2019024570 W JP 2019024570W WO 2020004231 A1 WO2020004231 A1 WO 2020004231A1
Authority
WO
WIPO (PCT)
Prior art keywords
lane
road
area
vehicle
moving
Prior art date
Application number
PCT/JP2019/024570
Other languages
English (en)
French (fr)
Inventor
皓平 森
社家 一平
夕貴 横畑
吉田 学
Original Assignee
日本電信電話株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電信電話株式会社 filed Critical 日本電信電話株式会社
Priority to JP2020527462A priority Critical patent/JP6977887B2/ja
Priority to CN201980042935.7A priority patent/CN112352260A/zh
Priority to US17/255,838 priority patent/US11861841B2/en
Publication of WO2020004231A1 publication Critical patent/WO2020004231A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/10Path keeping
    • B60W30/12Lane keeping
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/18Propelling the vehicle
    • B60W30/18009Propelling the vehicle related to particular drive situations
    • B60W30/18163Lane change; Overtaking manoeuvres
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • B60W40/06Road conditions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/255Detecting or recognising potential candidate objects based on visual cues, e.g. shapes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2552/00Input parameters relating to infrastructure
    • B60W2552/10Number of lanes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2552/00Input parameters relating to infrastructure
    • B60W2552/53Road markings, e.g. lane marker or crosswalk
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30256Lane; Road marking

Definitions

  • the present invention relates to an apparatus, a method, and a program for estimating a lane on which a vehicle or a person runs or walks, which is formed on a road, for example.
  • the present invention has been made in view of the above circumstances, and an aspect of the present invention is to provide a technique for accurately estimating a moving lane without relying on lane markings.
  • a first aspect of the present invention is an apparatus, a method, or a program for estimating a lane on which a moving body is moving on a road, wherein the moving body captures an image of a range including a road area.
  • a shape representing a road region is recognized from image data obtained by imaging a traveling direction of a vehicle, and a feature amount of the road region is calculated based on the shape.
  • the lane on which the moving object is moving is estimated based on the feature amount. That is, the lane is estimated by paying attention to the feature of the shape representing the road area as viewed from the moving object. For this reason, it is possible to estimate the moving lane without relying on the lane markings that separate the lanes on the road. It is possible to estimate the lane even when is thin or has disappeared.
  • the inclination angle of the contour is calculated based on the shape representing the recognized road area as the feature amount of the road area, and the calculated contour is calculated.
  • the lane in which the moving object is moving is estimated by determining which of the threshold ranges preset for each lane the line inclination angle falls within.
  • the contour of a road can be recognized from image data on any road, so that a lane can be reliably estimated even on a road on which a lane marking cannot be recognized.
  • the center of gravity of the figure representing the shape and the figure representing the shape or the At least one of the angle of one vertex of the virtual figure derived from the figure and the area of the figure representing the shape is calculated, and the barycentric coordinates of the calculated figure, the angle of one vertex, and the area of the figure are calculated. Is determined to be included in the range of the threshold value set for each lane, thereby estimating the lane in which the moving object is moving.
  • At least one of the coordinates of the center of gravity of the graphic representing the road area, the angle of one vertex of the graphic or a virtual graphic derived from the graphic, and the area of the graphic is the road. It is calculated as the feature amount of the area, and the lane is estimated based on the calculation result. Therefore, also in this case, since the lane is estimated based on the characteristic amount obtained from the shape representing the road area, the lane can be reliably estimated even on a road on which the lane marking cannot be detected.
  • a shape obtained by converting a shape representing the road area into a triangle having one side in a vertical direction of a screen represented by the image data is used. Calculate at least one of the angle between the two sides and the area of the triangular figure, and set the calculated angle of the two sides or the area of the figure to any of the threshold ranges preset for each lane. By determining whether the lane is included, the lane on which the moving body is moving is estimated.
  • the shape representing the road area is converted into a triangle whose one side is the vertical direction of the screen represented by the image data, and the angle or area between the two sides of the triangle is converted into the road area.
  • the lane is estimated as the feature value of. Therefore, also in this case, since the lane is estimated based on the characteristic amount obtained from the shape representing the road area, the lane can be reliably estimated even on a road on which the lane marking cannot be detected.
  • a first shape representing a road region including an object existing on the road from the image data and a region excluding the object from the road region are represented.
  • the second shape is recognized, and the contour of the road area is estimated based on the recognized first shape and the second shape, and the inclination angle is calculated.
  • the lane in which the moving body is moving is estimated by determining which of the threshold values set in advance for each lane includes the calculated inclination angle of the contour line. .
  • the second shape representing the area excluding the object is recognized, and the outline of the road area when the object does not exist is assumed based on the recognized first and second shapes. Presumed. Then, based on the estimated inclination angle of the contour line, the lane in which the moving object is moving is estimated. Therefore, for example, even when the left end of the road shoulder or the traveling lane is hidden by another vehicle traveling on the roadside lane, the contour line of the road shoulder or the left end of the traveling lane is estimated, and the estimation result is obtained.
  • the lane can be estimated based on the lane.
  • pixel value data labeled as each pixel in the road area based on the shape representing the road area is acquired as the feature amount of the road area.
  • the determined pixel value data is similar to one of a plurality of patterns set in advance for the road area, thereby estimating the lane on which the moving object is moving. .
  • pixel value data labeled on each pixel in the road area based on the shape representing the road area is acquired and acquired.
  • the determined pixel value data is similar to any of the patterns set in advance for each lane included in the road area, thereby estimating the lane on which the moving object is moving. is there.
  • the lane in which the moving object is moving is estimated by determining which of the predetermined patterns the pixel value data labeled for each pixel in the road area is similar to. For this reason, if the road area is reflected in the image data, it is possible to determine the similarity with the pattern, and it is possible to estimate which lane the moving body is moving without depending on the lane marking. .
  • a first shape representing the road area including an object existing on the road area is recognized as a feature amount of the road area, and the first shape is recognized.
  • Estimate the lane in which the moving object is moving by acquiring pixel value data labeled for each pixel in the shape and determining which of the preset pixel value data is similar to the preset pattern It is intended to be.
  • the eighth aspect of the present invention when an object is present on the road area, the first shape representing the road area including the object is recognized, and each pixel in the first shape is labeled.
  • the lane in which the moving object is moving is estimated. For this reason, even when an object is present on the road area and the information based on the shape of the road area obtained from the image data is not sufficient, the moving object can recognize any lane by considering the object as a part of the road area. It is possible to efficiently estimate whether the user is moving.
  • a ninth aspect of the present invention there is provided information indicating a lane change history of a moving object estimated from a lane estimation result obtained in the past, information on a road configuration corresponding to a moving position of the moving object, The present lane estimation result is corrected based on at least one of information indicating a lane change in a road area estimated from a motion state.
  • the ninth aspect of the present invention based on at least one of the lane change history of the moving body, the information on the configuration of the moving road, and the information indicating whether or not the moving body has changed the lane. Is corrected. Therefore, for example, even when clear image data cannot be obtained due to the influence of weather, illuminance, or the like, or a road region cannot be accurately recognized from the image data, it is possible to correct the estimation result of the currently moving lane. This makes it possible to obtain an accurate lane estimation result.
  • FIG. 1 is a schematic configuration diagram of an in-vehicle control system including a lane estimation device according to an embodiment of the present invention.
  • FIG. 2 is a block diagram showing a hardware configuration of the lane estimation device according to one embodiment of the present invention.
  • FIG. 3 is a block diagram showing a software configuration of the lane estimation device according to the first embodiment of the present invention.
  • FIG. 4 is a block diagram illustrating a functional configuration of the lane estimation processing unit illustrated in FIG.
  • FIG. 5 is a flowchart showing the overall processing procedure and processing contents of the lane estimation device shown in FIG.
  • FIG. 6 is a flowchart showing the processing procedure and processing contents of the image processing routine shown in FIG. FIG.
  • FIG. 7 is a flowchart showing the processing procedure and processing contents of the lane estimation processing routine shown in FIG.
  • FIG. 8 is a flowchart showing a processing procedure and processing contents of a lane correction processing routine shown in FIG.
  • FIG. 9 is a flowchart showing the processing procedure and processing contents of a road area extraction processing routine in the lane estimation processing routine shown in FIG.
  • FIG. 10 is a plan view illustrating an example of a road configuration.
  • FIG. 11 is a diagram illustrating a first example of road image data obtained when the traveling direction is imaged by the onboard camera.
  • FIG. 12 is a diagram illustrating a second example of a result of extracting a graphic representing a road area from the image data illustrated in FIG. FIG.
  • FIG. 13 is a diagram for describing a first example of a process of calculating the inclination angle of the contour from the graphic shown in FIG. 12 and estimating the traveling lane of the vehicle.
  • FIG. 14 is a diagram for explaining a second example of the process of calculating the inclination angle of the contour from the graphic shown in FIG. 12 and estimating the traveling lane of the vehicle.
  • FIG. 15 is a diagram for describing a first example of a process of calculating the center of gravity of a specific area from the graphic shown in FIG. 12 and estimating the traveling lane of the vehicle.
  • FIG. 16 is a diagram for explaining a second example of the process of calculating the center of gravity of the specific area from the graphic shown in FIG. 12 and estimating the traveling lane of the vehicle.
  • FIG. 14 is a diagram for explaining a second example of the process of calculating the inclination angle of the contour from the graphic shown in FIG. 12 and estimating the traveling lane of the vehicle.
  • FIG. 15 is a diagram for
  • FIG. 17 is a diagram for describing a first example of a process of calculating the area or angle of a triangle from the graphic shown in FIG. 12 and estimating the traveling lane of the vehicle.
  • FIG. 18 is a diagram for explaining a second example of the process of calculating the area or angle of the triangle from the graphic shown in FIG. 12 and estimating the traveling lane of the vehicle.
  • FIG. 19 is a diagram illustrating a first example of a process of estimating a lane in which the vehicle is traveling based on angles at which arbitrary points on both sides of the road area are viewed from the vehicle.
  • FIG. 18 is a diagram for explaining a second example of the process of calculating the area or angle of the triangle from the graphic shown in FIG. 12 and estimating the traveling lane of the vehicle.
  • FIG. 19 is a diagram illustrating a first example of a process of estimating a lane in which the vehicle is traveling based on angles at which arbitrary points on both sides of the road area are viewed from the vehicle.
  • FIG. 20 is a diagram illustrating a second example of a process of estimating a lane in which the vehicle is traveling based on angles at which arbitrary points on both sides of the road area are viewed from the vehicle.
  • FIG. 21 is a diagram illustrating an example of a method of calculating a road area when a vehicle is traveling on another lane.
  • FIG. 22 is a block diagram showing a software configuration of the lane estimation device according to the second embodiment of the present invention.
  • FIG. 23 is a block diagram illustrating a functional configuration of the lane estimation processing unit illustrated in FIG.
  • FIG. 24 is a flowchart illustrating a processing procedure and processing contents of a lane estimation processing routine by the lane estimation processing unit illustrated in FIG. FIG.
  • FIG. 25A is a diagram illustrating a second example of road image data obtained when the traveling direction is imaged by the onboard camera.
  • FIG. 25B is a diagram illustrating a second example of a result of extracting a graphic representing a road area from the image data illustrated in FIG. 25A.
  • FIG. 26A is a diagram illustrating a first example of a region pattern.
  • FIG. 26B is a diagram illustrating an example in which imaginary lines for distinguishing traveling lanes are drawn in the area pattern illustrated in FIG. 26A.
  • FIG. 26C is a diagram illustrating a second example of the area pattern.
  • FIG. 26D is a diagram illustrating an example in which virtual lines for distinguishing the traveling lanes are drawn in the area pattern illustrated in FIG. 26C.
  • FIG. 26A is a diagram illustrating a second example of road image data obtained when the traveling direction is imaged by the onboard camera.
  • FIG. 25B is a diagram illustrating a second example of a result of extracting a graphic representing
  • FIG. 27A is a diagram illustrating a third example of the area pattern.
  • FIG. 27B is a diagram illustrating a fourth example of the area pattern.
  • FIG. 27C is a diagram illustrating a fifth example of the area pattern.
  • FIG. 27D is a diagram illustrating a sixth example of the area pattern.
  • FIG. 28A is a diagram illustrating a third example of road image data obtained when the traveling direction is imaged by the onboard camera.
  • FIG. 28B is a diagram illustrating a third example of a result of extracting a graphic representing a road region and another vehicle from the image data illustrated in FIG. 28A.
  • FIG. 29 is a diagram illustrating an example of an image to be compared with an area pattern at a pixel level based on an extraction result from image data.
  • FIG. 30 is a diagram illustrating another example of an image to be compared with an area pattern at a pixel level based on an extraction result from image data.
  • FIG. 1 is a schematic configuration diagram of an in-vehicle system including a lane estimation device according to an embodiment of the present invention.
  • the vehicle 6 has a lane estimation device 1, a camera 2, a GPS (Global Positioning System) sensor 3, a vehicle sensor 4, and an automatic driving control device 5 mounted thereon.
  • GPS Global Positioning System
  • the camera 2 uses a solid-state imaging device such as a CMOS (Complementary Metal Oxide Semiconductor) sensor, for example, and its installation location, orientation, and angle are set so that at least the road area in the traveling direction of the vehicle 6 is included in the imaging range. ing. Then, the camera 2 outputs image data obtained by imaging a range including a road area in the traveling direction of the vehicle 6 to the lane estimation device 1.
  • CMOS Complementary Metal Oxide Semiconductor
  • the camera 2 may be provided exclusively for lane estimation, but any camera that can obtain equivalent image data, such as a drive recorder camera or a camera mounted for other purposes, may be used. Any camera is available. For example, when the vehicle is a two-wheeled vehicle or a bicycle, a camera provided on a driver's helmet may be used, or a camera provided on a portable terminal such as a smartphone carried by a passenger of the vehicle may be used. . Further, an infrared camera may be used as a camera type. In addition, the image data may be moving image data, or may be still image data captured at regular time intervals.
  • the GPS sensor 3 calculates the latitude and longitude of the vehicle 6 by receiving GPS signals transmitted by a plurality of GPS satellites and performing a distance measurement operation, and uses the calculated latitude and longitude as position data of the vehicle 6. Output to the lane estimation device 1.
  • a ground-based (road) -based position identification system Ground-Based-Positioning-System: GBPS
  • GBPS Ground-Based-Positioning-System
  • the vehicle sensor 4 detects information indicating a state of movement of the vehicle 6 such as a speed, an acceleration, and an engine speed of the vehicle 6 in order to perform a self-diagnosis (OBD) of the vehicle 6, for example.
  • the detection result is output to the lane estimation device 1 as vehicle sensor data.
  • the vehicle sensor 4 may include a sensor for detecting a steering angle of a steering wheel and the like in addition to a sensor for detecting speed, acceleration, and the number of revolutions of the engine, and is further used for purposes other than OBD.
  • a sensor may be used.
  • the automatic driving control device 5 performs control for causing the vehicle 6 to run fully or semi-automatically based on captured images of the outside camera and the driver camera and sensor data output from various in-vehicle sensors. Data representing the lane estimation result output from 1 is used as one of the sensor data.
  • FIG. 2 is a block diagram illustrating an example of a hardware configuration of the lane estimation device 1.
  • the lane estimating apparatus 1 has a hardware processor 10A such as a CPU (Central Processing Unit), and a program memory 10B, a data memory 20, an input / output interface unit (hereinafter referred to as an input / output I / O) for the hardware processor 10A. F) 30 via a bus 40.
  • a hardware processor 10A such as a CPU (Central Processing Unit)
  • a program memory 10B such as a CPU (Central Processing Unit)
  • a data memory 20 such as a data memory 20
  • I / O input / output interface unit
  • the input / output I / F 30 receives data from the camera 2, the GPS sensor 3, and the vehicle sensor 4, and outputs data representing an estimation result generated by the lane estimation device 1 to the automatic driving control device 5.
  • the input / output I / F 30 may include a wired or wireless communication interface.
  • the program memory 10B uses a combination of a nonvolatile memory such as a hard disk drive (HDD) and a solid state drive (SSD) that can be written and read at any time and a nonvolatile memory such as a ROM as a storage medium. This stores programs necessary to execute various control processes according to the embodiment.
  • a nonvolatile memory such as a hard disk drive (HDD) and a solid state drive (SSD) that can be written and read at any time
  • a nonvolatile memory such as a ROM as a storage medium. This stores programs necessary to execute various control processes according to the embodiment.
  • the data memory 20 uses a combination of a non-volatile memory such as an HDD or an SSD that can be written and read at any time and a volatile memory such as a random access memory (RAM) as a storage medium. Is used to store various data obtained and created in the process of performing.
  • a non-volatile memory such as an HDD or an SSD that can be written and read at any time
  • a volatile memory such as a random access memory (RAM) as a storage medium. Is used to store various data obtained and created in the process of performing.
  • RAM random access memory
  • FIG. 3 is a block diagram showing the software configuration of the lane estimation device 1 according to the first embodiment of the present invention in association with the hardware configuration shown in FIG.
  • the input / output I / F 30 receives each data output from the camera 2, the GPS sensor 3, and the vehicle sensor 4, supplies each data to the control unit 10, and estimates a lane output from the control unit 10. Data representing the result is output to the automatic operation control device 5. Further, the input / output I / F 30 generates display data for displaying the lane estimation result, and outputs the display data to, for example, a display unit of a car navigation device of the vehicle 6 for display.
  • the storage area of the data memory 20 includes an image data storage unit 21, a lane estimation data storage unit 22, a road information storage unit 23, a vehicle sensor data storage unit 24, and a threshold storage unit 25.
  • the image data storage unit 21 is used to store image data obtained by the camera 2.
  • the lane estimation data storage unit 22 is used to store data representing a lane estimation result obtained by the control unit 10 described below in association with the estimation date and time, the position data of the vehicle 6, and the like.
  • the road information storage unit 23 for example, information indicating a configuration of a road corresponding to the position is stored in advance in association with position data represented by latitude and longitude.
  • the information indicating the configuration of the road includes, for example, information indicating the number of lanes in each direction, as well as the presence / absence of sidewalks, shoulders, side zones, and median strips, and their widths.
  • the vehicle sensor data storage unit 24 is used to store the vehicle sensor data output from the vehicle sensor 4 in association with information indicating a data type and a detection time.
  • the threshold storage unit 25 is used to store thresholds related to various feature amounts, which are set in advance for each lane.
  • the control unit 10 includes the hardware processor 10A and the program memory 10B, and includes image data acquisition unit 11, image processing unit 12, lane estimation processing unit 13, lane correction It has a unit 14, a past estimation data acquisition unit 15, a road information acquisition unit 16, a vehicle sensor data acquisition unit 17, a vehicle operation state estimation unit 18, and an estimation data output control unit 19.
  • the functions of the processing units 11 to 19 are realized by causing a CPU (hardware processor) 10A to execute a program stored in a program memory 10B.
  • the program for executing the processing of each of the processing units 11 to 19 is, in addition to being stored in advance in the program memory 10B in the lane estimating apparatus 1, a program stored in an application server or the like on a network. May be used.
  • the lane estimation device 1 executes the functions of the processing units 11 to 19 by downloading necessary programs from the application server via the network when necessary.
  • the image data acquisition unit 11 as an image acquisition unit, sequentially captures image data output from the camera 2 via the input / output I / F 30, and associates the image data with information indicating the imaging timing or reception timing of the image data. It is stored in the storage unit 21.
  • the image processing unit 12 reads image data from the image data storage unit 21. If the image data is moving image data, still image data is cut out at a predetermined frame cycle. In addition, the image processing unit 12 performs, for example, a noise removal and a calibration process for correcting a difference between individual performances of the camera 2 and a tilt at the time of installation as pre-processing for lane estimation on the still image data.
  • the lane estimation processing unit 13 receives the pre-processed image data from the image processing unit 12 and performs a process of estimating a lane in which the vehicle 6 is traveling based on the image data. As shown in FIG. 4, a road area extracting unit 131, a feature amount calculating unit 132, and a lane estimating unit 133 are provided.
  • the road area extraction unit 131 has the following processing functions. (1) A process of extracting a range corresponding to a road area from the image data received from the image processing unit 12.
  • the shape representing the area including the object and the shape of the road area A process of extracting a shape representing a region excluding the object, and estimating a shape representing a road region when it is assumed that the object does not exist, based on the extracted shapes.
  • the feature value calculation unit 132 performs a process of calculating a feature value of the shape based on the shape representing the road region extracted by the road region extraction unit 131. The details of the feature amount will be described later.
  • the lane estimating unit 133 determines whether or not the feature amount calculated by the feature amount calculating unit 132 is included in, for example, a range of a threshold value set for each lane. A process of estimating whether the data is in progress is performed.
  • a threshold value for each lane a general-purpose threshold value set according to the shape of a general road may be used, or the threshold value may be set in advance for each road section by measurement or the like according to the shape of the road. The value obtained may be used.
  • the past estimation data acquisition unit 15 reads past lane estimation data from the lane estimation data storage unit 22, estimates the change history and tendency of the lane that the vehicle 6 has traveled in the past based on this data, and obtains the estimation information. Is given to the lane correction unit 14 as one of the information of the correction candidates.
  • the road information obtaining unit 16 obtains, from the road information storage unit 23, information indicating the configuration of the road at the position where the vehicle 6 is currently traveling, based on the position data of the vehicle 6 detected by the GPS sensor 3.
  • the road information representing the configuration of the road is given to the lane correction unit 14 as one of the correction candidate information.
  • the vehicle sensor data acquisition unit 17 receives, via the input / output I / F 30, vehicle sensor data indicating the state of the movement of the vehicle 6 output from the vehicle sensor 4, and determines the measurement timing or the reception timing of the received vehicle sensor data. A process for storing the information in the vehicle sensor data storage unit 24 in association with the information to be represented is performed.
  • the vehicle operation state estimating unit 18 reads the vehicle sensor data from the vehicle sensor data storage unit 24, estimates whether the vehicle 6 has changed lanes based on the vehicle sensor data, and corrects the estimation information. The information is given to the lane correction unit 14 as one of the candidate information.
  • the lane correction unit 14 performs a predetermined correction process on the estimation result of the lane in which the vehicle 6 is traveling obtained by the lane estimation unit 133, and associates the corrected lane estimation data with information representing the current time. It is stored in the lane estimation data storage unit 22.
  • the following three types of processing can be considered for the correction processing of the lane estimation result.
  • the traveling of the vehicle 6 obtained by the lane estimation unit 133 A process of determining the likelihood of the lane estimation result and correcting the estimation result when it can be determined that the lane is incorrect.
  • the estimated data output control unit 19 performs a process of reading the latest lane estimation data from the lane estimation data storage unit 22 and outputting the latest lane estimation data from the input / output I / F 30 to the automatic operation control device 5. Further, the estimation data output control unit 19 performs a process of generating display data for displaying the latest lane estimation data on, for example, map data, and outputting the display data to, for example, a display unit of a car navigation device. The estimation data output control unit 19 may read and output the lane estimation data corresponding to any past timing in addition to outputting the latest lane estimation data.
  • FIG. 5 is a flowchart showing the overall processing procedure of the lane estimation processing by the control unit 10.
  • the control unit 10 performs image processing necessary for lane estimation on the image data acquired in step S2 under the control of the image processing unit 12 in parallel with the image data acquisition process.
  • FIG. 6 is a flowchart showing a processing procedure and processing contents by the image processing unit 12. That is, the image processing unit 12 first reads the image data from the image data storage unit 21. Then, it is determined in step S21 whether or not the image data is moving image data. If the image data is moving image data, still image data is cut out from the moving image data at a fixed frame cycle in step S22. Subsequently, in step S23, the image processing unit 12 performs preprocessing for lane estimation on the still image data. Here, for example, calibration processing is performed to remove noise and correct individual differences in performance of the camera 2 and inclinations at the time of installation. This image processing may be performed by an image processing circuit composed of hardware.
  • FIG. 11 shows a first example of the still image data VD after the image processing.
  • FIG. 7 is a flowchart illustrating a processing procedure and processing contents of the lane estimation processing unit 13.
  • the lane estimation processing unit 13 performs a process of extracting a road area from the image data on which the preprocessing has been completed by the road area extraction unit 131 (step S31).
  • driving lanes TL1 and TL2 forming a roadway are arranged in the up and down directions with the median strip MS as a boundary.
  • the sidewalk WL is arranged outside the traveling lane TL1 with the curb SB composed of the roadside shoulder SR and the concrete block or with the implant SH interposed therebetween.
  • the road region extraction unit 131 extracts a region including, for example, the driving lanes TL1 and TL2 and the roadside SR as the road region. Note that only the driving lanes TL1 and TL2 may be extracted as the road area.
  • SSegNet is used as an example of the road area extraction processing means.
  • SegNet is a deep encoder / decoder architecture for implementing a labeling function on a pixel-by-pixel basis. For example, each part included in an image is distinguished and labeled in a plurality of different display forms (for example, colors).
  • labeling is performed in three types: a road area, an area of an object existing on the road (for example, a vehicle area), and other areas.
  • the road region extraction unit 131 performs a process of excluding the erroneously detected region by using information such as the size of the region of the region in consideration of a case where a region erroneously extracted as a road region exists. Processing such as smoothing is performed on the extracted road area to extract a shape representing the road area. In the case where the contour of the extracted road area has small irregularities, for example, the contour may be linearly approximated.
  • FIG. 12 shows an example in which the shape representing the road area of the one-lane two-lane road extracted by the above-described road area extraction processing is displayed so as to be superimposed on the original image.
  • a shape shaded portion in the drawing
  • the road shoulder SR may include the curb SB.
  • the image data may show another vehicle traveling on the traveling lane TL1 on the roadside, and in this case, the side end of the traveling lane TL1 or the side end of the roadside SR is determined by the other traveling vehicle.
  • the road area extraction unit 131 extracts a true road area as follows.
  • FIG. 9 is a flowchart showing the processing procedure and processing contents of the road area extraction unit 131 in this case. That is, in step S51, the road area extracting unit 131 extracts a shape representing the entire area including the road area and the outer shape of another traveling vehicle based on the image of the road area extracted using the SegNet. I do. At the same time, in step S52, a shape representing a region excluding the traveling vehicle in the road region is extracted. In the processing of extracting shapes representing the respective areas in steps S51 and S52, the processing of excluding erroneously extracted areas using information such as the size of the area, and the processing of smoothing the extracted road areas are performed. Then, a process of extracting the contour by performing conversion or the like is performed. Then, in step S53, the road area extraction unit 131 estimates the true shape of the road area when there is no other traveling vehicle based on the shapes extracted in steps S51 and S52. .
  • step S32 (2-2) Calculation of Feature Value and Lane Estimation Based on Feature Value
  • the lane estimation processing unit 13 determines the extracted shape of the road area from the shape representing the road area in step S32. The feature amount is calculated. Then, under the control of the lane estimating unit 133, the lane estimation processing unit 13 determines in step S33 whether the vehicle 6 is currently traveling on the traveling lane TL1 on the road shoulder side based on the calculated feature amount, or It is estimated whether the vehicle is traveling on the belt-side traveling lane TL2.
  • a plurality of forms can be considered for the feature amount used for lane estimation.
  • an example of the lane estimation processing when each of the plurality of feature amounts is used will be described.
  • the feature amount calculating unit 132 performs the above-described processing when an image as shown in FIG. 13 is obtained, for example.
  • the approximate line OL1 is drawn on the left end of the shape indicating the road area RE extracted by the road area extraction unit 131, that is, the left end of the traveling lane TL1 or the left end of the shoulder SR.
  • a 1 indicates the inclination
  • b 1 indicates the intercept for the point P1.
  • the feature amount calculation unit 132 sets an approximate line to the left end of the shape indicating the road area RE extracted by the road area extraction unit 131.
  • the feature amount calculation unit 132 calculates, as the feature amount, the inclination angles a 1 and a 2 of the left contour of the shape representing the road region RE, that is, the left end of the traveling lane TL1 or the left end of the roadside shoulder SR.
  • step S33 the lane estimating unit 133 reads a threshold value of the inclination angle preset for each lane from the threshold storage unit 25 of the data memory 20. Then, the inclination angles of the approximation lines OL1 and OL2 calculated by the feature amount calculation unit 132 are compared with respective threshold values set for the respective lanes, and based on the comparison result, the vehicle 6 that is currently traveling It is determined whether the lane is the traveling lane TL1 on the road shoulder side or the traveling lane TL2 on the median strip side.
  • the traveling lane 6 is the traveling lane TL2 on the median strip side.
  • the calculated characteristic amount is equal inclination angle a 2 of the approximate line OL2
  • the inclination angle a 2 as illustrated in FIG. 14 are included in the scope of the thresholds corresponding to the running lane TL1, vehicle It is determined that the traveling lane 6 is the traveling lane TL1 on the roadside.
  • the feature amount calculation unit 132 converts the shape indicating the road area extracted by the road area extraction unit 131 into each lane on one side. A shape representing a corresponding area is cut out, and a figure for calculating a feature amount is defined at an arbitrary portion of the cut out shape. Then, the coordinates of the center of gravity of this figure are calculated as the feature amount.
  • a region surrounded by coordinate points P11 to P14 is defined as a graphic RE10 for calculating a feature amount.
  • a coordinate W1 indicating the center of gravity of the graphic RE10 is calculated.
  • a portion surrounded by coordinate points P11 to P14 is defined as a graphic RE20 for calculating a feature amount, and the center of gravity of the graphic RE20 is defined as the graphic RE20.
  • the coordinate W2 shown is calculated.
  • the lane estimating unit 133 reads, from the threshold storage unit 25 of the data memory 20, the coordinate value indicating the center line CL that divides the image data into right and left. Then, it is determined whether the coordinates indicating the center of gravity of the graphic RE20 calculated by the feature amount calculation unit 132 are located on the left side or the right side in the figure in the x-axis direction with respect to the coordinate value of the center line CL. Thus, it is determined whether the lane on which the vehicle 6 is traveling is the traveling lane TL1 on the road shoulder side or the traveling lane TL2 on the median strip side.
  • the lane estimating unit 133 places the barycentric coordinate W1 on the left side in the x-axis direction with respect to the coordinate value of the center line CL. Since the vehicle is located, it is determined that the lane on which the vehicle 6 is traveling is the traveling lane TL2 on the median strip side.
  • the feature amount is the barycenter coordinate W2 of the graphic RE20 as shown in FIG. 16 as shown in FIG. 16, the barycenter coordinate W2 is located on the right side in the figure in the x-axis direction with respect to the coordinate value of the center line CL. It is determined that the lane on which the vehicle 6 is traveling is the traveling lane TL1 on the roadside.
  • shape image data is included in the area VD L of the left half of the screen constituting the (contour RE L) was extracted, the center line CL of the shape approximated by a right-angled triangle TA1 to one side, it calculates an angle theta 5 internal angle in the area or vertex P3 of the right-angled triangle TA1 as a feature quantity.
  • the shape image data is included in the area VD L of the left half of the screen constituting, approximated by a right-angled triangle TA2 to one side of the center line CL of this shape, the The area of the right triangle TA2 or the angle ⁇ 6 at the vertex P4 is calculated as a feature amount. Note that, other than calculating the angle of the inner angle, the angle of the outer angle of the vertex or the angle of the inner angle + 90 ° may be calculated.
  • the lane estimating unit 133 reads out the threshold value of the area of the right triangle or the threshold value of the angle preset for each lane from the threshold value storage unit 25 of the data memory 20. Then, the area or angle of the right triangle calculated by the feature amount calculation unit 132 is compared with a preset area or angle threshold, and based on the comparison result, the lane in which the vehicle 6 is currently traveling is determined. It is determined whether it is the traveling lane TL1 on the road shoulder side or the traveling lane TL2 on the median strip side.
  • the angle ⁇ 6 of the vertex P4 of the right triangle TA2 is equal to or smaller than the angle threshold, it is determined that the lane on which the vehicle 6 is traveling is the roadside traveling lane TL1. .
  • the lanes TL1 and TL2 can be determined by comparing the area of the right triangles TA1 and TA2 with a threshold.
  • the areas of the right triangles TA1 and TA2 can be obtained, for example, by counting the number of pixels in a region surrounded by the outline of the right triangles TA1 and TA2.
  • a lane is defined by using the angle ⁇ between the intersection of two parallel horizontal lines drawn on the screen constituted by the image data and the contour of the road area and the center point on the lower side of the screen as a feature value.
  • the feature amount calculation unit 132 calculates the intersection between the left and right edges of the shape representing the road area extracted by the road area extraction unit 131 and the two parallel horizontal lines set on the screen constituted by the image data. calculate. Then, an angle with respect to the lower side of the image data when the lower side center point Pc of the image data and each of the intersections are connected by a straight line is calculated, and the calculated angle is used as a feature amount.
  • the intersections P51, P52 and P53 of the left and right sides of the shape representing the road area RE and two parallel horizontal lines H1 and H2 set on the screen constituted by the image data. P54 is detected. Then, the angles ⁇ 1 , ⁇ 2, and ⁇ of the straight lines with respect to the lower side of the screen when the center point Pc of the lower side of the screen formed by the image data and the intersections P51, P52 and P53, P54 are connected by straight lines, respectively. 3 and ⁇ 4 are calculated, and the difference between the calculated angles ⁇ 1 and ⁇ 2 and the difference between the angles ⁇ 3 and ⁇ 4 are defined as feature amounts.
  • FIG. 19 the intersections P51, P52 and P53 of the left and right sides of the shape representing the road area RE and two parallel horizontal lines H1 and H2 set on the screen constituted by the image data. P54 is detected. Then, the angles ⁇ 1 , ⁇ 2, and ⁇ of the straight lines with respect to the lower side of the screen when the center point Pc of
  • the lane estimating unit 133 reads, from the threshold storage unit 25 of the data memory 20, the angle difference threshold values for the left side and the right side that are preset for each lane. Then, the difference between the angles ⁇ 1 and ⁇ 2 and the difference between the angles ⁇ 3 and ⁇ 4 calculated by the feature amount calculation unit 132 are compared with the angle difference threshold values for the left side and the right side set for each lane. Then, based on the comparison result, it is determined whether the lane on which the vehicle 6 is traveling is the traveling lane TL1 on the roadside or the traveling lane TL2 on the median strip side.
  • the vehicle 6 is running. Is determined to be the traveling lane TL2 on the median strip side.
  • the vehicle 6 is running. Is determined to be the traveling lane TL1 on the road shoulder side.
  • step S5 When Estimating the Running Lane Based on the Shape Representing the Road Region Extracted When Another Running Vehicle Exists in the Traveling Lane
  • step S53 based on each of the extracted shapes, a shape representing a road region when no other traveling vehicle is assumed to exist is estimated.
  • the feature value calculation unit 132 draws an approximate line on the left side of the road based on the shape representing the road area estimated in step S53, and calculates the inclination angle of the approximate line as a feature value.
  • the feature amount calculation unit 132 uses an approximation line on the left side of the shape.
  • the feature quantity calculation unit 132 draws the approximate line OL1 on the left side of the road based on the shape extracted from the road area excluding the traveling vehicle.
  • the feature amount calculation unit 132 calculates a third approximate line OL3 interposed between these approximate lines OL1 and OL2. Is assumed to be the contour of the left side edge of the road area when it is assumed that the image MB of the traveling vehicle does not exist.
  • a and B are coefficients, which are determined based on parameters such as how far the other running vehicle is running from the center of the lane in the left-right direction and how high the other running vehicle is. Is done. By appropriately setting these coefficients A and B, the position of the approximate line OL3 can be made closer to the position of the left side edge of the actual road area.
  • the lane estimating unit 133 compares the calculated inclination angle ⁇ (a 1 + a 2 ) / A ⁇ of the approximate line OL3 with a threshold value set in advance for each lane. Then, based on the comparison result, it is determined whether the lane on which the vehicle 6 is currently traveling is the traveling lane TL1 on the roadside or the traveling lane TL2 on the median strip side.
  • the inclination angle ⁇ (a 1 + a 2 ) / A ⁇ is included in the range of the threshold value corresponding to the traveling lane TL2. It is determined that the traveling lane TL2 is located on the side. On the other hand, if the inclination angle ⁇ (a 1 + a 2 ) / A ⁇ is included in the range of the threshold value corresponding to the traveling lane TL1, the lane on which the vehicle 6 is traveling is the traveling lane TL1 on the roadside. judge.
  • FIG. 8 is a flowchart showing a processing procedure and processing contents of the lane correction unit 14.
  • the lane correction unit 14 first corrects the lane estimation result based on information representing the road configuration corresponding to the traveling position of the vehicle 6 in step S41. I do. For example, in the road information acquisition unit 16, based on the current position data of the vehicle 6 measured by the GPS sensor 3, information indicating the configuration of the road corresponding to the position where the vehicle 6 is currently traveling is stored in the road information storage unit 23. Is read from. The lane correction unit 14 checks the lane estimation result by the lane estimation processing unit 13 with the read information indicating the configuration of the road, and determines whether the lane estimation result is correct.
  • the lane estimation result is “traveling lane TL2” on the median strip side and the road on which the vehicle 6 is currently traveling is a one-lane road, the lane estimation result is determined to be incorrect, The lane estimation result is corrected to “running lane TL1”.
  • the past estimation data acquisition unit 15 reads out the past lane estimation data from the lane estimation data storage unit 22, and based on this data.
  • This estimation process may calculate the number of times or frequency of use for each of the traveling lanes TL1 and TL2 during a certain period in the past. For example, the estimation may be performed based on the traveling time zone, traveling route, and traveling position for each driver in advance. It is also possible to create learning data indicating the tendency of the vehicle and estimate the current traveling lane based on the learning data.
  • the lane correction unit 14 uses the latest lane estimation result obtained by the lane estimation processing unit 13 to indicate the lane change history or tendency of the vehicle 6 estimated by the past estimation data acquisition unit 15 in step S42. Compare with the information and evaluate the validity of the latest lane estimation result. For example, if the latest lane estimation result is “traveling lane TL2” on the median strip side even though the driver only travels on daily traveling lane TL1, this estimation result is determined to be incorrect and the lane estimation result is determined. It is corrected to “running lane TL1” on the roadside.
  • the vehicle operation state estimating unit 18 acquires the speed and acceleration of the vehicle 6 and the steering wheel operation angle acquired by the vehicle sensor data acquiring unit 17. Based on the sensor data indicating the movement of the vehicle 6 such as the above, it is estimated whether or not the vehicle 6 has changed lanes.
  • step S43 the lane correction unit 14 temporally corresponds the lane estimation result obtained by the lane estimation processing unit 13 with the lane change estimation result obtained by the vehicle operation state estimation unit 18. Compare with each other. If the lane estimation result obtained by the lane estimation processing unit 13 does not correspond to the lane change estimation result obtained by the vehicle operation state estimation unit 18, the lane estimation processing unit 13 obtains the lane change result. The lane estimation result is corrected based on the lane change estimation result obtained by the vehicle operation state estimation unit 18.
  • the lane correction unit 14 causes the lane estimation data storage unit 22 to store the data of the lane estimation result finally corrected by each of the above correction processes in association with the information indicating the current time.
  • the control unit 10 executes control for outputting a lane estimation result in step S5 as follows. That is, the estimation data output control unit 19 reads the lane estimation data from the lane estimation data storage unit 22 each time the latest lane estimation data is stored in the lane estimation data storage unit 22. Then, the lane estimation data is output from the input / output I / F 30 to the automatic operation control device 5. As a result, the automatic driving control device 5 uses the lane estimation data as one of the data indicating the current traveling state of the vehicle 6 and performs control for maintaining or changing the traveling position of the vehicle, for example.
  • the estimation data output control unit 19 generates display data for displaying, for example, the position of the lane in which the vehicle 6 is traveling on the map data, based on the latest lane estimation data.
  • a process of displaying the display data on the display unit is performed, whereby the display unit of the car navigation device displays the current lane position of the vehicle 6 on the map.
  • a shape representing a road area is extracted from image data obtained by imaging the traveling direction of the vehicle 6, and one contour is extracted based on information representing the shape.
  • the inclination angle of the line, the coordinates of the center of gravity of the figure representing the shape of the road area, the angle between two contour lines that are continuous across one vertex of the figure representing the shape, and the area of the figure representing the shape are expressed in the road area.
  • the lane in which the vehicle 6 is traveling is estimated by determining whether or not the calculated feature amount is included in a range of a preset threshold value for each lane.
  • the lane can be estimated by paying attention to the feature of the shape representing the road area when the traveling direction is viewed from the vehicle 6. For this reason, it is possible to estimate the traveling lane without relying on the lane markings that separate the lanes on the road. It is possible to estimate the lane even when is thin or has disappeared.
  • the shape representing the entire road area including the object and the object in the road area are removed from the image data. Shapes representing regions are extracted, and contours of the road region are estimated based on the extracted shapes when it is assumed that the object does not exist. Then, based on the estimated inclination angle of the contour line, the lane on which the vehicle 6 is traveling is estimated. Therefore, for example, even when the left end of the road shoulder or the traveling lane is hidden by another vehicle traveling on the roadside lane, the contour line of the road shoulder or the left end of the traveling lane is estimated, and the estimation result is obtained.
  • the lane can be estimated based on the lane.
  • the presence or absence of a lane change of the vehicle 6 estimated based on information indicating the configuration of the road corresponding to the traveling position of the vehicle 6, a past lane change history, and sensor data indicating the movement of the vehicle 6 The validity of the lane estimation result obtained by the lane estimation processing unit 13 is evaluated based on the information indicating the lane estimation. If the lane estimation result is determined to be invalid, the lane estimation result is corrected. For this reason, for example, even when clear image data cannot be obtained due to the influence of weather, illuminance, or the like, or a road region cannot be accurately recognized from the image data, the estimation result of the currently moving lane can be corrected. Thus, an accurate lane estimation result can be obtained.
  • the lane estimating apparatus, method, and program according to the second embodiment of the present invention use pixel value data obtained by labeling each pixel in the road area based on the shape representing the road area as the feature amount of the road area. Then, the lane estimation device, method, and program according to the second embodiment determine which pixel value data is similar to one of a plurality of patterns set in advance for each road or each lane. The lane on which the vehicle 6 is moving is estimated.
  • the lane estimation device can employ the same configuration as the lane estimation device 1 described in regard to the first embodiment. Therefore, in the following, the second embodiment will be described using the same reference numerals for the same components as those in the first embodiment, and detailed description overlapping with the first embodiment will be omitted.
  • the in-vehicle system including the lane estimation device 1 according to the second embodiment of the present invention can employ the same configuration as that described with reference to FIG.
  • the lane estimation device 1 according to the second embodiment can employ the same hardware configuration as that described with reference to FIG.
  • FIG. 22 is a block diagram showing the software configuration of the lane estimation device 1 according to the second embodiment of the present invention in association with the hardware configuration shown in FIG.
  • the storage areas of the data memory 20 include an image data storage unit 21, a lane estimation data storage unit 22, a road information storage unit 23, a vehicle sensor data storage unit 24, and a threshold storage unit. 25.
  • the storage area of the data memory 20 further includes a pattern storage unit 26.
  • the pattern storage unit 26 stores a pattern (hereinafter, referred to as an “area pattern”, which is preset for each road or lane, corresponding to the shape of the road area projected in the image, and collectively refers to various area patterns.
  • Area pattern PT ").
  • the area pattern PT is an ideal road where an image taken by a camera installed in the vehicle 6 will show the road in this way if the vehicle 6 is traveling in the center of each lane. Indicates the shape of the area.
  • the area pattern PT is created or set based on image data collected in advance from a large number of vehicles by a road management server or the like that provides a traffic congestion prediction service.
  • the lane estimation device 1 acquires a set of patterns including a plurality of area patterns PT according to the type (vehicle type, vehicle height, and the like) of the vehicle 6 from the server via a network via a communication unit (not shown), for example. It can be stored in the storage unit 26.
  • the shape of the road shown in the image taken by the camera differs greatly depending on where the camera is installed in the vehicle 6.
  • the lane estimation device 1 determines, for example, whether the vehicle 6 is located at the center or the right or left side of the vehicle 6 according to the installation position of the camera, the distance to the center line of the vehicle 6, or the installation based on the road.
  • the acquired area pattern PT may be appropriately corrected according to the height, the appearance of the hood of the own vehicle projected in the image, or the like, and then stored in the pattern storage unit 26.
  • the lane estimation device 1 may transmit an image captured by the vehicle-mounted camera in advance to the server, and receive a set of area patterns PT corrected by the server based on the image.
  • the lane estimation device 1 itself may generate a set of area patterns PT according to the installation position of the camera.
  • the pattern storage unit 26 stores, as a set of patterns corresponding to the type of the vehicle 6, the type of road (for example, a national highway, a general national road, a prefectural road, a municipal road, etc.) and the number of lanes (how many lanes the vehicle 6 has). A number of different area patterns PT are stored in accordance with which lane of the road is running). The pattern storage unit 26 stores each area pattern PT in association with the position information so that a necessary area pattern PT can be searched based on the position data of the vehicle 6 detected by the GPS sensor 3, for example.
  • the control unit 10 includes an image data acquisition unit 11, an image processing unit 12, a lane correction unit 14, a past estimation data acquisition unit 15, a road information acquisition unit 16, a vehicle sensor It has a data acquisition unit 17, a vehicle operation state estimation unit 18, and an estimation data output control unit 19.
  • the control unit 10 according to the second embodiment has a lane estimation processing unit 130 instead of the lane estimation processing unit 13.
  • the lane estimation processing unit 130 receives the pre-processed image data from the image processing unit 12 and performs a process of driving the vehicle 6 based on the image data, similarly to the lane estimation processing unit 13 described in regard to the first embodiment. Although the processing for estimating a lane is performed, the lane estimation processing unit 13 differs from the lane estimation processing unit in the feature amounts and detailed functions used for the estimation processing.
  • FIG. 23 illustrates an example of a function of the lane estimation processing unit 130.
  • the lane estimation processing unit 130 includes a road area extraction unit 131, a pattern acquisition unit 1301, a similarity determination unit 1302, and a lane estimation unit 1303.
  • the road area extraction unit 131 performs the following processing. (1) A process of extracting, from the image data received from the image processing unit 12, a range corresponding to a road region and a region of an object existing on the road (a vehicle region in this embodiment). (2) Exclude areas that are erroneously extracted as road areas or vehicle areas using information such as the size of the area, and then perform processing such as smoothing on the extracted road areas and vehicle areas to obtain road areas. And a process of extracting a shape representing a vehicle region.
  • the pattern acquisition unit 1301 performs a process of reading the area pattern PT stored in the pattern storage unit 26 and passing it to the similarity determination unit 1302.
  • the similarity determination unit 1302 as a feature amount calculation unit, based on the shape representing the road region extracted by the road region extraction unit 131, as a feature amount of the road region, a pixel value that is labeled to each pixel in the road region. A process is performed to obtain the pixel value data including the image data.
  • the similarity determination unit 1302 further determines the similarity with the area pattern PT acquired by the pattern acquisition unit 1301, based on the acquired pixel value data, and passes the result of the determination to the lane estimation unit 1302.
  • step S1 the control unit 10 of the lane estimation device 1 executes an image data acquisition process under the control of the image data acquisition unit 11, as in the first embodiment. I do.
  • step S2 the control unit 10 of the lane estimation device 1 performs image processing necessary for lane estimation on the acquired image data under the control of the image processing unit 12, as in the first embodiment. Execute The same processing procedures and processing contents as those described with reference to FIG.
  • FIG. 25A shows a second example of the still image data VD after the image processing. This example is captured by the camera 2 mounted on the vehicle 6 traveling on a two-lane road as shown in FIG. 10, for example.
  • the still image data VD in FIG. 25A includes the hood portion 6 of the vehicle, the median strip MS, the guardrail RL on the median strip MS, the traveling lanes TL1 and TL2, the roadside SR and the curb SB, and further ahead.
  • the other vehicle MB traveling on is shown.
  • FIG. 24 is a flowchart illustrating a processing procedure and processing contents of the lane estimation processing unit 130.
  • step S301 the lane estimation processing unit 130 performs a process of extracting a road area from the image data VD on which the pre-processing has been completed by the road area extraction unit 131.
  • the road region extraction unit 131 extracts, for example, a region including the driving lanes TL1 and TL2 and the road shoulder SR as the road region. Note that, similarly to the first embodiment, the road region extraction unit 131 may extract only the traveling lanes TL1 and TL2 as the road region.
  • SegNet is used as an example of the road area extraction processing means.
  • the road region extraction unit 131 considers the case where there is a region erroneously extracted as a road region and uses the information such as the area size of the region to perform erroneous detection. It is also possible to perform a process of excluding the extracted region, and further perform a process such as smoothing on the extracted road region to extract a shape representing the road region.
  • FIG. 25B shows an example of an output result obtained by performing extraction processing by SegNet on the image data VD shown in FIG. 25A.
  • a shape shaded portion in the figure
  • the shape (dot-hatched portion in the figure) indicating the region MBR including the other vehicle MB running is extracted.
  • Each region is given a color corresponding to labeling in pixel units.
  • the road region extraction unit 131 performs the same operation as that described with reference to the first embodiment. An area extraction process may be performed.
  • the lane estimation processing unit 130 determines in step 302 that the region pattern PT set in advance for each type of road, for each road, or for each lane. Is read from the pattern storage unit 26 and passed to the similarity determination unit 1302.
  • the pattern acquisition unit 1301 reads, for example, one or a plurality of area patterns PT corresponding to the position information from the pattern storage unit 26 based on the position information of the vehicle 6 detected by the GPS sensor 3, and reads the similarity determination unit. Pass to 1302.
  • FIG. 26A shows an area pattern PT1 set for each road as an example of the area pattern PT read from the pattern storage unit 26.
  • the area pattern PT1 shown in FIG. 26A is particularly set for a general national road having two lanes on one side, and is used in a road area shown in image data acquired by the vehicle 6 traveling on the lane on the shoulder side (left side). This pattern is shown.
  • the area pattern PT1 includes a road portion RD (shaded portion) and another portion BK (colorless portion).
  • RD road portion
  • BK colorless portion
  • FIG. 26B is a diagram in which virtual lines VL for distinguishing the traveling lanes are drawn for the area pattern PT1 shown in FIG. 26A for the sake of explanation.
  • the road portion RD includes a region of a traveling lane TL1 in which the vehicle 6 is traveling and a region of a traveling lane TL2 on the right side thereof.
  • FIG. 26C shows an area pattern PT2 set for each road as another example of the area pattern PT read from the pattern storage unit 26.
  • the area pattern PT2 illustrated in FIG. 26C is set for a general national road having two lanes on one side, and is a road area reflected on image data acquired by the vehicle 6 traveling on the lane on the median strip side (right side). Represents a pattern according to.
  • the area pattern PT2 includes a road portion RD (shaded portion) and other portions BK (colorless portions).
  • FIG. 26D is a diagram in which virtual lines VL for distinguishing the traveling lanes are drawn for the area pattern PT2 shown in FIG. 26C for explanation.
  • the road portion RD includes a region of the traveling lane TL2 where the vehicle 6 is traveling and a region of the traveling lane TL1 on the left side thereof.
  • the area pattern PT used in the estimation processing is displayed on an image captured by the camera 2 mounted on the vehicle 6 according to which lane the vehicle 6 is traveling. It is set in advance for each road or each lane so as to reflect that the shape of the road area is different.
  • the lane estimation processing unit 130 of the lane estimation device 1 according to the second embodiment compares the road portion RD of such an area pattern PT with the road area shown in the image data at a pixel level, and thus the moving state of the lane estimation processing unit 130 during the movement is determined. Perform lane estimation.
  • the pattern acquisition unit 1301 is configured to read one or a plurality of area patterns PT necessary for lane estimation from the pattern storage unit 26 based on the position data of the vehicle 6 detected by the GPS sensor 3.
  • the pattern obtaining unit 1301 obtains, from the road information storage unit 23, information indicating a road configuration at a position where the vehicle 6 is currently traveling, based on the position data of the vehicle 6 detected by the GPS sensor 3.
  • one or more necessary area patterns PT are read out from the pattern storage unit 26 based on the acquired information.
  • the pattern acquisition unit 1301 determines whether the current traveling road is a two-lane one-way general national road based on the information that the currently traveling road is a two-lane one-way general national road. Is read. If the currently traveling road is a three-lane high-speed automobile national highway, the pattern acquisition unit 1301 determines if the vehicle is running on a roadside lane linked to a one-way three-lane high-speed automobile national road. And three types of area patterns PT corresponding to the case where the vehicle is traveling on the lane on the median strip side can be read. These are only examples, and the type and number of the area patterns PT read out from the pattern storage unit 26 by the pattern acquisition unit 1301 may be set arbitrarily. Hereinafter, description of the type of road (general highway, highway, etc.) will be omitted.
  • the pattern acquisition unit 1301 may directly acquire the area pattern PT from the road management server or the like via a communication unit (not shown).
  • the area pattern PT may be any pattern as long as it can be compared with a road area shown in image data acquired by the vehicle 6.
  • the area pattern PT2 illustrated in FIG. 26C relates to image data acquired by the vehicle 6 traveling on the traveling lane TL2 on the median strip side of the two-lane road on one side, and includes the traveling lane TL1. And both the driving lane TL2.
  • the area pattern PT does not need to include all the driving lanes included in the road.
  • FIGS. 27A to 27D show examples of such an area pattern PT set for each lane.
  • FIG. 27A shows an area pattern PT3 for comparing with a road area RE shown in image data when a lane exists one to the left of the lane in which the host vehicle 6 is traveling.
  • the region pattern PT3 includes a road portion RD obtained by cutting out only the region relating to the traveling lane TL1 from the region pattern PT2 shown in FIG. 26C, and a portion BK other than the road portion RD.
  • the lane estimation processing unit 130 determines whether the road region RE in the processed image data TVD includes a region similar to the region pattern PT3 illustrated in FIG. 27A. It is determined whether or not the vehicle is traveling in the lane TL2 on the median strip side when a similar region is included, and the lane TL1 on the roadside is determined when the vehicle does not include a similar region. It can be estimated that the vehicle is running.
  • FIG. 27B shows an area pattern PT4 for comparing with the road area RE shown in the image data when a lane exists on the right side of the lane in which the host vehicle 6 is traveling.
  • the region pattern PT4 includes a road portion RD obtained by cutting out only the region related to the traveling lane TL2 from the region pattern PT1 shown in FIG. 26A, and a portion BK other than the road portion RD.
  • FIG. 27C shows an area pattern PT5 for comparing with a road area RE shown in image data when two lanes exist on the left side of the lane on which the host vehicle 6 is traveling, such as a three-lane road on one side.
  • the area pattern PT5 includes a road portion RD related to a traveling lane that is not included in the area pattern PT2 illustrated in FIG. 26C.
  • FIG. 27D shows an area pattern PT6 for comparison with a road area RE shown in image data when two lanes exist on the right side of the lane on which the vehicle 6 is traveling, such as a three-lane road on one side.
  • the area pattern PT6 also includes a road portion RD related to a traveling lane that is not included in the area pattern PT1 illustrated in FIG. 26A.
  • the area to be compared becomes smaller, and the lane estimation device 1 can determine the similarity with less processing.
  • the area patterns PT shown in FIGS. 27A to 27D are merely examples.
  • the area pattern PT can be variously changed depending on the presence or absence of a road shoulder, the width of each lane (lane), the presence or absence of a median strip, the radius of curvature of a road, and the like.
  • the lane estimating device determines whether the pattern acquisition unit 1301 should read the area pattern PT of the entire road as shown in FIGS. 26A to 26D or should read the area pattern PT of each lane as shown in FIGS. 27A to 27D. It may be set arbitrarily by one user or the like.
  • the pattern acquisition unit 1301 may directly acquire the area pattern PT from the road management server or the like through a communication unit (not shown).
  • the lane estimation processing unit 130 reads the road region RE extracted from the image data VD and the pattern acquisition unit 1301 in step S303.
  • the road area RD of the output area pattern PT is compared at the pixel level. It is assumed that the lane estimation processing unit 130 has performed preprocessing such as size adjustment and tilt adjustment in advance on the processed image data TVD and the area pattern PT so that they can be compared.
  • the lane estimation processing unit 130 also performs necessary calibration in advance in accordance with the individual performance of the camera 2, the inclination at the time of installation, the height of the vehicle 6, the appearance of the hood in the image data VD, and the like. It is assumed that
  • the similarity determination unit 1302 obtains pixel value data representing a pixel value at each pixel position for each of the processed image data TVD and the area pattern PT.
  • each pixel position is labeled with a different color (pixel value) by the region extraction processing by the road region extraction unit 131.
  • different RGB values are assigned to respective pixel positions.
  • the similarity determination unit 1302 reads, for example, RGB values at each pixel position stored in a two-dimensional array form from each pixel value data, compares the RGB values at each pixel position, and determines whether the RGB values are the same. It is determined whether or not.
  • the similarity determination unit 1302 may compare all pixel positions, or may compare only pixel positions corresponding to the road portion RD in the area pattern PT. The comparison processing will be further described later.
  • the lane estimation processing unit 130 determines the overall similarity based on the comparison result for each pixel in step S304.
  • the similarity determination unit 1302 determines the similarity by calculating the ratio of the number of pixels determined to have the same RGB value among the total number of pixels compared.
  • step S305 the lane estimation processing unit 130 determines whether the similarity determination processing by the similarity determination unit 1302 has been completed for all the area patterns PT read from the pattern storage unit 26 by the pattern acquisition unit 1301. I do. If there is a region pattern PT that is not compared (NO branch), steps S303 to S304 are repeated for the region pattern PT that is not compared. When the similarity determination processing has been completed for all the area patterns PT (branch of YES), the process proceeds to step S306.
  • the lane estimation processing unit 130 passes the similarity determination result to the lane estimation unit 1303 under the control of the similarity determination unit 1302.
  • the similarity determination unit 1302 selects an area pattern PT having the highest similarity among the plurality of area patterns PT for which the similarity has been determined, and transfers the selected area pattern PT to the lane estimation unit 1303 together with the determined similarity.
  • the area pattern PT selected by the similarity determination unit 1302 does not need to be one, and a plurality of area patterns PT satisfying a certain criterion may be selected.
  • the similarity determination unit 1302 may be configured to pass to the lane estimation unit 1303 all the area patterns PT determined to have a similarity with the image data TVD exceeding a predetermined threshold.
  • the similarity determination section 1302 determines whether or not the similarity exceeds a predetermined threshold, and together with the determination result, the area pattern PT It may be configured to pass the PT to the lane estimation unit 1303.
  • step S307 under the control of the lane estimation unit 1303, the lane estimation processing unit 130 determines which lane the vehicle 6 is in based on the similarity determination result received from the similarity determination unit 1302. Is performed to estimate whether the vehicle is traveling. For example, it is determined from the GPS information that the vehicle 6 is traveling on a two-lane road on one side, the pattern acquisition unit 1301 reads out the area pattern PT1 and the area pattern PT2, and the similarity determination unit 1302 reads out the area pattern PT1. If it is determined that the similarity is higher, the lane estimation unit 1303 can estimate that the lane on which the vehicle 6 is traveling is the shoulder side lane TL1 of the two-lane road.
  • the lane estimation unit 1303 determines the similarity between the image data TVD and the area pattern PT1.
  • the lane can be estimated based only on the lane. In this case, if the similarity with the area pattern PT1 received from the similarity determination unit 1302 exceeds a predetermined threshold, the lane estimation unit 1303 determines that the lane on which the vehicle 6 is traveling is on the shoulder side of a two-lane road on one side. If the similarity to the area pattern PT1 is equal to or less than a predetermined threshold, the lane on which the vehicle 6 is traveling is the lane TL2 on the median strip side of the two-lane road on each side. It can be estimated that there is.
  • the pattern acquisition unit 1301 is set to read the area patterns PT3 and PT4 shown in FIGS. 27A and 27B. It is also possible. In such a case, when the similarity determination unit 1302 determines that the similarity of the area pattern PT3 is higher than that of the area pattern PT4, the lane estimation unit 1303 determines the lane in which the host vehicle 6 is traveling. It can be determined that the own vehicle 6 is traveling on the lane TL2 on the median strip side of the two-lane road on one side.
  • the pattern acquisition unit 1301 reads out the area patterns PT3 to PT6 shown in FIGS. It is conceivable that 1302 is set to select an area pattern PT having a similarity exceeding a predetermined threshold. For example, when the area pattern PT3 and the area pattern PT4 are selected by the similarity determination unit 1302, the lane estimation unit 1303 can determine that the vehicle 6 is traveling on the center lane of the one-lane three-lane road. . Alternatively, when the area pattern PT3 and the area pattern PT5 are selected by the similarity determination unit 1302, the lane estimation unit 1303 determines that the vehicle 6 is traveling on the lane on the median strip side of the three-lane road. Can be.
  • the lane estimation processing unit 130 may determine the allowable range of the similarity based on a preset threshold value stored in the threshold value storage unit 25. For example, when the area pattern PT having the highest similarity is received from the similarity determination unit 1302, if the similarity does not satisfy a preset threshold, the process is interrupted and an error message indicating that estimation is impossible is output. You may make it.
  • the threshold value may be a constant value regardless of the lane, or may be a value set for each lane or each region pattern PT.
  • the lane estimation processing unit 130 may interrupt the processing and output an error message. In this case, new image data VD may be acquired and the process may be repeated.
  • the control unit 10 of the lane estimation device 1 controls the lane estimation processing in step S4 shown in FIG.
  • the likelihood (validity) of the lane estimated by the unit 130 is determined, and when it is determined that the lane is not valid, a process of correcting the lane estimation result is executed.
  • the processing procedure and processing contents by the lane correction unit 14 the same ones as described with reference to FIG. 8 can be adopted.
  • step S5 Output of Lane Estimation Data
  • the control unit 10 executes control for outputting a lane estimation result in step S5. This processing can be executed in the same manner as in the first embodiment.
  • FIG. 28A shows another example of the still image data VD when another traveling vehicle MB exists.
  • the still image data VD is captured by the camera 2 mounted on the vehicle 6 traveling on the roadside lane TL1 of a two-lane road, for example, as shown in FIG. It has been executed.
  • the still image data VD in FIG. 28A includes, similarly to the image data VD shown in FIG. 25A, the hood portion 6 of the own vehicle, the median strip MS, the traveling lanes TL1 and TL2, the roadside SR and the curb SB, Further, another vehicle MB traveling on the traveling lane TL2 is shown.
  • FIG. 28B illustrates an example of an output result obtained by performing an extraction process using SegNet by the road region extraction unit 131 on the image data VD illustrated in FIG. 28A.
  • a road region RE shaded portion
  • a region MBR dot hatched portion
  • a color corresponding to the labeling in pixel units is assigned to each area.
  • FIG. 28B shows an example in which the accuracy of the region extraction is slightly low and the approximation process is not performed, and the road region RE and the vehicle region MBR include the contour line of the unevenness due to the erroneous detection.
  • FIG. 29 illustrates an example of processing performed by the similarity determination unit 1302 to determine the similarity between the area pattern PT1 and the processed image data TVD.
  • the similarity determination unit 1302 sets the origin at the upper left of each image, the x-axis in the horizontal direction of the image, the y-axis in the vertical direction of the image, and the coordinate point P (x, y) for each pixel position.
  • the pixel values at the coordinate point P are compared.
  • the comparison of the pixel values may be performed over the entire image, or may be performed only on the coordinates corresponding to the road portion RD in the area pattern PT1.
  • the coordinates of the lower right point Q of each image are (640, 360).
  • the point P1 is located in a green area recognized as a road in both the pattern PT1 and the image data TVD, and the RGB values match. Therefore, the similarity determination unit 1302 can perform a process such as setting a flag indicating a pixel value match for the point P1.
  • the point P2 is in the road portion RD in the pattern PT1, but is in the region MBR identified as a vehicle in the image data TVD. Therefore, the similarity determination unit 1302 determines that the pixel values of the point P2 do not match.
  • the similarity determination unit 1302 determines, for the coordinate points included in the road portion RD of the region pattern PT, the road portion RD (shaded portion) or the vehicle region MBR (dot hatching) in the image data TVD. ) Can be configured to determine that the pixel values match.
  • the similarity determination unit 1302 determines that, for the coordinate points included in the road portion RD of the area pattern PT, a black area (a colorless area in the drawing) from which nothing is extracted in the image data TVD It is configured to determine only a mismatch.
  • the similarity determination unit 1302 uses the entire shape RE + MBR including the region MBR of the object existing on the road region in the road region RE for comparison with the region pattern PT.
  • the coordinate points corresponding to the road portion RD of the area pattern PT are not included in the road area.
  • Information can be easily complemented.
  • the vehicle region MBR may be different from the road region RE as labeled, and the similarity determination may be performed.
  • FIG. 30 shows a road portion PT3-RD of the pattern PT3 shown in FIG. 27A (the outline is indicated by a dashed line) and the processed image data TVD shown in FIG. 5 shows an image obtained by superimposing a road region RE on the road.
  • the similarity determination unit 1302 can also set only the road portion PT3-RD as a similarity determination target. In this case, for each coordinate point in the road portion PT3-RD, the lane estimation device 1 compares the corresponding coordinate point in the image data TVD with the pixel value.
  • the lane estimating apparatus 1 determines that there is a lane in this area, that is, the host vehicle 6 is located on the side of the median strip. It can be estimated that the vehicle is traveling on the traveling lane TL2. On the other hand, if the number of points where the pixel values match the image data TVD for the coordinate points in the road portion PT3-RD is equal to or less than a certain number, the lane estimating apparatus 1 has no lanes in this area, that is, the own vehicle 6 is on the roadside. It can be estimated that the vehicle is traveling on the traveling lane TL1.
  • the lane estimation device 1 allows the other vehicle to travel on the same lane in front of the own vehicle 6.
  • the lane estimation can be performed without any trouble even when the vehicle is running.
  • the lane estimation device 1 can target a smaller area for comparison, and can perform lane estimation with a small comparison process.
  • the region pattern PT to be used for comparison may be arbitrarily set by the user of the lane estimation device 1 or the like according to the road condition, the processing speed, the estimation accuracy, and the like.
  • the lane estimation device 1 cuts the upper and lower parts of the image and each area pattern PT (for example, cuts the upper part 640 ⁇ 100 and the lower part 640 ⁇ 60 of the 640 ⁇ 360 image), and sets the pixel value only in the remaining part. May be configured to be compared. As a result, the calculation cost for lane estimation can be reduced. Further, as shown in FIG. 25A and FIG. 28A, when the bonnet portion 6 of the own vehicle is reflected in the image data VD, the image corresponding to the bonnet portion 6 and the lower part of each region pattern PT are cut. However, by configuring the pixel values to be compared only in the remaining portion, it is possible to reduce the erroneous determination of the similarity due to the difference in the bonnet shape, so that the common area pattern PT can be used between different vehicle types. .
  • the lane estimation device 1 extracts a shape representing a road region from image data obtained by imaging the traveling direction of the vehicle 6, and also extracts a shape representing the road region. Then, pixel value data obtained by labeling each pixel in the road area is acquired as a feature value. Then, it is determined whether the pixel value data is similar to any of the preset patterns for each road or each lane, thereby estimating the lane on which the vehicle 6 is moving.
  • the second embodiment focusing on the feature that the shape representing the road area when the traveling direction is viewed from the moving vehicle 6 differs depending on the lane in which the vehicle 6 is moving,
  • the lane in which the vehicle 6 is moving can be estimated by comparing with a preset pattern based on the pixel value obtained by labeling each pixel. For this reason, it is possible to estimate the traveling lane without relying on the lane markings that separate the lanes on the road. It is possible to accurately estimate the lane even when is thinned or has disappeared.
  • the area patterns PT corresponding to all the lanes on the road are used for comparison, which is expected to improve the accuracy of estimation.
  • the area pattern PT corresponding to a part of the lane on the road is used for comparison, whereby it is expected that the processing speed can be increased and the influence of other vehicles can be reduced.
  • the coordinate point in the road portion RD in the area pattern is determined to be that the object is a part of the road.
  • the similarity is determined assuming that it is. For this reason, even if the information obtained from the road area reflected in the image data is insufficient due to the presence of an object such as another traveling vehicle, the information is complemented based on the shape of the object and the lane is changed. It can be estimated.
  • the lane estimation device 1 is mounted on a vehicle has been described as an example.
  • the lane estimating apparatus 1 is installed on a cloud computer or an edge router, and the vehicle 6 uses the image data obtained by the camera 2, the position data obtained by the GPS sensor 3, and the vehicle sensor 4.
  • the obtained vehicle sensor data may be transmitted from the in-vehicle communication device to the cloud or the lane estimation device on the edge router, and the lane estimation device may receive the data and execute the lane estimation process.
  • the processing units included in the lane estimation device may be distributed and arranged in an in-vehicle device, a cloud computer, an edge router, and the like, and these devices may cooperate with each other to obtain lane estimation data.
  • the various functional units described in each of the above embodiments may be realized by using a circuit.
  • the circuit may be a dedicated circuit for realizing a specific function or a general-purpose circuit such as a processor.
  • a program for realizing the above processing may be provided by being stored in a computer-readable recording medium.
  • the program is stored in a recording medium as a file in an installable format or a file in an executable format. Examples of the recording medium include a magnetic disk, an optical disk (CD-ROM, CD-R, DVD, etc.), a magneto-optical disk (MO, etc.), a semiconductor memory, and the like.
  • the recording medium may be any as long as it can store a program and can be read by a computer.
  • a program for implementing the above processing may be stored on a computer (server) connected to a network such as the Internet, and downloaded to a computer (client) via the network.
  • the lane estimation data obtained by the lane estimation device 1 is output to the automatic driving control device 5, and the automatic driving control device 5 moves the vehicle 6 in the lane based on the lane estimation data.
  • the case of using the vehicle for traveling or controlling lane change has been described as an example.
  • the present invention is not limited to this.
  • the lane estimation data may be output to the drive recorder, and the drive recorder may record the lane estimation data as one piece of travel history information of the vehicle 6.
  • the lane estimation data may be transmitted to, for example, a road management server, and the road management server may use the data as data for monitoring traffic volume, predicting congestion, or the like in units of road lanes.
  • the lane change instruction information may be presented to the vehicle based on the prediction result of the traffic congestion or the like. Further, by inputting the lane estimation data to a navigation device mounted on the vehicle, for example, change instruction information of the traveling lane of the vehicle may be presented to the driver according to the destination.
  • the vehicle 6 such as an automobile has been described as an example of the moving body, and the case where the vehicle 6 travels on a two-lane road, for example, has been described.
  • the moving body is not limited thereto, and may be, for example, a motorcycle or a bicycle, a personal mobility, a vehicle for towing livestock such as a carriage, a farming vehicle such as a cultivator, or a pedestrian. .
  • a warning message may be output by a synthesized voice or a sound.
  • the bicycle travels on the bicycle lane set on the road in the determined direction. If you are traveling on a lane other than a bicycle lane, or if you are traveling backwards even if you are traveling on a bicycle lane, a warning message with synthesized voice or sound It is good to output to the driver.
  • the type of the road to be estimated may be a highway, a toll road, a cycling road, a sidewalk, or a farm road, in addition to a general road having two lanes on each side.
  • the processing content, the configuration of the road to be estimated, and the like can be variously modified and implemented without departing from the gist of the present invention.
  • the image data used for the lane estimation is described as being obtained by the camera 2 taking an image of a range including a road area in the traveling direction of the vehicle 6, but is not limited thereto.
  • the image data may be image data obtained by the camera 2 capturing an image of a range including a road area in another direction, such as behind the vehicle 6.
  • the example has been described in which the road area RE of the image data TVD is compared with the road portion RD of the area pattern PT to determine the degree of similarity. It is also possible to determine the degree of similarity by comparing the road area) with a part BK of the area pattern PT other than the road part RD.
  • the present invention is not limited to the above-described embodiment as it is, and can be embodied by modifying the constituent elements in an implementation stage without departing from the scope of the invention.
  • Various inventions can be formed by appropriately combining a plurality of constituent elements disclosed in the above embodiments. For example, some components may be deleted from all the components shown in the embodiment. Further, components of different embodiments may be appropriately combined.
  • An image acquisition unit that acquires image data obtained by imaging a range including a road area in which the moving object is moving, A feature amount calculating unit that recognizes a shape representing the road region from the obtained image data, and calculates a feature amount of the road region based on the recognized shape;
  • a lane estimating unit comprising: an estimating unit for estimating a lane in which the moving body is moving based on the calculated feature amount.
  • the feature amount calculation unit calculates, as a feature amount of the road region, a slope angle of a contour line based on the shape representing the recognized road region,
  • the estimation processing unit estimates the lane in which the moving object is moving by determining which of the threshold ranges set in advance for the lanes includes the calculated inclination angle of the contour line,
  • the lane estimation device according to the above C1.
  • the feature value calculation unit is configured to calculate, based on the shape representing the recognized road region, barycentric coordinates of a graphic representing the shape, a graphic representing the shape, or a virtual shape derived from the graphic, as the feature value of the road region.
  • the estimation processing unit determines whether the calculated barycentric coordinates of the figure, the angle of the vertex, and the area of the figure are included in a range of a threshold set for each lane. Estimate the lane inside, The lane estimation device according to the above C1.
  • the feature amount calculation unit is configured to calculate the shape of the figure as a feature amount, based on the shape representing the recognized road area, into a triangle having one side in a vertical direction of a screen represented by the image data.
  • the estimation processing unit determines whether the calculated angle between the contour lines or the area of the figure is included in a range of a threshold value set in advance for each lane, so that the moving object is moving. Estimating the lane of The lane estimation device according to the above C1.
  • the feature amount calculation unit is configured to determine, from the acquired image data, a first shape representing the road region including an object existing on the road region and a first shape representing a region of the road region excluding the object. 2 are respectively recognized, a contour of the road area when the object is not present is estimated based on the recognized first shape and the second shape, and a slope angle of the contour is estimated.
  • the estimation processing unit estimates the lane in which the moving object is moving by determining which of the threshold ranges set in advance for the lanes includes the calculated inclination angle of the contour line, The lane estimation device according to the above C1.
  • the feature amount calculation unit acquires, as the feature amount of the road region, pixel value data that is labeled on each pixel in the road region based on the shape representing the recognized road region, The estimation processing unit determines which of the plurality of patterns set in advance for the road region the acquired pixel value data is similar to, thereby determining the lane in which the moving object is moving. Estimating the The lane estimation device according to the above C1.
  • the feature amount calculation unit acquires, as the feature amount of the road region, pixel value data that is labeled on each pixel in the road region based on the shape representing the recognized road region, The estimation processing unit determines whether the acquired pixel value data is similar to any of the patterns set in advance for each of the lanes included in the road area, so that the moving object is moving.
  • Estimate lane The lane estimation device according to the above C1.
  • the feature amount calculation unit recognizes a first shape representing the road area including an object existing on the road area from the obtained image data, and labels the pixels in the first shape.
  • the estimation processing unit may be configured such that the obtained pixel value data is similar to any of a plurality of patterns preset for the road area or a pattern preset for each lane included in the road area. By determining whether the moving body is moving lane, The lane estimation device according to the above C1.
  • An information processing device is a lane estimation method for estimating a lane on which a moving object is moving, A step of acquiring image data obtained by imaging the range including the road area on which the moving object is moving, Recognizing a shape representing the road region from the obtained image data, and calculating a feature amount of the road region based on the recognized shape; Estimating a lane on which the moving object is moving based on the calculated feature amount.
  • a program that causes a processor included in the lane estimation device to execute the processing of each unit included in the lane estimation device according to any one of C1 to C9.
  • a lane estimation method for estimating a lane in which a moving object (6) is moving the method being performed by a computer, Acquiring image data obtained by capturing an image of a range including a road area on which the moving object (6) is moving; Recognizing a shape representing the road area from the obtained image data, and calculating a feature amount of the road area based on the recognized shape; Estimating a lane on which the moving object (6) is moving, based on the calculated feature amount.
  • Calculating the feature amount includes calculating the inclination angle of the contour line based on the shape representing the recognized road region as the feature amount of the road region, The estimating is performed by determining which of the threshold values set in advance for each lane is included in the calculated inclination angle of the contour line, thereby determining the lane in which the moving object (6) is moving. Including estimating, The method according to C12 above.
  • Calculating the feature quantity is based on the shape representing the recognized road area, and calculating, as feature quantities of the road area, barycentric coordinates of a figure representing the shape, a figure representing the shape, or a figure derived from the figure.
  • Calculating at least one of an angle of one vertex of the virtual figure to be drawn and an area of the figure representing the shape The estimating is performed by determining which of the calculated barycentric coordinates of the figure, the angle of the vertex, and the area of the figure falls within a threshold range set for each lane. ) Includes estimating the traveling lane, The method according to C12 above. [C15] Calculating the feature amount is based on the shape representing the recognized road region, and converting the shape into a triangle having one side in a vertical direction of a screen represented by the image data as the feature amount.
  • Calculating at least one of an angle between two sides of the graphic, and an area of the converted graphic The estimating is performed by determining whether the calculated angle between the contour lines or the area of the figure is included in a range of a threshold value set in advance for each lane. Estimating the traveling lane, The method according to C12 above.
  • Calculating the feature amount includes, from the acquired image data, a first shape representing the road region including an object existing on the road region, and a region excluding the object in the road region. Recognizing a second shape representing the road shape, estimating a contour of the road area when the object does not exist based on the recognized first shape and the second shape, and inclining the contour.
  • the estimating is performed by determining which of the threshold values set in advance for each lane is included in the calculated inclination angle of the contour line, thereby determining the lane in which the moving object (6) is moving.
  • Calculating the feature amount, as a feature amount of the road region includes obtaining pixel value data labeled on each pixel in the road region based on the shape representing the recognized road region, The estimating includes determining whether the acquired pixel value data is similar to any of a plurality of patterns set in advance for the road area, so that the moving object (6) moves. Including estimating the lanes in the The method according to C12 above.
  • Calculating the feature amount, as a feature amount of the road region includes obtaining pixel value data labeled on each pixel in the road region based on the shape representing the recognized road region, The estimating is performed by determining whether the obtained pixel value data is similar to any of patterns set in advance for each lane included in the road area. Including estimating the traveling lane; The method according to C12 above.
  • Calculating the feature amount includes recognizing a first shape representing the road area including an object existing on the road area from the acquired image data, and assigning each pixel in the first shape to each pixel in the first shape.
  • the estimating means that the acquired pixel value data is similar to any of a plurality of patterns preset for the road area or a pattern preset for each lane included in the road area.
  • Estimating the lane on which the moving object (6) is moving The method according to C12 above.
  • a method according to claim 1 [C21] A lane estimation device (1) comprising means for performing the method according to any one of C12 to C19. [C22] 20. A program comprising instructions that, when executed by a computer, cause the computer to execute the method according to any one of C12 to C19. [C23] 20. A computer readable storage medium comprising instructions which, when executed by a computer, cause the computer to perform the method according to any of C12 to C19.
  • Image data storage unit 22 Lane estimation data storage unit 23: Road information storage unit 24: Vehicle sensor data storage unit 25: Threshold storage unit 26: Pattern storage unit 30: Input / output I / F 40 bus 130 lane estimation processing unit 1301 pattern acquisition unit 1302 similarity determination unit 1303 lane estimation unit VD still image data TVD processed image data TL1, TL2 running lane WL sidewalk MS central separation zone SR: road shoulder SB: curb SH: planting RE: road area outline PT: area pattern RD: road area outline MBR: vehicle area GR: guard rail

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mechanical Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Mathematical Physics (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

区画線に頼ることなくレーンを正確に推定できる技術を提供する。車両6の進行方向を撮像して得られた画像データから道路領域を表す形状を抽出し、当該形状を表す情報をもとに、一つの輪郭線の傾き角、上記道路領域の形状を表す図形の重心座標、上記形状を表す図形の一頂点を挟んで連続する2つの輪郭線間の角度、上記形状を表す図形の面積を、上記道路領域の形状の特徴量として算出する。そして、上記算出された特徴量がレーンごとに予め設定された閾値の範囲に含まれるか否かを判定することにより、車両6が走行中のレーンを推定する。

Description

レーン推定装置、方法およびプログラム
 この発明は、例えば、道路上に形成された、車両や人が走行または歩行するレーンを推定するための装置、方法およびプログラムに関する。
 近年、例えば、自動車の走行制御や運転サポートに関する技術の開発が活発に行われている。道路において、車両がどのレーン(車線)を走行しているか正確に認識することは車両の走行を安全に制御する上できわめて重要である。従来では、車両に搭載したカメラにより撮影された路面の映像を用いて、画像処理によりレーンを区切る区画線を検出することにより、車両のレーンを推定する技術が報告されている(例えば特許文献1を参照)。
日本国特開2005-157731号公報
 ところが、特許文献1に記載された路面の区画線をもとにレーンを推定する技術では、正規の区画線以外に工事等による補修跡が存在する場合や、経年劣化により区画線が薄くなったり、消えてしまっている場合には、レーンを正確に推定することができないという問題がある。
 この発明は上記事情に着目してなされたもので、一側面では、区画線に頼ることなく移動中のレーンを正確に推定できるようにする技術を提供しようとするものである。
 上記目的を達成するためにこの発明の第1の態様は、道路上において移動体が移動中のレーンを推定するための装置、方法またはプログラムにおいて、移動体が道路領域を含む範囲を撮像して得られた画像データを取得し、前記取得された画像データから前記道路領域を表す形状を認識して、当該認識された形状をもとに前記道路領域の特徴量を算出し、前記算出された特徴量に基づいて、前記移動体が移動中のレーンを推定するようにしたものである。
 この発明の第1の態様によれば、例えば車両の進行方向を撮像して得られた画像データから道路領域を表す形状が認識され、この形状をもとに上記道路領域の特徴量が算出されて、この特徴量をもとに移動体が移動中のレーンが推定される。すなわち、移動体から見たときの道路領域を表す形状の特徴に着目してレーンが推定される。このため、道路上のレーンを区分する区画線に頼ることなく移動中のレーンを推定することが可能となり、これにより例えば工事等により区画線の補修跡が残存する場合や、経年劣化により区画線が薄くなったり消えてしまっている場合でも、レーンを推定することが可能となる。
 この発明の第2の態様は、第1の態様において、道路領域の特徴量として、上記認識された道路領域を表す形状をもとにその輪郭線の傾き角を算出し、この算出された輪郭線の傾き角がレーンごとに予め設定された閾値の範囲のいずれに含まれるかを判定することにより、移動体が移動中のレーンを推定するようにしたものである。
 この発明の第2の態様によれば、例えば移動体から見たときの道路領域の路肩等を示す輪郭線の傾き角が、移動体が移動中のレーンの位置により異なることに着目して、移動体がいずれのレーンを移動しているかを推定することができる。一般に道路の輪郭はどの道路においても画像データから認識可能であるため、区画線を認識できない道路においてもレーンを確実に推定可能となる。
 この発明の第3の態様は、上記第1の態様において、道路領域の特徴量として、道路領域を表す形状をもとに、当該形状を表す図形の重心座標と、上記形状を表す図形または当該図形から導かれる仮想図形の1つの頂点の角度と、上記形状を表す図形の面積のうちの少なくとも1つを算出し、上記算出された図形の重心座標、1つの頂点の角度、および図形の面積がレーンごとに設定された閾値の範囲に含まれるか否かを判定することにより、移動体が移動中のレーンを推定するようにしたものである。
 この発明の第3の態様によれば、道路領域を表す図形の重心座標と、当該図形または当該図形から導かれる仮想的な図形の1つの頂点の角度と、上記図形の面積の少なくとも1つが道路領域の特徴量として算出され、その算出結果をもとにレーンが推定される。従って、この場合も道路領域を表す形状から求められる特徴量に基づいてレーンが推定されるため、区画線を検出できない道路においてもレーンを確実に推定可能となる。
 この発明の第4の態様は、上記第1の態様において、道路領域の特徴量として、道路領域を表す形状を前記画像データにより表される画面の垂直方向を一辺とする三角形に変換した図形の二辺間の角度、および上記三角形の図形の面積のうちの少なくとも1つを算出し、当該算出された二辺の角度または図形の面積が、レーンごとに予め設定された閾値の範囲のいずれに含まれるかを判定することにより、移動体が移動中のレーンを推定するようにしたものである。
 この発明の第4の態様によれば、道路領域を表す形状を前記画像データにより表される画面の垂直方向を一辺とする三角形に変換し、この三角形の二辺間の角度または面積を道路領域の特徴量としてレーンが推定される。従って、この場合も道路領域を表す形状から求められる特徴量に基づいてレーンが推定されるため、区画線を検出できない道路においてもレーンを確実に推定可能となる。
 この発明の第5の態様は、第1の態様において、画像データから、道路上に存在する物体を含む道路領域を表す第1の形状と、上記道路領域のうち上記物体を除いた領域を表す第2の形状をそれぞれ認識し、当該認識された第1の形状および第2の形状をもとに前記道路領域の輪郭線を推定してその傾き角を算出する。そして、この算出された輪郭線の傾き角がレーンごとに予め設定された閾値の範囲のいずれに含まれるかを判定することにより、移動体が移動中のレーンを推定するようにしたものである。
 この発明の第5の態様によれば、道路領域上に他の走行車両等の物体が存在する場合に、画像データから上記物体を含む道路領域全体を表す第1の形状と、上記道路領域のうち上記物体を除いた領域を表す第2の形状がそれぞれ認識され、上記認識された第1および第2の各形状をもとに上記物体が存在しないと仮定したときの道路領域の輪郭線が推定される。そして、この推定された輪郭線の傾き角をもとに、移動体が移動中のレーンが推定される。このため、例えば路肩側のレーンを走行中の他の車両により路肩や走行レーンの左端部が隠れている場合でも、当該路肩や走行レーンの左端部の輪郭線を推定して、その推定結果をもとにレーンを推定することが可能となる。
 この発明の第6の態様は、上記第1の態様において、道路領域の特徴量として、上記道路領域を表す形状をもとに道路領域内の各画素にラベリングした画素値データを取得し、取得された画素値データが、上記道路領域に対して予め設定された複数のパターンのうちのいずれに類似するかを判定することにより、移動体が移動中のレーンを推定するようにしたものである。
 この発明の第7の態様は、上記第1の態様において、道路領域の特徴量として、上記道路領域を表す形状をもとに道路領域内の各画素にラベリングした画素値データを取得し、取得された画素値データが、上記道路領域に含まれるレーンごとに予め設定されたパターンのうちのいずれに類似するかを判定することにより、移動体が移動中のレーンを推定するようにしたものである。
 この発明の第6または第7の態様によれば、例えば移動体から見たときの道路領域の形状が、当該移動体が移動中のレーンに応じて異なることに着目して、画像データ内の道路領域に対して画素ごとにラベリングした画素値データが、予め設定されたパターンのうちのいずれに類似するかを判定することによって、移動体が移動中のレーンが推定される。このため、画像データ内に道路領域が映っていれば、パターンとの類否を判定することができ、区画線に頼ることなく移動体がいずれのレーンを移動しているかを推定することができる。
 この発明の第8の態様は、上記第1の態様において、道路領域の特徴量として、前記道路領域上に存在する物体を含む上記道路領域を表す第1の形状を認識し、前記第1の形状内の各画素にラベリングした画素値データを取得し、取得された画素値データが予め設定されたパターンのうちのいずれに類似するかを判定することにより、移動体が移動中のレーンを推定するようにしたものである。
 この発明の第8の態様によれば、道路領域上に物体が存在する場合に、当該物体を含む道路領域を表す第1の形状を認識し、その第1の形状内の各画素にラベリングした画素値データを取得して、予め設定されたパターンのうちのいずれに類似するかを判定することにより、移動体が移動中のレーンが推定される。このため、道路領域上に物体が存在して、画像データから得られる道路領域の形状に基づく情報が十分でないときでも、物体を道路領域の一部とみなすことにより、移動体がいずれのレーンを移動しているかを効率的に推定することができる。
 この発明の第9の態様は、過去に得られたレーン推定結果から推定される移動体のレーン変更履歴を表す情報と、移動体の移動位置に対応する道路の構成に関する情報と、移動体の動きの状態から推定される道路領域におけるレーン変更を表す情報との少なくとも1つに基づいて、現在のレーン推定結果を補正するようにしたものである。
 この発明の第9の態様によれば、移動体のレーン変更履歴と、移動中の道路の構成に関する情報と、移動体がレーン変更したか否かを表す情報の少なくとも1つに基づいて、現在のレーン推定結果が補正される。従って、例えば、天候や照度等の影響により、鮮明な画像データが得られない場合や画像データから道路領域が正確に認識できない場合でも、現在移動中のレーンの推定結果を補正することが可能となり、これにより正確なレーン推定結果を得ることが可能となる。
 すなわちこの発明の各態様によれば、区画線に頼ることなく移動中のレーンを正確に推定できるようにする技術を提供することができる。
図1は、この発明の一実施形態に係るレーン推定装置を備えた車載制御システムの概略構成図である。 図2は、この発明の一実施形態に係るレーン推定装置のハードウェア構成を示すブロック図である。 図3は、この発明の第1の実施形態に係るレーン推定装置のソフトウェア構成を示すブロック図である。 図4は、図3に示したレーン推定処理部の機能構成を示すブロック図である。 図5は、図3に示したレーン推定装置の全体の処理手順と処理内容を示すフローチャートである。 図6は、図5に示した画像処理ルーチンの処理手順と処理内容を示すフローチャートである。 図7は、図5に示したレーン推定処理ルーチンの処理手順と処理内容を示すフローチャートである。 図8は、図5に示したレーン補正処理ルーチンの処理手順と処理内容を示すフローチャートである。 図9は、図7に示したレーン推定処理ルーチンの中の道路領域抽出処理ルーチンの処理手順と処理内容を示すフローチャートである。 図10は、道路の構成の一例を示す平面図である。 図11は、車載カメラにより進行方向を撮像したときに得られる道路の画像データの第1の例を示す図である。 図12は、図11に示した画像データから道路領域を表す図形を抽出した結果の第2の例を示す図である。 図13は、図12に示した図形から輪郭の傾き角を算出して車両の走行レーンを推定する処理の第1の例を説明するための図である。 図14は、図12に示した図形から輪郭の傾き角を算出して車両の走行レーンを推定する処理の第2の例を説明するための図である。 図15は、図12に示した図形から特定領域の重心を算出して車両の走行レーンを推定する処理の第1の例を説明するための図である。 図16は、図12に示した図形から特定領域の重心を算出して車両の走行レーンを推定する処理の第2の例を説明するための図である。 図17は、図12に示した図形から三角形の面積または角度を算出して車両の走行レーンを推定する処理の第1の例を説明するための図である。 図18は、図12に示した図形から三角形の面積または角度を算出して車両の走行レーンを推定する処理の第2の例を説明するための図である。 図19は、車両から道路領域の両側部における任意の点を見たときの角度をもとに車両が走行中のレーンを推定する処理の第1の例を説明するための図である。 図20は、車両から道路領域の両側部における任意の点を見たときの角度をもとに車両が走行中のレーンを推定する処理の第2の例を説明するための図である。 図21は、他のレーンを車両が走行しているときの道路領域の算出方法の一例を説明するための図である。 図22は、この発明の第2の実施形態に係るレーン推定装置のソフトウェア構成を示すブロック図である。 図23は、図22に示したレーン推定処理部の機能構成を示すブロック図である。 図24は、図23に示したレーン推定処理部によるレーン推定処理ルーチンの処理手順と処理内容を示すフローチャートである。 図25Aは、車載カメラにより進行方向を撮像したときに得られる道路の画像データの第2の例を示す図である。 図25Bは、図25Aに示した画像データから道路領域を表す図形を抽出した結果の第2の例を示す図である。 図26Aは、領域パターンの第1の例を示す図である。 図26Bは、図26Aに示した領域パターンに対し、走行レーンを区別する仮想線を描いた一例を示す図である。 図26Cは、領域パターンの第2の例を示す図である。 図26Dは、図26Cに示した領域パターンに対し、走行レーンを区別する仮想線を描いた一例を示す図である。 図27Aは、領域パターンの第3の例を示す図である。 図27Bは、領域パターンの第4の例を示す図である。 図27Cは、領域パターンの第5の例を示す図である。 図27Dは、領域パターンの第6の例を示す図である。 図28Aは、車載カメラにより進行方向を撮像したときに得られる道路の画像データの第3の例を示す図である。 図28Bは、図28Aに示した画像データから道路領域および他車両を表す図形を抽出した結果の第3の例を示す図である。 図29は、画像データからの抽出結果をもとに画素レベルで領域パターンと比較するイメージの一例を示す図である。 図30は、画像データからの抽出結果をもとに画素レベルで領域パターンと比較するイメージの他の例を示す図である。
 以下、図面を参照してこの発明に係わる実施形態を説明する。 
 [第1の実施形態]
 (構成)
 (1)システム
 図1は、この発明の一実施形態に係るレーン推定装置を備えた車載システムの概略構成図である。車両6には、レーン推定装置1と、カメラ2と、GPS(Global Positioning System)センサ3と、車両センサ4と、自動運転制御装置5が搭載されている。
 カメラ2は、例えば、CMOS(Complementary Metal Oxide Semiconductor)センサ等の固体撮像デバイスを用いたもので、少なくとも車両6の進行方向における道路領域を撮像範囲に含むように設置場所、向きおよび角度が設定されている。そしてカメラ2は、上記車両6の進行方向における道路領域を含む範囲を撮像して得た画像データをレーン推定装置1へ出力する。
 なお、カメラ2は、レーン推定専用に設けられるものであってもよいが、ドライブレコーダのカメラやその他の目的で搭載されているカメラ等、同等の画像データを得ることができるものであれば、どのようなカメラでも利用可能である。例えば、車両が二輪車や自転車の場合にはドライバのヘルメットに設けられたカメラを使用してもよく、また車両の同乗者が所持するスマートフォン等の携帯端末に設けられたカメラを使用してもよい。さらにカメラの種類としては赤外線カメラを用いてもよい。また画像データとしては、動画像データでもよいが、一定の時間間隔で撮像される静止画像データであってもよい。
 GPSセンサ3は、複数のGPS衛星が送信するGPS信号をそれぞれ受信して測距演算を行うことで車両6の緯度経度を算出するもので、この算出された緯度経度を車両6の位置データとしてレーン推定装置1へ出力する。なお、GPSセンサ3の代わりに、GPSセンサと同等の機能が発揮されるのであれば、地面(道路)をベースとした位置特定システム(Ground Based Positioning System:GBPS)等を使用してもよい。
 車両センサ4は、例えば、車両6の自己診断(On-board diagnostics:OBD)を行うために、車両6の速度、加速度およびエンジンの回転数等の車両6の動きの状態を表す情報を検出するもので、その検出結果を車両センサデータとしてレーン推定装置1へ出力する。なお、車両センサ4としては、速度、加速度およびエンジンの回転数を検出するセンサ以外に、ステアリングホイールの操舵角等を検出するセンサを含んでいてもよく、さらにはOBD以外の目的で使用されるセンサを用いてもよい。
 自動運転制御装置5は、車外カメラおよびドライバカメラの撮像画像や各種車載センサから出力されるセンサデータに基づいて車両6を全自動で或いは半自動で走行させるための制御を行うもので、レーン推定装置1から出力されるレーン推定結果を表すデータをセンサデータの1つとして利用する。
 (2)レーン推定装置
 (2-1)ハードウェア構成
 レーン推定装置1は、車両6が走行中のレーンを推定するもので、例えばパーソナルコンピュータにより構成される。図2は、レーン推定装置1のハードウェア構成の一例を示すブロック図である。 
 レーン推定装置1は、CPU(Central Processing Unit)等のハードウェアプロセッサ10Aを有し、このハードウェアプロセッサ10Aに対し、プログラムメモリ10Bと、データメモリ20と、入出力インタフェースユニット(以後入出力I/F)30とを、バス40を介して接続したものとなっている。
 入出力I/F30には、カメラ2、GPSセンサ3、車両センサ4および自動運転制御装置5等の外部機器が接続される。入出力I/F30は、カメラ2、GPSセンサ3および車両センサ4からデータを受け取るとともに、レーン推定装置1により生成された推定結果を表すデータを自動運転制御装置5へ出力する。入出力I/F30は、有線または無線の通信インタフェースを含むこともできる。
 プログラムメモリ10Bは、記憶媒体として、例えば、HDD(Hard Disk Drive)、SSD(Solid State Drive)等の随時書込みおよび読出しが可能な不揮発性メモリと、ROM等の不揮発性メモリとを組み合わせて使用したもので、実施形態に係る各種制御処理を実行するために必要なプログラムが格納されている。
 データメモリ20は、記憶媒体として、例えば、HDDまたはSSD等の随時書込みおよび読出しが可能な不揮発性メモリと、RAM(Random Access Memory)等の揮発性メモリとを組み合わせて使用したもので、各種処理を行う過程で取得および作成された各種データを記憶するために用いられる。
 (2-2)ソフトウェア構成
 図3は、この発明の第1の実施形態に係るレーン推定装置1のソフトウェア構成を、図2に示したハードウェア構成と関連付けて示したブロック図である。
 入出力I/F30は、カメラ2、GPSセンサ3および車両センサ4から出力される各データを受信して、当該各データを制御ユニット10に供給すると共に、制御ユニット10から出力されるレーンの推定結果を表すデータを上記自動運転制御装置5へ出力する。また入出力I/F30は、上記レーン推定結果を表示するための表示データを生成し、当該表示データを例えば車両6のカーナビゲーション装置の表示部へ出力して表示させる。
 データメモリ20の記憶領域は、画像データ記憶部21と、レーン推定データ記憶部22と、道路情報記憶部23と、車両センサデータ記憶部24と、閾値記憶部25とを備えている。
 画像データ記憶部21は、カメラ2により得られた画像データを記憶するために使用される。レーン推定データ記憶部22は、後述する制御ユニット10により得られたレーン推定結果を表すデータを、その推定日時や車両6の位置データ等と関連付けて記憶するために使用される。道路情報記憶部23には、例えば、緯度経度により表される位置データに対応付けて、当該位置に該当する道路の構成を表す情報が予め記憶されている。道路の構成を表す情報には、例えば、上り下り各方向のレーン数や、歩道、路肩、側帯および中央分離帯の有無とその幅員を表す情報が含まれる。車両センサデータ記憶部24は、車両センサ4から出力された車両センサデータを、データ種別および検出時刻を表す情報と対応付けて記憶するために使用される。閾値記憶部25は、レーンごとに予め設定された、様々な特徴量に係る閾値を記憶するために使用される。
 制御ユニット10は、上記ハードウェアプロセッサ10Aと、上記プログラムメモリ10Bとから構成され、ソフトウェアによる処理機能部として、画像データ取得部11と、画像処理部12と、レーン推定処理部13と、レーン補正部14と、過去推定データ取得部15と、道路情報取得部16と、車両センサデータ取得部17と、車両動作状態推定部18と、推定データ出力制御部19とを有している。
 上記各処理部11~19の機能は、プログラムメモリ10Bに格納されたプログラムをCPU(ハードウェアプロセッサ)10Aに実行させることにより実現される。なお、上記各処理部11~19の処理を実行させるためのプログラムは、レーン推定装置1内のプログラムメモリ10Bに予め記憶しておく以外に、ネットワーク上のアプリケーションサーバ等に記憶されているものを使用してもよい。この場合、レーン推定装置1は必要なときに必要なプログラムをアプリケーションサーバからネットワークを介してダウンロードすることにより、上記各処理部11~19の機能を実行させる。
 画像データ取得部11は、画像取得部として、カメラ2から出力された画像データを入出力I/F30を介して順次取り込み、当該画像データをその撮像タイミングまたは受信タイミングを表す情報と関連付けて画像データ記憶部21に記憶させる。
 画像処理部12は、上記画像データ記憶部21から画像データを読み込む。そして、当該画像データが動画像データの場合には所定のフレーム周期で静止画像データを切り出す。また画像処理部12は、上記静止画像データに対し、レーン推定の前処理として、例えばノイズ除去およびカメラ2の性能個体差や設置時の傾き等を補正するキャリブレーション処理を行う。
 レーン推定処理部13は、上記画像処理部12から上記前処理後の画像データを受け取り、当該画像データに基づいて車両6が走行中のレーンを推定する処理を行うもので、その機能として、例えば図4に示すように道路領域抽出部131と、特徴量算出部132と、レーン推定部133とを備えている。
 道路領域抽出部131は以下の処理機能を有する。
 (1) 上記画像処理部12から受け取った画像データから道路領域に相当する範囲を抽出する処理。
 (2) 道路領域として誤抽出された領域をその面積の大小等の情報を用いて除外し、さらに抽出された道路領域に対し平滑化等の処理を実施して道路領域を表す形状を抽出する処理。
 (3) 上記抽出された道路領域に相当する範囲の画像に、道路以外の物体、例えば走行中の他の車両等が含まれる場合に、当該物体を含む領域を表す形状と、上記道路領域のうち上記物体を除いた領域を表す形状をそれぞれ抽出し、抽出された各形状をもとに、上記物体が存在しないと仮定したときの道路領域を表す形状を推定する処理。
 特徴量算出部132は、上記道路領域抽出部131により抽出された道路領域を表す形状をもとに、当該形状の特徴量を算出する処理を行う。なお、特徴量の詳細については後述する。
 レーン推定部133は、上記特徴量算出部132により算出された特徴量を、例えばレーンごとに設定された閾値の範囲に含まれるか否かを判定することにより、車両6がいまどのレーンを走行中であるかを推定する処理を行う。なお、レーンごとの閾値としては、一般的な道路の形状に応じて設定される汎用的な閾値を用いてもよく、また道路の区間ごとにその道路の形状に応じて測定等により事前に設定した値を用いてもよい。
 過去推定データ取得部15は、レーン推定データ記憶部22から過去のレーン推定データを読み出し、このデータに基づいて車両6が過去に走行したレーンの変更履歴や傾向性を推定して、その推定情報を補正候補の情報の一つとしてレーン補正部14に与える。
 道路情報取得部16は、GPSセンサ3により検出された車両6の位置データをもとに、車両6が現在走行中の位置における道路の構成を表す情報を道路情報記憶部23から取得し、当該道路の構成を表す道路情報を補正候補の情報の一つとしてレーン補正部14に与える。
 車両センサデータ取得部17は、車両センサ4から出力される車両6の動きの状態を表す車両センサデータを入出力I/F30を介して受け取り、受け取った車両センサデータをその測定タイミングまたは受信タイミングを表す情報と関連付けて車両センサデータ記憶部24に記憶させる処理を行う。
 車両動作状態推定部18は、上記車両センサデータ記憶部24から車両センサデータを読み出し、この車両センサデータをもとに車両6がレーン変更を行ったか否かを推定して、その推定情報を補正候補の情報の一つとしてレーン補正部14に与える。
 レーン補正部14は、上記レーン推定部133により得られた、車両6が走行中のレーンの推定結果に対し所定の補正処理を行い、補正後のレーン推定データを現在時刻を表す情報と関連付けてレーン推定データ記憶部22に記憶させる。上記レーン推定結果の補正処理には以下の3種類の処理が考えられる。
 (1) 上記道路情報取得部16により取得された、車両6が現在走行中の位置における道路の構成を表す道路情報をもとに、上記レーン推定部133により得られた車両6の走行中のレーンの推定結果の確からしさを判定し、誤っていると見なすことができる場合に、上記推定結果を補正する処理。
 (2) 上記過去推定データ取得部15により推定された、車両6の過去のレーンの変更履歴または傾向性を表す情報をもとに、上記レーン推定部133により得られた、車両6の走行中のレーンの推定結果の確からしさを判定し、誤っていると見なすことができる場合に、上記推定結果を補正する処理。
 (3) 上記車両動作状態推定部18により推定された、車両6の動きの変化を表す情報と、上記過去推定データ取得部15により推定された、車両6の過去のレーンの変更履歴を表す情報とに基づいて、上記レーン推定部133により得られた、車両6の走行中のレーンの推定結果の確からしさを判定し、誤っていると見なすことができる場合に、上記推定結果を補正する処理。
 推定データ出力制御部19は、上記レーン推定データ記憶部22から最新のレーン推定データを読み出して、入出力I/F30から自動運転制御装置5へ出力する処理を行う。また推定データ出力制御部19は、上記最新のレーン推定データを例えば地図データ上に表示するための表示データを生成し、当該表示データを例えばカーナビゲーション装置の表示部へ出力する処理を行う。なお、推定データ出力制御部19は、最新のレーン推定データを出力する以外に、過去の任意のタイミングに対応するレーン推定データを読み出して出力するようにしてもよい。
 (動作)
 次に、以上のように構成された第1の実施形態に係るレーン推定装置1によるレーン推定動作を説明する。 
 図5は、制御ユニット10によるレーン推定処理の全体の処理手順を示すフローチャートである。
 (1)画像データの取得と画像処理
 車両6の走行中において、その進行方向の道路領域を含む景色がカメラ2により撮像され、その画像データがカメラ2からレーン推定装置1へ出力される。レーン推定装置1の制御ユニット10は、画像データ取得部11の制御の下、ステップS1により上記カメラ2から出力される画像データを入力I/F30を介して取り込み、撮像日時を表す情報と関連付けた状態で画像データ記憶部21に順次記憶させる。
 また制御ユニット10は、上記画像データの取得処理と並行して、画像処理部12の制御の下、ステップS2により上記取得された画像データに対しレーン推定のために必要な画像処理を実行する。
 図6は、上記画像処理部12による処理手順と処理内容を示すフローチャートである。すなわち、画像処理部12は、先ず上記画像データ記憶部21から画像データを読み込む。そして、画像データが動画像データであるか否かをステップS21で判定し、動画像データであれば、ステップS22により当該動画像データから一定のフレーム周期で静止画像データを切り出す。続いて画像処理部12は、ステップS23において、上記静止画像データに対しレーン推定のための前処理を行う。ここでは、例えばノイズ除去およびカメラ2の性能個体差や設置時の傾き等を補正するキャリブレーション処理が行われる。なお、この画像処理はハードウェアからなる画像処理回路により行われるようにしてもよい。 
 図11は上記画像処理後の静止画像データVDの第1の例を示すものである。
 (2)走行レーンの推定
 次に、レーン推定装置1の制御ユニット10は、レーン推定処理部13の制御の下、ステップS3において、車両6が走行中のレーンを推定する処理を以下のように実行する。 
 図7は、レーン推定処理部13の処理手順と処理内容を示すフローチャートである。
 (2-1)道路領域の抽出
 レーン推定処理部13は、先ず道路領域抽出部131により、上記前処理が終了した画像データから道路領域を抽出する処理を行う(ステップS31)。
 いま、片側二車線の道路を例にとると、道路は例えば図10に示すように、中央分離帯MSを境界にして上り方向および下り方向にそれぞれ車道を構成する走行レーンTL1,TL2を配置し、走行レーンTL1の外側に路肩SRおよびコンクリートブロックからなる縁石SBを隔てるか、或いは植え込みSHを隔てて、歩道WLを配置したものとなっている。
 このような道路に対し、道路領域抽出部131は、道路領域として例えば走行レーンTL1,TL2および路肩SRを含む領域を抽出する。なお、道路領域としては、走行レーンTL1,TL2のみを抽出してもよい。
 道路領域の抽出処理手段としては、一例としてSegNetが用いられる。SegNetは、画素単位でのラベリング機能を実現するための深層エンコーダ/デコーダアーキテクチャであり、例えば画像に含まれる各部位を区別して異なる複数の表示形態(例えば色)でラベリングする。本実施形態においては、道路領域、道路上に存在する物体の領域(一例として車両領域)、それ以外の領域の3種でラベリングするものとする。
 続いて道路領域抽出部131は、道路領域として誤抽出された領域が存在する場合を考慮し、領域の面積の大小等の情報を用いて、誤検出された領域を除外する処理を行い、さらに抽出された道路領域に対し平滑化等の処理を実施して道路領域を表す形状を抽出する。なお、抽出された道路領域の形状の輪郭線が小刻みな凹凸を有している場合には、例えば上記輪郭線を直線近似するようにしてもよい。
 図12に、上記道路領域抽出処理により抽出された片側二車線の道路の道路領域を表す形状を、もとの画像に重ねて表示した一例を示す。この例では上下各方向の走行レーンTL1,TL2と、左側の路肩SRまでを含む領域REを示す形状(図中網掛け部分)が抽出された場合を示している。この場合、路肩SRには縁石SBが含まれるようにしてもよい。
 一方、画像データには路肩側の走行レーンTL1を走行中の他の車両が映っていることがあり、この場合上記他の走行車両により走行レーンTL1の側端部または路肩SRの側端部が隠れ、道路領域の真の側端部を抽出できない場合がある。そこで、道路領域抽出部131は以下のようにして真の道路領域を抽出している。
 図9は、この場合の道路領域抽出部131の処理手順と処理内容を示すフローチャートである。 
 すなわち、道路領域抽出部131は、ステップS51において、上記SegNetを用いて抽出された道路領域の画像をもとに、道路領域と他の走行車両の外形とを含む全体の領域を表す形状を抽出する。またそれと共にステップS52において、上記道路領域のうち上記走行車両を除いた領域を表す形状を抽出する。なお、上記ステップS51,S52における、それぞれの領域を表す形状を抽出する処理では、誤抽出された領域をその面積の大小等の情報を用いて除外する処理と、抽出された道路領域に対し平滑化等を行って輪郭を抽出する処理が行われる。そして道路領域抽出部131は、ステップS53において、上記ステップS51,S52により抽出された各形状をもとに、上記他の走行車両が存在しないと仮定したときの道路領域の真の形状を推定する。
 (2-2)特徴量の算出および特徴量に基づくレーン推定
 次にレーン推定処理部13は、特徴量算出部132の制御の下、ステップS32において、上記抽出された道路領域を表す形状からその特徴量を算出する。そしてレーン推定処理部13は、レーン推定部133の制御の下、ステップS33において、上記算出された特徴量に基づいて車両6がいま路肩側の走行レーンTL1を走行中であるか、或いは中央分離帯側の走行レーンTL2を走行中であるかを推定する。
 レーン推定に使用する特徴量には複数の形態が考えられる。以下、これら複数の特徴量の各々を用いた場合のレーン推定処理の一例を説明する。
 (2-2-1)道路領域の左側端辺の傾き角を特徴量としてレーンを推定する場合
 特徴量算出部132は、例えば図13に示すような画像が得られている場合には、上記道路領域抽出部131により抽出された道路領域REを示す形状の左側端辺、つまり走行レーンTL1の左側端部または路肩SRの左側端部に対し、近似線OL1を描く。画像データが構成する画面の左下角部をx-y座標平面の基準座標(0,0)と定義するとき、上記近似線OL1は、
    y=a1 x+b1として表される。ここで、a1 は傾き、b1 は点P1に対する切片を示す。
 同様に特徴量算出部132は、例えば図14に示すような画像が得られている場合には、上記道路領域抽出部131により抽出された道路領域REを示す形状の左側端辺に対し近似線OL2を描く。この場合も、画像データが構成する画面の左下角をx-y座標平面の基準座標(0,0)と定義すると、上記近似線OL2は、
    y=a2 x+b2 (但し、yはxがP2以下のとき0)として表される。
 かくして、特徴量算出部132により、特徴量として、道路領域REを表す形状の左側輪郭線、つまり走行レーンTL1の左端部または路肩SRの左端部の傾き角a1,a2 が算出される。
 続いてレーン推定部133は、ステップS33において、データメモリ20の閾値記憶部25から、レーンごとに予め設定された傾き角の閾値を読み出す。そして、上記特徴量算出部132により算出された近似線OL1,OL2の傾き角を、上記レーンごとに設定された各閾値とそれぞれ比較し、その比較結果をもとに車両6がいま走行中のレーンが路肩側の走行レーンTL1であるかまたは中央分離帯側の走行レーンTL2であるかを判定する。
 例えば、いま算出された特徴量が近似線OL1の傾き角a1 であれば、図13に例示したように、当該傾き角a1 は走行レーンTL2に対応する閾値の範囲に含まれるので、車両6が走行中のレーンは中央分離帯側の走行レーンTL2であると判定する。これに対し、算出された特徴量が近似線OL2の傾き角a2 であれば、図14に例示したようにこの傾き角a2 は走行レーンTL1に対応する閾値の範囲に含まれるので、車両6が走行中のレーンは路肩側の走行レーンTL1であると判定する。
 (2-2-2)道路領域の形状の重心を特徴量としてレーンを推定する場合
 特徴量算出部132は、道路領域抽出部131により抽出された道路領域を示す形状から、片側の各レーンに相当する領域を表す形状を切り出し、この切り出した形状の任意の部位に特徴量算出用の図形を定義する。そして、この図形の重心の座標を特徴量として算出する。
 例えば、図15に示すように片側の各レーンに相当する領域REを示す形状において、座標点P11~P14で囲まれた部位を特徴量算出用の図形RE10として定義する。そして、この図形RE10の重心を示す座標W1を算出する。同様に、図16に示すように片側のレーンに相当する領域REを示す形状において、座標点P11~P14で囲まれた部位を特徴量算出用の図形RE20として定義し、この図形RE20の重心を示す座標W2を算出する。
 続いてレーン推定部133は、データメモリ20の閾値記憶部25から、画像データを左右に分割する中心線CLを示す座標値を読み出す。そして、上記特徴量算出部132により算出された図形RE20の重心を示す座標が、上記中心線CLの座標値に対しx軸方向の図中左側と右側のいずれの側に位置するかを判定することで、車両6が走行中のレーンが路肩側の走行レーンTL1であるか中央分離帯側の走行レーンTL2であるかを判定する。
 例えば、レーン推定部133は、図15に示すように特徴量が図形RE10の重心座標W1だった場合には、当該重心座標W1は中心線CLの座標値に対しx軸方向の図中左側に位置するため、車両6が走行中のレーンは中央分離帯側の走行レーンTL2であると判定する。これに対し、図16に示すように特徴量が図形RE20の重心座標W2だった場合には、当該重心座標W2は中心線CLの座標値に対しx軸方向の図中右側に位置するため、車両6が走行中のレーンは路肩側の走行レーンTL1であると判定する。
 (2-2-3)道路領域の形状を画像データのy軸方向を一辺する三角形で近似し、当該三角形の角度または面積を特徴量としてレーンを推定する場合
 特徴量算出部132は、道路領域抽出部131により抽出された道路領域REを示す形状のうち、画像データが構成する画面のx軸方向の中心線CLに対し左側の領域に含まれる形状を抽出する。そして、この抽出された形状を、上記中心線CLを一辺とする直角三角形により近似し、当該直角三角形の面積または一つの頂点における角度を特徴量として算出する。
 例えば図17に示す例では、道路領域REを示す形状のうち、画像データが構成する画面の左半分の領域VDL に含まれる形状(輪郭REL )を抽出し、この形状を中心線CLを一辺とする直角三角形TA1により近似して、当該直角三角形TA1の面積または頂点P3における内角の角度θ5 を特徴量として算出する。
 同様に、図18に示す例では、画像データが構成する画面の左半分の領域VDL に含まれる形状を抽出し、この形状を中心線CLを一辺とする直角三角形TA2により近似して、当該直角三角形TA2の面積または頂点P4における角度θ6 を特徴量として算出する。なお、内角の角度を算出する以外に、頂点の外角の角度や内角+90°の角度を算出するようにしてもよい。
 続いてレーン推定部133は、データメモリ20の閾値記憶部25から、レーンごとに予め設定された直角三角形の面積の閾値または角度の閾値を読み出す。そして、上記特徴量算出部132により算出された直角三角形の面積または角度を、予め設定された面積または角度の閾値とそれぞれ比較し、その比較結果をもとに車両6がいま走行中のレーンが路肩側の走行レーンTL1であるかまたは中央分離帯側の走行レーンTL2であるかを判定する。
 例えば、図17に示した例では、直角三角形TA1の頂点P3の角度θ5 が角度閾値より大きくなるため、これにより車両6が走行中のレーンは中央分離帯側の走行レーンTL2であると判定する。これに対し、図18に示した例では、直角三角形TA2の頂点P4の角度θ6 が角度閾値以下なるため、これにより車両6が走行中のレーンは路肩側の走行レーンTL1であると判定する。
 また、直角三角形の頂点の角度θ5 ,θ6 の代わりに、直角三角形TA1,TA2の面積を閾値と比較することでレーンTL1,TL2を判定することも可能である。直角三角形TA1,TA2の面積は、例えば直角三角形TA1,TA2の輪郭で囲まれた領域の画素数を計数することにより求めることができる。
 (2-2-4)画像データが構成する画面上に引かれた2本の平行な水平線と道路領域の輪郭線との交点と、画面の下辺中央点との角度θを特徴量としてレーンを推定する場合
 特徴量算出部132は、道路領域抽出部131により抽出された道路領域を表す形状の左右両端辺と、画像データが構成する画面に設定された2本の平行な水平線との交点を算出する。そして、画像データの下辺中央点Pc と上記各交点とを直線で結んだときの画像データの下辺に対する角度を算出し、この算出された角度を特徴量とする。
 例えば、図19に示した例では、道路領域REを表す形状の左右両端辺と、画像データが構成する画面に設定された2本の平行な水平線H1,H2との交点P51,P52およびP53,P54を検出する。そして、画像データが構成する画面の下辺中央点Pc と上記各交点P51,P52およびP53,P54とをそれぞれ直線で結んだときの、画面の下辺に対する上記各直線の角度θ1 ,θ2 およびθ,θを算出し、この算出された角度θ1 ,θ2 の差および角度θ,θの差を特徴量とする。図20に示した例においても、同様に画像データが構成する画面の下辺中央点Pc と各交点P51,P52およびP53,P54とを結ぶ各直線の角度θ1 ,θ2 の差および角度θ,θの差を特徴量として算出する。
 続いてレーン推定部133は、データメモリ20の閾値記憶部25から、レーンごとに予め設定された左辺用および右辺用の角度差閾値を読み出す。そして、上記特徴量算出部132により算出された角度θ1 ,θ2 の差および角度θ,θの差を、上記レーンごとに設定された左辺用および右辺用の角度差閾値とそれぞれ比較し、その比較結果をもとに車両6がいま走行中のレーンが路肩側の走行レーンTL1であるかまたは中央分離帯側の走行レーンTL2であるかを判定する。
 例えば、図19に示した例では、角度θ1 ,θの差が左辺用の閾値より大きく、かつ角度θ,θの差が右辺用の閾値以下であれば、車両6が走行中のレーンは中央分離帯側の走行レーンTL2であると判定する。同様に、図20に示した例では、角度θ1 ,θの差が左辺用の閾値以下で、かつ角度θ,θの差が右辺用の閾値より大きければ、車両6が走行中のレーンは路肩側の走行レーンTL1であると判定する。
 (2-2-5)走行レーンに他の走行車両が存在するときに抽出された道路領域を表す形状をもとに走行中のレーンを推定する場合
 道路領域抽出部131では、先に述べたように、ステップS51において道路領域と他の走行車両とを含む全体の領域を表す形状が抽出され、ステップS52において上記道路領域のうち上記他の走行車両を除いた領域を表す形状が抽出される。そして、ステップS53において、上記抽出された各形状をもとに、他の走行車両が存在しないと仮定したときの道路領域を表す形状が推定される。
 特徴量算出部132は、上記ステップS53により推定された道路領域を表す形状をもとにその左側端辺に近似線を描き、この近似線の傾き角を特徴量として算出する。
 例えば、図21に示す例では、特徴量算出部132は、ステップS51において抽出された、他の走行車両の画像MBを含む全体の領域を表す形状をもとに、その左側端辺に近似線OL2を描く。この近似線OL2は、
    y=a2 x+b2として表される。またそれと共に特徴量算出部132は、ステップS52において抽出された、道路領域のうち上記走行車両を除いた領域を表す形状をもとに、その左側端辺に近似線OL1を描く。この近似線OL1は、
    y=a1 x+b1として表される。
 そして特徴量算出部132は、上記各近似線OL1,OL2をもとに、これらの近似線OL1,OL2の間を取る第3の近似線OL3を算出し、この第3の近似線OL3を他の走行車両の画像MBが存在しないと仮定したときの道路領域の左側端辺の輪郭線とする。このとき第3の近似線OL3は、
    y={(a1 +a2 )/A}x+(b1 +b2 )/Bにより表される。ここで、A,Bは係数であり、他の走行車両がレーンの中央から左右方向にどれだけずれて走行しているか、他走行車両の車高は何mか等のパラメータをもとに決定される。これらの係数A,Bを適宜設定することで、近似線OL3の位置を実際の道路領域の左側端辺の位置に近づけることができる。
 レーン推定部133は、上記算出された近似線OL3の傾き角{(a1 +a2 )/A}を、予めレーンごとに設定されている閾値と比較する。そして、その比較結果をもとに車両6がいま走行中のレーンが路肩側の走行レーンTL1であるかまたは中央分離帯側の走行レーンTL2であるかを判定する。
 例えば、図21に示した例では、傾き角{(a1 +a2 )/A}が走行レーンTL2に対応する閾値の範囲に含まれているので、車両6が走行中のレーンは中央分離帯側の走行レーンTL2であると判定する。これに対し、傾き角{(a1 +a2 )/A}が走行レーンTL1に対応する閾値の範囲に含まれていれば、車両6が走行中のレーンは路肩側の走行レーンTL1であると判定する。
 (3)レーン推定結果の補正
 次にレーン推定装置1の制御ユニット10は、レーン補正部14の制御の下、図5に示すステップS4において、上記レーン推定処理部13により推定されたレーンの確からしさ(妥当性)を判定し、妥当ではないと判定した場合にはレーンの推定結果を補正する処理を実行する。
 図8は、上記レーン補正部14の処理手順と処理内容を示すフローチャートである。
 (3-1)道路の構成を表す情報に基づく補正
 レーン補正部14は、先ずステップS41において、車両6の走行位置に対応する道路の構成を表す情報をもとに、上記レーン推定結果を補正する。例えば、道路情報取得部16では、GPSセンサ3により測定された車両6の現在位置データをもとに、車両6が現在走行中の位置に対応する道路の構成を表す情報が道路情報記憶部23から読み出される。レーン補正部14は、上記レーン推定処理部13によるレーン推定結果を上記読み出された道路の構成を表す情報と照合し、上記レーン推定結果が正しいか否かを判定する。
 例えば、レーン推定結果が中央分離帯側の「走行レーンTL2」となっており、いま車両6が走行中の道路が片側一車線の道路であれば、上記レーン推定結果は誤りと判定して、レーン推定結果を「走行レーンTL1」に補正する。
 (3-2)過去のレーン変更履歴に基づく補正
 新たなレーン推定結果が得られると、過去推定データ取得部15は、レーン推定データ記憶部22から過去のレーン推定データを読み出し、このデータに基づいて車両6が過去の一定期間に走行したレーンの変更履歴や傾向性を推定する。この推定処理は、例えば過去の一定期間における走行レーンTL1,TL2ごとの使用回数または頻度を算出するものでもよいが、例えば予めドライバごとに走行時間帯や走行経路、走行位置に基づいてドライバの走行の傾向性を表す学習データを作成しておき、この学習データをもとに現在の走行中のレーンを推定するものであってもよい。
 レーン補正部14は、ステップS42において、上記レーン推定処理部13により得られた最新のレーン推定結果を、上記過去推定データ取得部15により推定された、車両6のレーン変更履歴または傾向性を表す情報と比較し、上記最新のレーン推定結果の妥当性を評価する。そして、例えばドライバが日頃走行レーンTL1しか走行しないにもかかわらず、最新のレーン推定結果が中央分離帯側の「走行レーンTL2」であれば、この推定結果は誤りと判断してレーン推定結果を路肩側の「走行レーンTL1」に補正する。
 (3-3)車両6の動きの状態と過去のレーン変更履歴とに基づく補正
 車両動作状態推定部18では、車両センサデータ取得部17により取得された、車両6の速度や加速度、ハンドル操作角度等の車両6の動きを表すセンサデータをもとに、車両6がレーン変更を行ったか否かを推定する。
 レーン補正部14は、ステップS43において、上記レーン推定処理部13により得られたレーン推定結果と、上記車両動作状態推定部18により得られたレーン変更の推定結果とを、時間的に対応するもの同士で比較する。そして、上記レーン推定処理部13により得られたレーン推定結果が、上記車両動作状態推定部18により得られたレーン変更の推定結果と対応していなければ、上記レーン推定処理部13により得られたレーン推定結果を、上記車両動作状態推定部18により得られたレーン変更の推定結果をもとに補正する。
 最後にレーン補正部14は、以上の各補正処理により最終的に補正されたレーン推定結果のデータを、現在時刻を表す情報と関連付けてレーン推定データ記憶部22に記憶させる。
 なお、以上述べたレーン補正処理では、(3-1)、(3-2)、(3-3)による3種類の補正処理を全て実行する場合を例にとって説明したが、上記3種類の補正処理の何れか1つまたは任意に選んだ2つのみを実行するようにしてもよく、また補正の必要がない場合には補正処理を省略してもよい。また、上記3種類の補正処理の実行順序についても、以下に設定してもよい。
 (4)レーン推定データの出力
 制御ユニット10は、推定データ出力制御部19の制御の下、ステップS5において、レーン推定結果を出力するための制御を以下のように実行する。
 すなわち、推定データ出力制御部19は、レーン推定データ記憶部22に最新のレーン推定データが記憶されるごとに、当該レーン推定データ記憶部22から当該レーン推定データを読み出す。そして、当該レーン推定データを、入出力I/F30から自動運転制御装置5へ出力する。この結果、自動運転制御装置5では、上記レーン推定データを車両6の現在の走行状態を表すデータの一つとして利用して、例えば車両の走行位置を維持または変更するための制御が行われる。
 また推定データ出力制御部19は、上記最新のレーン推定データをもとに、例えば車両6の走行中のレーンの位置を地図データ上に重ねて表示するための表示データを生成し、当該表示データを入出力I/F30から例えばカーナビゲーション装置へ出力する。この結果、カーナビゲーション装置では、上記表示データを表示部に表示させる処理が行われ、これによりカーナビゲーション装置の表示部には、地図上に自車両6の現在走行中のレーンの位置が表示される。
 (効果)
 以上詳述したように第1の実施形態では、車両6の進行方向を撮像して得られた画像データから道路領域を表す形状を抽出し、当該形状を表す情報をもとに、一つの輪郭線の傾き角、上記道路領域の形状を表す図形の重心座標、上記形状を表す図形の一頂点を挟んで連続する2つの輪郭線間の角度、上記形状を表す図形の面積を、上記道路領域の形状の特徴量として算出する。そして、上記算出された特徴量がレーンごとに予め設定された閾値の範囲に含まれるか否かを判定することにより、車両6が走行中のレーンを推定するようにしている。
 従って、第1の実施形態によれば、車両6から進行方向を見たときの道路領域を表す形状の特徴に着目してレーンを推定することができる。このため、道路上のレーンを区分する区画線に頼ることなく走行中のレーンを推定することが可能となり、これにより例えば工事等により区画線の補修跡が残存する場合や、経年劣化により区画線が薄くなったり消えてしまっている場合でも、レーンを推定することが可能となる。
 また第1の実施形態では、道路領域上に他の走行車両等の物体が存在する場合に、画像データから上記物体を含む道路領域全体を表す形状と、上記道路領域のうち上記物体を除いた領域を表す形状をそれぞれ抽出し、これらの抽出された各形状をもとに上記物体が存在しないと仮定したときの道路領域の輪郭線を推定する。そして、この推定された輪郭線の傾き角をもとに、車両6が走行中のレーンを推定するようにしている。このため、例えば路肩側のレーンを走行中の他の車両により路肩や走行レーンの左端部が隠れている場合でも、当該路肩や走行レーンの左端部の輪郭線を推定して、その推定結果をもとにレーンを推定することが可能となる。
 さらに第1の実施形態では、車両6の走行位置に対応する道路の構成を表す情報、過去のレーン変更履歴、車両6の動きを表すセンサデータをもとに推定した車両6のレーン変更の有無を表す情報に基づいて、レーン推定処理部13により得られたレーン推定結果の妥当性が評価され、妥当ではないと判定された場合に当該レーン推定結果を補正するようにしている。このため、例えば、天候や照度等の影響により、鮮明な画像データが得られない場合や画像データから道路領域が正確に認識できない場合でも、現在移動中のレーンの推定結果を補正することが可能となり、これにより正確なレーン推定結果を得ることが可能となる。
 [第2の実施形態]
 この発明の第2の実施形態に係るレーン推定装置、方法およびプログラムは、道路領域の特徴量として道路領域を表す形状をもとに道路領域内の各画素にラベリングした画素値データを用いる。そして、第2の実施形態に係るレーン推定装置、方法およびプログラムは、当該画素値データが道路ごとまたはレーンごとに予め設定された複数のパターンのうちのいずれに類似するかを判定することにより、車両6が移動中のレーンを推定する。
 この発明の第2の実施形態に係るレーン推定装置は、第1の実施形態に関して説明したレーン推定装置1と同様の構成を採用することができる。そこで、以下では、第2の実施形態について、第1の実施形態と同様の構成には同じ符号を使用して説明し、第1の実施形態と重複する詳細な説明は省略する。
 (構成)
 この発明の第2の実施形態に係るレーン推定装置1を備えた車載システムは、図1を参照して説明したのと同じ構成を採用することができる。
 また、第2の実施形態に係るレーン推定装置1は、図2を参照して説明したのと同じハードウェア構成を採用することができる。
 図22は、この発明の第2の実施形態に係るレーン推定装置1のソフトウェア構成を、図2に示したハードウェア構成と関連付けて示したブロック図である。
 データメモリ20の記憶領域は、第1の実施形態と同様に、画像データ記憶部21と、レーン推定データ記憶部22と、道路情報記憶部23と、車両センサデータ記憶部24と、閾値記憶部25とを備える。第2の実施形態に係るレーン推定装置1では、データメモリ20の記憶領域はさらに、パターン記憶部26を備えている。
 パターン記憶部26は、道路ごとまたはレーンごとに予め設定された、画像内に映し出される道路領域の形状に対応するパターン(以下、「領域パターン」と言い、多種多様な領域パターンを総括的に「領域パターンPT」と言う)を記憶するために使用される。領域パターンPTは、車両6が各レーンの中央を走行していれば、車両6に設置されたカメラにより撮影される画像内には道路がこのように映し出されるであろうという、理想的な道路領域の形状を表す。
 領域パターンPTは、例えば、渋滞予測サービスを提供する道路管理サーバ等により、あらかじめ多数の車両から収集した画像データに基づいて作成または設定される。レーン推定装置1は、当該サーバから、例えば図示しない通信部を介してネットワーク経由で、車両6の種別(車種や車高等)に応じた複数の領域パターンPTを含むパターンのセットを取得し、パターン記憶部26に記憶させることができる。ここで、カメラが車両6のどの位置に設置されているかに応じて、当該カメラにより撮影される画像内に映し出される道路の形状は大きく異なる。そこで、レーン推定装置1は、カメラの設置位置に応じて、例えば、車両6の中央であるのか左右いずれかに偏っているのか、車両6の中心線に対する距離、道路を基準としたときの設置高さ、または画像内に映し出される自車両のボンネットの見え方などに応じて、取得した領域パターンPTに適宜補正を行ってからパターン記憶部26に記憶させてもよい。あるいは、レーン推定装置1があらかじめ車載カメラにより撮影した画像を上記サーバに送信し、その画像をもとにサーバによって補正された領域パターンPTのセットを受信するようにしてもよい。あるいは、レーン推定装置1自体が、カメラの設置位置に応じた領域パターンPTのセットを生成するようにしてもよい。
 パターン記憶部26には、上記車両6の種別に応じたパターンのセットとして、道路の種別(例えば、高速自動車国道、一般国道、都道府県道、市町村道など)や車線数(車両6が何車線の道路のいずれのレーンを走行しているか)等に応じて異なる多数の領域パターンPTが記憶される。パターン記憶部26は、例えば、GPSセンサ3により検出された車両6の位置データに基づいて必要な領域パターンPTを検索できるよう、位置情報に紐づけて各領域パターンPTを格納する。
 制御ユニット10は、第1の実施形態と同様に、画像データ取得部11と、画像処理部12と、レーン補正部14と、過去推定データ取得部15と、道路情報取得部16と、車両センサデータ取得部17と、車両動作状態推定部18と、推定データ出力制御部19とを有している。第2の実施形態に係る制御ユニット10は、レーン推定処理部13の代わりに、レーン推定処理部130を有する。
 レーン推定処理部130は、第1の実施形態に関して説明したレーン推定処理部13と同様に、画像処理部12から前処理後の画像データを受け取り、当該画像データに基づいて車両6が走行中のレーンを推定する処理を行うものであるが、レーン推定処理部13とは、推定処理に使用する特徴量および詳細な機能が異なる。
 図23は、レーン推定処理部130の機能の一例を示す。レーン推定処理部130は、道路領域抽出部131と、パターン取得部1301と、類似度判定部1302と、レーン推定部1303とを備えている。
 道路領域抽出部131は、以下の処理を行う。
 (1) 画像処理部12から受け取った画像データから、道路領域、および道路上に存在する物体の領域(この実施形態では車両領域)に相当する範囲を抽出する処理。
 (2) 道路領域または車両領域として誤抽出された領域をその面積の大小等の情報を用いて除外し、さらに抽出された道路領域および車両領域に対し平滑化等の処理を実施して道路領域および車両領域を表す形状を抽出する処理。
 パターン取得部1301は、パターン記憶部26に記憶された領域パターンPTを読み出し、類似度判定部1302に渡す処理を行う。
 類似度判定部1302は、特徴量算出部として、道路領域抽出部131により抽出された道路領域を表す形状をもとに、道路領域の特徴量として道路領域内の各画素にラベリングした画素値を含む画素値データを取得する処理を行う。類似度判定部1302はさらに、取得した画素値データに基づいて、パターン取得部1301により取得された領域パターンPTとの類似度を判定し、その判定結果をレーン推定部1302に渡す。
 レーン推定部1303は、推定処理部として、上記類似度判定部1302による判定結果に基づいて、車両6がいまどのレーンを走行中であるかを推定する処理を行う。
 (動作)
 次に、以上のように構成された第2の実施形態に係るレーン推定装置1によるレーン推定動作を説明する。
 レーン推定動作は、図5を参照して第1の実施形態に関して説明した、制御ユニット10によるレーン推定処理の全体の処理手順と同じフローチャートに従うことができる。
 (1)画像データの取得と画像処理
 ステップS1において、レーン推定装置1の制御ユニット10は、第1の実施形態と同様に、画像データ取得部11の制御の下、画像データの取得処理を実行する。またステップS2において、レーン推定装置1の制御ユニット10は、第1の実施形態と同様に、画像処理部12の制御の下、上記取得された画像データに対しレーン推定のために必要な画像処理を実行する。画像処理部12による処理手順と処理内容は、図6に関して説明したのと同じものを採用することができる。
 図25Aは、上記画像処理後の静止画像データVDの第2の例を示す。この例は、例えば図10に示したような片側2車線の道路を走行中の車両6に搭載されたカメラ2により撮像される。図25Aの静止画像データVDには、自車両のボンネット部分6と、中央分離帯MSと、中央分離帯MS上のガードレールRLと、走行レーンTL1,TL2と、路肩SRおよび縁石SBと、さらに前方を走行する他車両MBが映し出されている。
 (2)走行レーンの推定
 次に、第2の実施形態に係るレーン推定装置1の制御ユニット10は、レーン推定処理部130の制御の下、ステップS3において、車両6が走行中のレーンを推定する処理を以下のように実行する。
 図24は、レーン推定処理部130の処理手順と処理内容を示すフローチャートである。
 (2-1)道路領域の抽出
 レーン推定処理部130は、先ずステップS301において、道路領域抽出部131により、上記前処理が終了した画像データVDから道路領域を抽出する処理を行う。
 上記のような片側2車線の道路に対し、道路領域抽出部131は、道路領域として例えば走行レーンTL1,TL2および路肩SRを含む領域を抽出する。なお、第1の実施形態と同様に、道路領域抽出部131は、道路領域として、走行レーンTL1,TL2のみを抽出してもよい。
 第1の実施形態と同様に、道路領域の抽出処理手段としては、一例としてSegNetが用いられる。任意で、道路領域抽出部131は、第1の実施形態と同様に、道路領域として誤抽出された領域が存在する場合を考慮し、領域の面積の大小等の情報を用いて、誤検出された領域を除外する処理を行い、さらに抽出された道路領域に対し平滑化等の処理を実施して道路領域を表す形状を抽出してもよい。
 図25Bは、図25Aに示した画像データVDに対してSegNetによる抽出処理を行った出力結果の一例を示す。図25Bでは、処理済み画像データTVD内に、自車両6と同じ走行方向の走行レーンTL1,TL2と左側の路肩SRまでを含む道路領域REを示す形状(図中網掛け部分)と、前方を走行する他車両MBを含む領域MBRを示す形状(図中ドットハッチング部分)とが抽出されている。各領域には、画素単位でのラベリングに対応する色が付与されている。以下では、一例として、道路領域REが緑色([R,G,B]=[0,255,0])でラベリングされ、車両領域MBRが赤色([R,G,B]=[255,0,0])でラベリングされ、それ以外の領域(図では無色)が黒色([R,G,B]=[0,0,0])でラベリングされるものとして説明する。
 なお、画像データに他の車両が映っていて、他の車両により道路領域を抽出できない場合、道路領域抽出部131は、第1の実施形態に関して説明したのと同様に、図9に示した道路領域抽出処理を行ってもよい。
 (2-2)領域パターンの読み出し
 次にレーン推定処理部130は、パターン取得部1301の制御の下、ステップ302において、道路の種別ごと、道路ごと、またはレーンごとに予め設定された領域パターンPTをパターン記憶部26から読み出し、類似度判定部1302に渡す処理を行う。パターン取得部1301は、例えば、GPSセンサ3により検出された車両6の位置情報をもとに、当該位置情報に対応する1または複数の領域パターンPTをパターン記憶部26から読み出し、類似度判定部1302に渡す。
 図26Aは、パターン記憶部26から読み出される領域パターンPTの一例として、道路ごとに設定された領域パターンPT1を示す。図26Aに示した領域パターンPT1は、特に片側2車線の一般国道について設定されたもので、路肩側(左側)のレーンを走行している車両6により取得される画像データに映し出される道路領域に係るパターンを表す。領域パターンPT1は、道路部分RD(網掛け部分)と、それ以外の部分BK(無色の部分)とを含む。以下では、一例として、道路部分RDには緑色([R,G,B]=[0,255,0])の画素値が付与され、それ以外の部分BKには黒色([R,G,B]=[0,0,0])の画素値が付与されているものとして説明する。
 図26Bは、図26Aに示した領域パターンPT1に対し、説明のために走行レーンを区別する仮想線VLを描いた図である。道路部分RDは、車両6が走行している走行レーンTL1の領域と、その右側の走行レーンTL2の領域とを含む。
 図26Cは、パターン記憶部26から読み出される領域パターンPTの他の例として、道路ごとに設定された領域パターンPT2を示す。図26Cに示した領域パターンPT2は、片側2車線の一般国道について設定されたもので、中央分離帯側(右側)のレーンを走行している車両6により取得される画像データに映し出される道路領域に係るパターンを表す。領域パターンPT2は、道路部分RD(網掛け部分)と、それ以外の部分BK(無色の部分)とを含む。
 図26Dは、図26Cに示した領域パターンPT2に対し、説明のために走行レーンを区別する仮想線VLを描いた図である。道路部分RDは、車両6が走行している走行レーンTL2の領域と、その左側の走行レーンTL1の領域とを含む。
 図26A~26Dに示したように、推定処理に用いられる領域パターンPTは、車両6がどのレーンを走行しているかに応じて、車両6に搭載されたカメラ2により撮像された画像に映し出される道路領域の形状が異なることを反映するように、予め道路ごとまたはレーンごとに設定されたものである。第2の実施形態に係るレーン推定装置1のレーン推定処理部130は、このような領域パターンPTの道路部分RDと画像データに映し出される道路領域とを画素レベルで比較することによって、移動中のレーン推定を行う。
 パターン取得部1301は、GPSセンサ3により検出された車両6の位置データをもとに、レーン推定に必要な1または複数の領域パターンPTをパターン記憶部26から読み出すように構成される。一例として、パターン取得部1301は、GPSセンサ3により検出された車両6の位置データをもとに、車両6が現在走行中の位置における道路の構成を表す情報を道路情報記憶部23から取得し、取得した情報に基づいて、必要な1または複数の領域パターンPTをパターン記憶部26から読み出すように構成される。
 例えば、パターン取得部1301は、現在走行中の道路が片側2車線の一般国道であるとの情報に基づいて、「片側2車線の一般国道」に紐づけられた領域パターンPT1と領域パターンPT2とを読み出すように構成される。現在走行中の道路が片側3車線の高速自動車国道である場合、パターン取得部1301は、片側3車線の高速自動車国道に紐づけられた、路肩側のレーンを走行している場合、中央のレーンを走行している場合、および中央分離帯側のレーンを走行している場合に対応する、3通りの領域パターンPTを読み出すことができる。これらは一例にすぎず、パターン取得部1301がパターン記憶部26から読み出す領域パターンPTの種類および数は、任意に設定されてよい。以下、道路の種別(一般国道、高速道、等)に関する説明は省略する。
 なお、「片側」は説明の便宜にすぎず、対向車線を含めた道路領域、車両領域であったとしても、N車線道路の各車線に対応するN個の領域パターンPTを読み出すことによってレーンを推定することが可能である。パターン取得部1301は、図示しない通信部を通じて上記道路管理サーバ等から直接領域パターンPTを取得するようにしてもよい。
 また領域パターンPTは、車両6により取得された画像データに映し出される道路領域と対比し得るものであれば、どのようなものであってもよい。上述のように、図26Cに示した領域パターンPT2は、片側2車線の道路の中央分離帯側の走行レーンTL2を走行している車両6により取得される画像データに係るもので、走行レーンTL1および走行レーンTL2の両方を含む。しかし、領域パターンPTは、道路に含まれるすべての走行レーンを含む必要はない。
 図27A~27Dは、そのようなレーンごとに設定された領域パターンPTの例を示す。 
 図27Aは、自車両6が走行中のレーンに対して1つ左側にレーンが存在する場合に、画像データに映し出される道路領域REと対比するための領域パターンPT3を示す。領域パターンPT3は、図26Cに示した領域パターンPT2のうち、走行レーンTL1に係る領域のみを切り出した道路部分RDと、それ以外の部分BKとを含む。
 例えば、レーン推定処理部130は、車両6が片側2車線の道路を走行している場合、処理済み画像データTVD内の道路領域REが図27Aに示した領域パターンPT3に類似する領域を含むか否かを判定し、類似する領域を含む場合には、中央分離帯側のレーンTL2を走行していると推定することができ、類似する領域を含まない場合には、路肩側のレーンTL1を走行していると推定することができる。
 図27Bは、自車両6が走行中のレーンに対して1つ右側にレーンが存在する場合に、画像データに映し出される道路領域REと対比するための領域パターンPT4を示す。領域パターンPT4は、図26Aに示した領域パターンPT1のうち、走行レーンTL2に係る領域のみを切り出した道路部分RDと、それ以外の部分BKとを含む。
 図27Cは、片側3車線の道路など、自車両6が走行中のレーンに対して2つ左側にレーンが存在する場合に画像データに映し出される道路領域REと対比するための領域パターンPT5を示す。領域パターンPT5は、図26Cに示した領域パターンPT2には含まれていない走行レーンに係る道路部分RDを含む。
 図27Dは、片側3車線の道路など、自車両6が走行中のレーンに対して2つ右側にレーンが存在する場合に画像データに映し出される道路領域REと対比するための領域パターンPT6を示す。領域パターンPT6もまた、図26Aに示した領域パターンPT1には含まれていない走行レーンに係る道路部分RDを含む。
 図27A~27Dに示した領域パターンPTを用いることによって、対比する面積がより小さいものとなり、レーン推定装置1は、より少ない処理で類似度を判定することができる。なお、図27A~27Dに示した領域パターンPTは、一例に過ぎない。領域パターンPTは、路肩の有無、各車線(レーン)の幅員、中央分離帯の有無、道路の曲率半径等により多様に変化し得る。
 パターン取得部1301が、図26A~26Dに示したような道路全体の領域パターンPTを読み出すべきか、図27A~27Dに示したようなレーンごとの領域パターンPTを読み出すべきかは、レーン推定装置1のユーザ等により任意に設定されてよい。なお、パターン取得部1301は、図示しない通信部を通じて上記道路管理サーバ等から直接領域パターンPTを取得するようにしてもよい。
 (2-3)類似度の判定
 次にレーン推定処理部130は、類似度判定部1302の制御の下、ステップS303において、画像データVDから抽出された道路領域REと、パターン取得部1301により読み出された領域パターンPTの道路部分RDとを画素レベルで比較する。レーン推定処理部130は、処理済み画像データTVDと領域パターンPTに対し、対比可能なように、あらかじめサイズ調整や傾き調整等の前処理を行っているものとする。レーン推定処理部130はまた、カメラ2の性能個体差や設置時の傾き等に加え、車両6の車高や画像データVD内のボンネットの見え方などに応じて、あらかじめ必要なキャリブレーションを行っているものとする。
 まず類似度判定部1302は、処理済み画像データTVDおよび領域パターンPTの各々について、各画素位置における画素値を表す画素値データを取得する。上述のように、処理済み画像データTVDは、道路領域抽出部131による領域抽出処理によって、各画素位置が異なる色(画素値)でラベリングされている。領域パターンPTも同様に、各画素位置に異なるRGB値が付与されている。
 類似度判定部1302は、各画素値データから、例えば二次元配列の形で格納された各画素位置におけるRGB値を読み出し、各画素位置においてRGB値を対比して、RGB値が同一であるか否かを判定する。類似度判定部1302は、全画素位置について対比を行ってもよいし、領域パターンPT内の道路部分RDに対応する画素位置についてのみ対比を行ってもよい。対比処理については、さらに後述する。
 次いで、レーン推定処理部130は、類似度判定部1302の制御の下、ステップS304において、画素ごとの対比結果をもとに、全体の類似度を判定する。一例として、類似度判定部1302は、対比した全画素数のうちRGB値が一致すると判定された画素数の割合を算出することによって、類似度を判定する。
 ステップS305において、レーン推定処理部130は、パターン取得部1301によりパターン記憶部26から読み出されたすべての領域パターンPTについて、類似度判定部1302による類似度判定処理が終了したか否かを判定する。対比していない領域パターンPTがある場合(NOの分岐)、対比していない領域パターンPTについてステップS303~304を繰り返す。すべての領域パターンPTについて類似度判定処理が終了した場合(YESの分岐)、ステップS306に移行する。
 ステップS306において、レーン推定処理部130は、類似度判定部1302の制御の下、類似度判定結果をレーン推定部1303に渡す。一例では、類似度判定部1302は、類似度を判定した複数の領域パターンPTのうち最も類似度が高い領域パターンPTを選択し、判定された類似度とともにレーン推定部1303に渡す。類似度判定部1302によって選択される領域パターンPTは、1つである必要はなく、一定の基準を満たす複数の領域パターンPTが選択されてもよい。例えば、類似度判定部1302は、画像データTVDとの類似度が所定の閾値を超えると判定されたすべての領域パターンPTを、レーン推定部1303に渡すように構成されてもよい。あるいは、類似度判定部1302は、パターン取得部1301により読み出された領域パターンPTが1つだけの場合、類似度が所定の閾値を超えるか否かを判定し、その判定結果とともに当該領域パターンPTをレーン推定部1303に渡すように構成されてもよい。
 (2-4)レーンの推定
 ステップS307において、レーン推定処理部130は、レーン推定部1303の制御の下、類似度判定部1302から受け取った類似度判定結果に基づいて、車両6がいずれのレーンを走行中であるか推定する処理を行う。例えば、GPS情報により車両6が片側2車線の道路を走行中であると判定され、パターン取得部1301により領域パターンPT1と領域パターンPT2が読み出されて、類似度判定部1302により領域パターンPT1の方が類似度が高いと判定された場合、レーン推定部1303は、車両6が走行中のレーンは片側2車線の道路の路肩側のレーンTL1であると推定することができる。
 あるいは、片側2車線の道路を走行中のときにパターン取得部1301が領域パターンPT1だけを読み出すように設定されている場合など、レーン推定部1303は、画像データTVDと領域パターンPT1との類似度のみに基づいてレーンを推定することもできる。この場合、レーン推定部1303は、類似度判定部1302から受け取った領域パターンPT1との類似度が所定の閾値を上回るのであれば、車両6が走行中のレーンは片側2車線の道路の路肩側のレーンTL1であると推定することができ、領域パターンPT1との類似度が所定の閾値以下であれば、車両6が走行中のレーンは片側2車線の道路の中央分離帯側のレーンTL2であると推定することができる。
 他の例として、GPS情報により片側2車線の道路を走行中であると判定された場合に、パターン取得部1301が図27Aおよび図27Bに示した領域パターンPT3およびPT4を読み出すように設定されることも考えられる。このような場合、類似度判定部1302により、領域パターンPT4よりも領域パターンPT3の方が類似度が高いと判定された場合には、レーン推定部1303は、自車両6が走行しているレーンの左側に走行レーンが存在すると判定し、自車両6が片側2車線の道路の中央分離帯側のレーンTL2を走行中であると推定することができる。
 さらに他の例として、GPS情報により片側3車線の道路を走行中であると判定された場合に、パターン取得部1301が図27A~27Dに示した領域パターンPT3~PT6を読み出し、類似度判定部1302が所定の閾値を超える類似度の領域パターンPTを選択するように設定されることが考えられる。例えば、類似度判定部1302により領域パターンPT3と領域パターンPT4が選択された場合、レーン推定部1303は、車両6が片側3車線の道路の中央のレーンを走行中であると判定することができる。あるいは類似度判定部1302により領域パターンPT3と領域パターンPT5が選択された場合、レーン推定部1303は、車両6が片側3車線の道路の中央分離帯側のレーンを走行中であると判定することができる。
 レーン推定処理部130は、閾値記憶部25に記憶された予め設定された閾値をもとに、類似度の許容範囲を判断するようにしてもよい。例えば、類似度判定部1302から最高の類似度を有する領域パターンPTを受け取った場合に、その類似度が予め設定された閾値に満たなければ、処理を中断し、推定不能とのエラーメッセージを出力するようにしてもよい。閾値は、レーンを問わず一定の値であってもよいし、レーンごとまたは領域パターンPTごとに設定された値であってもよい。あるいは、類似度判定部1302から受け取った、類似度が所定の閾値を超える領域パターンPTの数が十分でない場合など、レーン推定部1303が走行中のレーンを推定できない場合にも、レーン推定処理部130は、処理を中断し、エラーメッセージを出力するようにしてもよい。この場合、新たな画像データVDを取得して処理をやり直すようにしてもよい。
 (3)レーン推定結果の補正
 次にレーン推定装置1の制御ユニット10は、第1の実施形態と同様に、レーン補正部14の制御の下、図5に示すステップS4において、上記レーン推定処理部130により推定されたレーンの確からしさ(妥当性)を判定し、妥当ではないと判定した場合にはレーンの推定結果を補正する処理を実行する。レーン補正部14による処理手順と処理内容は、図8に関して説明したのと同じものを採用することができる。
 (4)レーン推定データの出力
 制御ユニット10は、推定データ出力制御部19の制御の下、ステップS5において、レーン推定結果を出力するための制御を実行する。この処理も、第1の実施形態と同様に実行することができる。
 (5)他の実施例
 図28Aは、他の走行車両MBが存在する場合の静止画像データVDの他の例を示す。この静止画像データVDは、例えば図10に示したような片側2車線の道路の路肩側レーンTL1を走行中の車両6に搭載されたカメラ2により撮像され、画像データ取得部11により画像処理を実行されたものである。図28Aの静止画像データVDには、図25Aに示した画像データVDと同様に、自車両のボンネット部分6と、中央分離帯MSと、走行レーンTL1,TL2と、路肩SRおよび縁石SBと、さらに走行レーンTL2を走行する他車両MBが映し出されている。
 図28Bは、図28Aに示した画像データVDに対して道路領域抽出部131によりSegNetを用いた抽出処理を行った出力結果の一例を示す。図28Bでは、処理済み画像データTVD内に、道路領域RE(網掛け部分)と、他車両MBを含む領域MBR(ドットハッチング部分)とが抽出されている。やはり、各領域には画素単位でのラベリングに対応する色が付与され、ここでは、道路領域REが緑色([R,G,B]=[0,255,0])でラベリングされ、車両領域MBRが赤色([R,G,B]=[255,0,0])でラベリングされ、それ以外の領域が黒色([R,G,B]=[0,0,0])でラベリングされている。
 この実施例では、GPS情報により自車両6が片側2車線の道路を走行中であることがわかっており、パターン取得部1301は、パターン記憶部26から領域パターンPT1と領域パターンPT2を読み出すものとする。なお、図28Bは、領域抽出の精度が若干低く、近似処理を行っていない例を示しており、道路領域REおよび車両領域MBRには誤検出に起因する凹凸の輪郭線部分が含まれる。
 図29は、類似度判定部1302による、領域パターンPT1と処理済み画像データTVDとの類似度を判定する処理の一例を示す。この例では、類似度判定部1302は、各画像の左上を原点とし、画像の横方向をx軸、画像の縦方向をy軸、各画素位置を座標点P(x,y)として、各座標点Pにおける画素値の対比を行う。画素値の対比は、画像全体にわたって行われてもよいし、領域パターンPT1のうち道路部分RDに対応する座標だけを対象としてもよい。なお、この例では、各画像の右下の点Qの座標を(640,360)としている。
 図29において、点P1は、パターンPT1および画像データTVDの両方において道路として認識された緑色の領域にあり、RGB値が一致する。したがって、類似度判定部1302は、点P1について、例えば画素値の一致を示すフラグを立てるなどの処理を行うことができる。一方、点P2は、パターンPT1においては道路部分RD内にあるが、画像データTVDにおいては車両として識別された領域MBR内にある。したがって、類似度判定部1302は、点P2については画素値が一致しないものと判定する。
 ここで、一実施例においては、類似度判定部1302は、領域パターンPTの道路部分RDに含まれる座標点については、画像データTVDにおいて道路部分RD(網掛け部分)または車両領域MBR(ドットハッチング部分)のいずれかに含まれる限り、画素値を一致と判定するように構成されることができる。言い換えれば、この実施例に係る類似度判定部1302は、領域パターンPTの道路部分RDに含まれる座標点については、画像データTVDにおいて何も抽出されなかった黒色の領域(図では無色の領域)のみを不一致と判定するように構成される。
 すなわち、類似度判定部1302は、道路領域REに道路領域上に存在する物体の領域MBRを含めた、全形状RE+MBRを、領域パターンPTとの対比に用いる。このように、道路領域上に他の走行車両等の物体が存在し、画像データ上で道路領域の一部を抽出できない場合でも、領域パターンPTの道路部分RDに対応する座標点については道路領域とみなすことにより、容易に情報の補完を行うことができる。なお、車両領域MBRを、ラベリングされたとおり道路領域REとは異なるものとして類否判定を行ってもよい。
 図30は、類似度判定を説明するさらに他の例として、図27Aに示したパターンPT3の道路部分PT3-RD(その輪郭を一点鎖線で示す)と、図28Bに示した処理済み画像データTVDにおける道路領域REとを重ね合わせたイメージを示す。図30に示したように、類似度判定部1302は、道路部分PT3-RDの部分だけを類似度判定の対象とすることも可能である。この場合、レーン推定装置1は、道路部分PT3-RD内の各座標点について、画像データTVD内の対応する座標点と画素値の対比を行う。道路部分PT3-RD内の座標点について画像データTVDと画素値が一致する点が一定数よりも多ければ、レーン推定装置1は、この領域にレーンがある、すなわち自車両6は中央分離帯側の走行レーンTL2を走行中であると推定することができる。一方、道路部分PT3-RD内の座標点について画像データTVDと画素値が一致する点が一定数以下であれば、レーン推定装置1は、この領域にレーンがない、すなわち自車両6は路肩側の走行レーンTL1を走行中であると推定することができる。
 図30に示した例によれば、パターンPT3のような一部のレーンに対応する領域パターンPTを用いることにより、レーン推定装置1は、自車両6の前方の同じレーン上を他車両が走行している場合でも支障なくレーン推定を行うことができる。また、レーン推定装置1は、より小さい面積を対比の対象とすることができ、少ない対比処理によってレーン推定を行うことができる。
 どのような領域パターンPTを対比に使用するかは、道路の状態、処理の速度、推定の精度などに応じて、レーン推定装置1のユーザ等により任意に設定されてよい。
 またレーン推定装置1は、画像および各領域パターンPTの上部や下部をカットし(例えば、640×360の画像の上部640×100、下部640×60をカットし)、残りの部分だけで画素値を比較するように構成されてもよい。これによりレーン推定に係る計算コストを抑えることができる。さらに、図25Aおよび図28Aに示したように、画像データVD内に自車両のボンネット部分6が映りこんでいる場合においては、当該ボンネット部分6に対応する画像および各領域パターンPTの下部をカットし、残りの部分だけで画素値を比較するよう構成することで、ボンネット形状の相違に起因する類似度の判定ミスを低減できるので、異なる車種間で共通の領域パターンPTを使用できるようになる。
 (効果)
 以上詳述したように第2の実施形態に係るレーン推定装置1は、車両6の進行方向を撮像して得られた画像データから道路領域を表す形状を抽出し、道路領域を表す形状をもとに、特徴量として、当該道路領域内の各画素にラベリングした画素値データを取得する。そして、この画素値データが、道路ごとまたはレーンごとに予め設定されたパターンのうちのいずれに類似するかを判定することにより、車両6が移動中のレーンを推定する。
 このように、第2の実施形態によれば、移動中の車両6から進行方向を見たときの道路領域を表す形状が、車両6が移動中のレーンに応じて異なるという特徴に着目し、各画素にラベリングして得られた画素値をもとに、予め設定されたパターンと対比することによって、車両6が移動中のレーンを推定することができる。このため、道路上のレーンを区分する区画線に頼ることなく走行中のレーンを推定することが可能となり、これにより例えば工事等により区画線の補修跡が残存する場合や、経年劣化により区画線が薄くなったり消えてしまっている場合でも、レーンを正確に推定することが可能となる。
 一実施例では、道路上のすべてのレーンに対応する領域パターンPTを対比に用いるようにしており、これにより、推定の精度が向上することが期待される。他の実施例では、道路上の一部のレーンに対応する領域パターンPTを対比に用いるようにしており、これにより、処理の高速化とともに、他の車両の影響を軽減できることが期待される。
 さらに、一実施例では、道路領域上に他の走行車両等の物体が存在する場合にも、領域パターン中の道路部分RD内の座標点については、当該物体が道路の一部であるものとみなして類似度を判定するようにしている。このため、他の走行車両等の物体が存在するために画像データに映っている道路領域から得られる情報が不十分であっても、当該物体の形状をもとに情報を補完してレーンを推定することが可能となる。
 [他の実施形態]
 (1)前記各実施形態では、レーン推定装置1を車両に搭載した場合を例にとって説明した。しかし、これに限るものではなく、レーン推定装置1をクラウドコンピュータやエッジルータ上に設置し、車両6がカメラ2により得られた画像データ、GPSセンサ3により得られた位置データおよび車両センサ4により得られた車両センサデータを、車載通信装置から上記クラウドやエッジルータ上のレーン推定装置に送信し、レーン推定装置が上記各データを受信してレーン推定処理を実行するように構成してもよい。
 また、その際、レーン推定装置が備える各処理部を、車載装置、クラウドコンピュータ、エッジルータ等に分散配置し、これらの装置が互いに連携することによりレーン推定データを得るようにしてもよい。
 前記各実施形態において説明された種々の機能部は、回路を用いることで実現されてもよい。回路は、特定の機能を実現する専用回路であってもよいし、プロセッサのような汎用回路であってもよい。
 前記各実施形態の処理の少なくとも一部は、例えば汎用のコンピュータに搭載されたプロセッサを基本ハードウェアとして用いることでも実現可能である。上記処理を実現するプログラムは、コンピュータで読み取り可能な記録媒体に格納して提供されてもよい。プログラムは、インストール可能な形式のファイルまたは実行可能な形式のファイルとして記録媒体に記憶される。記録媒体としては、磁気ディスク、光ディスク(CD-ROM、CD-R、DVD等)、光磁気ディスク(MO等)、半導体メモリなどである。記録媒体は、プログラムを記憶でき、かつ、コンピュータが読み取り可能であれば、何れであってもよい。また、上記処理を実現するプログラムを、インターネットなどのネットワークに接続されたコンピュータ(サーバ)上に格納し、ネットワーク経由でコンピュータ(クライアント)にダウンロードさせてもよい。
 (2)前記各実施形態では、レーン推定装置1により得られたレーン推定データを自動運転制御装置5に出力し、自動運転制御装置5が上記レーン推定データをもとに車両6をレーン内で走行させるために、或いは車線変更の制御をするために使用する場合を例にとって説明した。しかし、この発明はそれに限るものではなく、レーン推定データをドライブレコーダへ出力してドライブレコーダが上記レーン推定データを車両6の走行履歴情報の1つとして記録するようにしてもよい。
 また、上記レーン推定データを、例えば道路管理サーバへ送信し、道路管理サーバが道路のレーン単位での交通量の監視や渋滞の予測等を行うためのデータとして使用するようにしてもよい。この場合、上記渋滞等の予測結果に基づいて、車両に対し車線の変更指示情報を提示するようにしてもよい。さらに、レーン推定データを車両に搭載されたナビゲーション装置に入力することで、例えば行き先に応じて車両の走行レーンの変更指示情報をドライバに提示するようにしてもよい。
 (3)前記各実施形態では、移動体として自動車等の車両6を例にとり、車両6が例えば片側2車線の道路を走行する場合を例にとって説明した。しかしそれに限らず、移動体としては、例えば自動二輪車や自転車、パーソナルモビリティ、馬車等の家畜が牽引する車両、耕耘機などの農作業用車両であってもよく、さらには歩行者であってもよい。
 このうち、自動二輪車を対象とする場合には、例えば、走行中のレーンの推定結果と、事前に登録した自動二輪車の排気量を表す情報をもとに、現在走行中のレーンの走行可否を判定し、走行してはいけないレーンを走行中の場合には合成音声または鳴音による警告メッセージを出力するようにしてもよい。同様に、自転車を対象とする場合には、例えば走行中のレーンの推定結果と、進行方向の検出結果とに基づいて、自転車が道路上に設定された自転車専用レーンを決められた方向に走行しているか否かを判定し、自転車専用レーン以外のレーンを走行している場合や、自転車専用レーンを走行していても逆走している場合には、合成音声または鳴音による警告メッセージを運転者に向けて出力するとよい。
 その他、推定対象の道路の種類としては片側2車線の一般道路以外に高速道路や有料道路、サイクリングロード、歩道、農道であってもよく、またレーン推定装置の構成やレーン推定方法の処理手順や処理内容、推定対象となる道路の構成等についても、この発明の要旨を逸脱しない範囲で種々変形して実施可能である。
 (4)また前記各実施形態では、レーン推定に用いる画像データは、カメラ2が車両6の進行方向における道路領域を含む範囲を撮像して得たものとして説明したが、これに限るものではなく、例えば車両6の後方など、カメラ2が他の方向の道路領域を含む範囲を撮像して得た画像データであってもよい。
 (5)さらに、第2の実施形態では、画像データTVDの道路領域REと領域パターンPTの道路部分RDとを比較して類似度を判定する例を説明したが、道路領域以外の領域(非道路領域)と領域パターンPTの道路部分RD以外の部分BKとを比較して類似度を判定することも可能である。
 要するにこの発明は、上記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合せにより種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。さらに、異なる実施形態に亘る構成要素を適宜組み合せてもよい。
 (付記)
 上記各実施形態の一部または全部は、特許請求の範囲のほか以下の付記に示すように記載することも可能であるが、これに限られない。
[C1]
 移動体が移動中の道路領域を含む範囲を撮像して得られた画像データを取得する画像取得部と、
 前記取得された画像データから前記道路領域を表す形状を認識し、当該認識された形状をもとに前記道路領域の特徴量を算出する特徴量算出部と、
 前記算出された特徴量に基づいて、前記移動体が移動中のレーンを推定する推定処理部と
 を具備するレーン推定装置。
[C2]
 前記特徴量算出部は、前記道路領域の特徴量として、前記認識された道路領域を表す形状をもとにその輪郭線の傾き角を算出し、
 前記推定処理部は、前記算出された輪郭線の傾き角がレーンごとに予め設定された閾値の範囲のいずれに含まれるかを判定することにより、前記移動体が移動中のレーンを推定する、
 上記C1に記載のレーン推定装置。
[C3]
 前記特徴量算出部は、前記認識された道路領域を表す形状をもとに、前記道路領域の特徴量として、当該形状を表す図形の重心座標、前記形状を表す図形または当該図形から導かれる仮想図形の1つの頂点の角度、および前記形状を表す図形の面積のうちの少なくとも1つを算出し、
 前記推定処理部は、前記算出された図形の重心座標、頂点の角度、および図形の面積がレーンごとに設定された閾値の範囲のいずれに含まれるかを判定することにより、前記移動体が移動中のレーンを推定する、
 上記C1に記載のレーン推定装置。
[C4]
 前記特徴量算出部は、前記認識された道路領域を表す形状をもとに、前記特徴量として、当該形状を前記画像データにより表される画面の垂直方向を一辺とする三角形に変換した図形の二辺間の角度、および前記変換された図形の面積のうちの少なくとも1つを算出し、
 前記推定処理部は、前記算出された輪郭線間の角度または前記図形の面積が、レーンごとに予め設定された閾値の範囲のいずれに含まれるかを判定することにより、前記移動体が移動中のレーンを推定する、
 上記C1に記載のレーン推定装置。
[C5]
 前記特徴量算出部は、前記取得された画像データから、前記道路領域上に存在する物体を含む前記道路領域を表す第1の形状と、前記道路領域のうち前記物体を除いた領域を表す第2の形状をそれぞれ認識し、前記認識された第1の形状および前記第2の形状をもとに前記物体が存在しないときの前記道路領域の輪郭線を推定して当該輪郭線の傾き角の算出し、
 前記推定処理部は、前記算出された輪郭線の傾き角がレーンごとに予め設定された閾値の範囲のいずれに含まれるかを判定することにより、前記移動体が移動中のレーンを推定する、
 上記C1に記載のレーン推定装置。
[C6]
 前記特徴量算出部は、前記道路領域の特徴量として、前記認識された道路領域を表す形状をもとに前記道路領域内の各画素にラベリングした画素値データを取得し、
 前記推定処理部は、前記取得された画素値データが、前記道路領域に対して予め設定された複数のパターンのうちのいずれに類似するかを判定することにより、前記移動体が移動中のレーンを推定する、
 上記C1に記載のレーン推定装置。
[C7]
 前記特徴量算出部は、前記道路領域の特徴量として、前記認識された道路領域を表す形状をもとに前記道路領域内の各画素にラベリングした画素値データを取得し、
 前記推定処理部は、前記取得された画素値データが、前記道路領域に含まれるレーンごとに予め設定されたパターンのうちのいずれに類似するかを判定することにより、前記移動体が移動中のレーンを推定する、
 上記C1に記載のレーン推定装置。
[C8]
 前記特徴量算出部は、前記取得された画像データから、前記道路領域上に存在する物体を含む前記道路領域を表す第1の形状を認識し、前記第1の形状内の各画素にラベリングした画素値データを取得し、
 前記推定処理部は、前記取得された画素値データが、前記道路領域に対して予め設定された複数のパターンまたは前記道路領域に含まれるレーンごとに予め設定されたパターンのうちのいずれに類似するかを判定することにより、前記移動体が移動中のレーンを推定する、
 上記C1に記載のレーン推定装置。
[C9]
 前記推定処理部により過去に得られたレーン推定結果から推定される前記移動体のレーン変更履歴を表す情報と、前記移動体の移動位置における前記道路領域の構造に関する情報と、前記移動体の動きの状態から推定される前記道路領域におけるレーン変更を表す情報との少なくとも1つに基づいて、前記推定処理部により現在得られたレーン推定結果を補正する補正部を、さらに具備する上記C1乃至8のいずれかに記載のレーン推定装置。
[C10]
 情報処理装置が、移動体が移動中のレーンを推定するレーン推定方法であって、
 前記移動体が移動中の道路領域を含む範囲を撮像して得られた画像データを取得する過程と、
 前記取得された画像データから前記道路領域を表す形状を認識し、当該認識された形状をもとに前記道路領域の特徴量を算出する過程と、
 前記算出された特徴量に基づいて、前記移動体が移動中のレーンを推定する過程と
 を具備するレーン推定方法。
[C11]
 上記C1乃至9のいずれかに記載のレーン推定装置が具備する各部の処理を、前記レーン推定装置が備えるプロセッサに実行させるプログラム。
[C12]
 コンピュータにより実行される、移動体(6)が移動中のレーンを推定するレーン推定方法であって、
 前記移動体(6)が移動中の道路領域を含む範囲を撮像して得られた画像データを取得することと、
 前記取得された画像データから前記道路領域を表す形状を認識し、当該認識された形状をもとに前記道路領域の特徴量を算出することと、
 前記算出された特徴量に基づいて、前記移動体(6)が移動中のレーンを推定することと
 を備える方法。
[C13]
 前記特徴量を算出することは、前記道路領域の特徴量として、前記認識された道路領域を表す形状をもとにその輪郭線の傾き角を算出することを含み、
 前記推定することは、前記算出された輪郭線の傾き角がレーンごとに予め設定された閾値の範囲のいずれに含まれるかを判定することにより、前記移動体(6)が移動中のレーンを推定することを含む、
 上記C12に記載の方法。
[C14]
 前記特徴量を算出することは、前記認識された道路領域を表す形状をもとに、前記道路領域の特徴量として、当該形状を表す図形の重心座標、前記形状を表す図形または当該図形から導かれる仮想図形の1つの頂点の角度、および前記形状を表す図形の面積のうちの少なくとも1つを算出することを含み、
 前記推定することは、前記算出された図形の重心座標、頂点の角度、および図形の面積がレーンごとに設定された閾値の範囲のいずれに含まれるかを判定することにより、前記移動体(6)が移動中のレーンを推定することを含む、
 上記C12に記載の方法。
[C15]
 前記特徴量を算出することは、前記認識された道路領域を表す形状をもとに、前記特徴量として、当該形状を前記画像データにより表される画面の垂直方向を一辺とする三角形に変換した図形の二辺間の角度、および前記変換された図形の面積のうちの少なくとも1つを算出することを含み、
 前記推定することは、前記算出された輪郭線間の角度または前記図形の面積が、レーンごとに予め設定された閾値の範囲のいずれに含まれるかを判定することにより、前記移動体(6)が移動中のレーンを推定することを含む、
 上記C12に記載の方法。
[C16]
 前記特徴量を算出することは、前記取得された画像データから、前記道路領域上に存在する物体を含む前記道路領域を表す第1の形状と、前記道路領域のうち前記物体を除いた領域を表す第2の形状をそれぞれ認識し、前記認識された第1の形状および前記第2の形状をもとに前記物体が存在しないときの前記道路領域の輪郭線を推定して当該輪郭線の傾き角の算出することを含み、
 前記推定することは、前記算出された輪郭線の傾き角がレーンごとに予め設定された閾値の範囲のいずれに含まれるかを判定することにより、前記移動体(6)が移動中のレーンを推定することを含む、
 上記C12に記載の方法。
[C17]
 前記特徴量を算出することは、前記道路領域の特徴量として、前記認識された道路領域を表す形状をもとに前記道路領域内の各画素にラベリングした画素値データを取得することを含み、
 前記推定することは、前記取得された画素値データが、前記道路領域に対して予め設定された複数のパターンのうちのいずれに類似するかを判定することにより、前記移動体(6)が移動中のレーンを推定することを含む、
 上記C12に記載の方法。
[C18]
 前記特徴量を算出することは、前記道路領域の特徴量として、前記認識された道路領域を表す形状をもとに前記道路領域内の各画素にラベリングした画素値データを取得することを含み、
 前記推定することは、前記取得された画素値データが、前記道路領域に含まれるレーンごとに予め設定されたパターンのうちのいずれに類似するかを判定することにより、前記移動体(6)が移動中のレーンを推定することを含む、
 上記C12に記載の方法。
[C19]
 前記特徴量を算出することは、前記取得された画像データから、前記道路領域上に存在する物体を含む前記道路領域を表す第1の形状を認識し、前記第1の形状内の各画素にラベリングした画素値データを取得することを含み、
 前記推定することは、前記取得された画素値データが、前記道路領域に対して予め設定された複数のパターンまたは前記道路領域に含まれるレーンごとに予め設定されたパターンのうちのいずれに類似するかを判定することにより、前記移動体(6)が移動中のレーンを推定することを含む、
 上記C12に記載の方法。
[C20]
 過去に得られたレーン推定結果から推定される前記移動体(6)のレーン変更履歴を表す情報と、前記移動体(6)の移動位置における前記道路領域の構造に関する情報と、前記移動体(6)の動きの状態から推定される前記道路領域におけるレーン変更を表す情報との少なくとも1つに基づいて、現在得られたレーン推定結果を補正することをさらに備える、上記C12乃至19のいずれか一項に記載の方法。
[C21]
 上記C12乃至19のいずれか一項に記載の方法を実行する手段を備える、レーン推定装置(1)。
[C22]
 コンピュータによって実行されたときに、上記C12乃至19のいずれか一項に記載の方法をコンピュータに実行させる命令を備えるプログラム。
[C23]
 コンピュータによって実行されたときに、上記C12乃至19のいずれか一項に記載の方法をコンピュータに実行させる命令を備えるコンピュータ可読記憶媒体。
 1…レーン推定装置
 2…カメラ
 3…GPSセンサ
 4…車両センサ
 5…自動運転制御装置
 6…車両
 10…制御ユニット
 10A…ハードウェアプロセッサ
 10B…プログラムメモリ
 11…画像データ取得部
 12…画像処理部
 13…レーン推定処理部
 14…レーン補正部
 15…過去推定データ取得部
 16…道路情報取得部
 17…車両センサデータ取得部
 18…車両動作状態推定部
 19…推定データ出力制御部
 20…データメモリ
 21…画像データ記憶部
 22…レーン推定データ記憶部
 23…道路情報記憶部
 24…車両センサデータ記憶部
 25…閾値記憶部
 26…パターン記憶部
 30…入出力I/F
 40…バス
 130…レーン推定処理部
 1301…パターン取得部
 1302…類似度判定部
 1303…レーン推定部
 VD…静止画像データ
 TVD…処理済み画像データ
 TL1,TL2…走行レーン
 WL…歩道
 MS…中央分離帯
 SR…路肩
 SB…縁石
 SH…植栽
 RE…道路領域の輪郭
 PT…領域パターン
 RD…道路部分の輪郭
 MBR…車両領域
 GR…ガードレール

Claims (11)

  1.  プロセッサと、当該プロセッサに接続されたメモリとを備える、レーン推定装置であって、
     前記プロセッサが、
      移動体が移動中の道路領域を含む範囲を撮像して得られた画像データを取得し、前記メモリに記憶させ、
      前記メモリに記憶された画像データを読み出して前記画像データから前記道路領域を表す形状を認識し、当該認識された形状をもとに前記道路領域の特徴量を算出し、
      前記算出された特徴量に基づいて、前記移動体が移動中のレーンを推定する
     ように構成された、レーン推定装置。
  2.  前記プロセッサがさらに、
      前記道路領域の特徴量として、前記認識された道路領域を表す形状をもとにその輪郭線の傾き角を算出し、
      前記算出された輪郭線の傾き角がレーンごとに予め設定された閾値の範囲のいずれに含まれるかを判定することにより、前記移動体が移動中のレーンを推定する、
     ように構成された、請求項1に記載のレーン推定装置。
  3.  前記プロセッサがさらに、
      前記認識された道路領域を表す形状をもとに、前記道路領域の特徴量として、当該形状を表す図形の重心座標、前記形状を表す図形または当該図形から導かれる仮想図形の1つの頂点の角度、および前記形状を表す図形の面積のうちの少なくとも1つを算出し、
      前記算出された図形の重心座標、頂点の角度、および図形の面積がレーンごとに設定された閾値の範囲のいずれに含まれるかを判定することにより、前記移動体が移動中のレーンを推定する、
     ように構成された、請求項1に記載のレーン推定装置。
  4.  前記プロセッサがさらに、
      前記認識された道路領域を表す形状をもとに、前記特徴量として、当該形状を前記画像データにより表される画面の垂直方向を一辺とする三角形に変換した図形の二辺間の角度、および前記変換された図形の面積のうちの少なくとも1つを算出し、
      前記算出された輪郭線間の角度または前記図形の面積が、レーンごとに予め設定された閾値の範囲のいずれに含まれるかを判定することにより、前記移動体が移動中のレーンを推定する、
     ように構成された、請求項1に記載のレーン推定装置。
  5.  前記プロセッサがさらに、
      前記取得された画像データから、前記道路領域上に存在する物体を含む前記道路領域を表す第1の形状と、前記道路領域のうち前記物体を除いた領域を表す第2の形状をそれぞれ認識し、前記認識された第1の形状および前記第2の形状をもとに前記物体が存在しないときの前記道路領域の輪郭線を推定して当該輪郭線の傾き角の算出し、
      前記算出された輪郭線の傾き角がレーンごとに予め設定された閾値の範囲のいずれに含まれるかを判定することにより、前記移動体が移動中のレーンを推定する、
     ように構成された、請求項1に記載のレーン推定装置。
  6.  前記プロセッサがさらに、
      前記道路領域の特徴量として、前記認識された道路領域を表す形状をもとに前記道路領域内の各画素にラベリングした画素値データを取得し、
      前記取得された画素値データが前記道路領域に対して予め設定された複数のパターンのうちのいずれに類似するかを判定することにより、前記移動体が移動中のレーンを推定する、
     ように構成された、請求項1に記載のレーン推定装置。
  7.  前記プロセッサがさらに、
      前記道路領域の特徴量として、前記認識された道路領域を表す形状をもとに前記道路領域内の各画素にラベリングした画素値データを取得し、
      前記取得された画素値データが前記道路領域に含まれるレーンごとに予め設定されたパターンのうちのいずれに類似するかを判定することにより、前記移動体が移動中のレーンを推定する、
     ように構成された、請求項1に記載のレーン推定装置。
  8.  前記プロセッサがさらに、
      前記取得された画像データから、前記道路領域上に存在する物体を含む前記道路領域を表す第1の形状を認識し、前記第1の形状内の各画素にラベリングした画素値データを取得し、
      前記取得された画素値データが前記道路領域に対して予め設定された複数のパターンまたは前記道路領域に含まれるレーンごとに予め設定されたパターンのうちのいずれに類似するかを判定することにより、前記移動体が移動中のレーンを推定する、
     ように構成された、請求項1に記載のレーン推定装置。
  9.  前記プロセッサがさらに、
      過去に得られたレーン推定結果から推定される前記移動体のレーン変更履歴を表す情報と、前記移動体の移動位置における前記道路領域の構造に関する情報と、前記移動体の動きの状態から推定される前記道路領域におけるレーン変更を表す情報との少なくとも1つに基づいて、現在得られたレーン推定結果を補正するようにさらに構成された、請求項1に記載のレーン推定装置。
  10.  プロセッサと当該プロセッサに接続されたメモリとを備える情報処理装置が、移動体が移動中のレーンを推定するレーン推定方法であって、
      前記移動体が移動中の道路領域を含む範囲を撮像して得られた画像データを取得することと、
      前記取得された画像データから前記道路領域を表す形状を認識し、当該認識された形状をもとに前記道路領域の特徴量を算出することと、
      前記算出された特徴量に基づいて、前記移動体が移動中のレーンを推定することと
     を具備するレーン推定方法。
  11.  移動体が移動中のレーンを推定するためのプログラムを記憶した非一時的な有形のコンピュータ可読記憶媒体であって、前記プログラムは、
      前記移動体が移動中の道路領域を含む範囲を撮像して得られた画像データを取得することと、
      前記取得された画像データから前記道路領域を表す形状を認識し、当該認識された形状をもとに前記道路領域の特徴量を算出することと、
      前記算出された特徴量に基づいて、前記移動体が移動中のレーンを推定することと
     をプロセッサに実行させるための命令を備える、コンピュータ可読記憶媒体。
PCT/JP2019/024570 2018-06-27 2019-06-20 レーン推定装置、方法およびプログラム WO2020004231A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2020527462A JP6977887B2 (ja) 2018-06-27 2019-06-20 レーン推定装置、方法およびプログラム
CN201980042935.7A CN112352260A (zh) 2018-06-27 2019-06-20 车道估计装置、方法以及程序
US17/255,838 US11861841B2 (en) 2018-06-27 2019-06-20 Lane estimation device, method, and program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018121714 2018-06-27
JP2018-121714 2018-06-27

Publications (1)

Publication Number Publication Date
WO2020004231A1 true WO2020004231A1 (ja) 2020-01-02

Family

ID=68986833

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/024570 WO2020004231A1 (ja) 2018-06-27 2019-06-20 レーン推定装置、方法およびプログラム

Country Status (4)

Country Link
US (1) US11861841B2 (ja)
JP (1) JP6977887B2 (ja)
CN (1) CN112352260A (ja)
WO (1) WO2020004231A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023076903A (ja) * 2021-11-24 2023-06-05 三菱電機株式会社 路面劣化検出システムおよび路面劣化検出方法

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7112347B2 (ja) * 2019-02-08 2022-08-03 本田技研工業株式会社 車両制御装置、車両制御方法、車両およびプログラム
JP7361482B2 (ja) * 2019-03-27 2023-10-16 京セラ株式会社 画像処理装置、撮像装置、移動体及び画像処理方法
WO2021062593A1 (en) * 2019-09-30 2021-04-08 Beijing Voyager Technology Co., Ltd. Systems and methods for predicting bicycle trajectory
KR102296520B1 (ko) * 2020-12-18 2021-09-01 주식회사 카비 단안 카메라를 이용한 경로추정에 의한 곡선차선 검출 방법

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000132677A (ja) * 1998-10-21 2000-05-12 Nec Corp 画像処理方法
JP2003044978A (ja) * 2001-07-27 2003-02-14 Mitsubishi Motors Corp 走行レーン認識装置
JP2014194698A (ja) * 2013-03-29 2014-10-09 Aisin Aw Co Ltd 道路端検出システム、方法およびプログラム

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005157731A (ja) 2003-11-26 2005-06-16 Nissan Motor Co Ltd 車線認識装置および車線認識方法
EP2720213A4 (en) * 2011-06-13 2015-03-11 Nissan Motor DEVICE FOR DETERMINING A ROAD PROFILE, VEHICLE INTERNAL IMAGE RECOGNITION DEVICE, APPARATUS FOR ADJUSTING A PICTURE BASE AXIS AND TRACE RECOGNITION METHOD
JP2015001773A (ja) 2013-06-13 2015-01-05 ボッシュ株式会社 車線推定装置
JP2015069289A (ja) * 2013-09-27 2015-04-13 日産自動車株式会社 車線認識装置
JP5988308B2 (ja) * 2013-12-27 2016-09-07 富士重工業株式会社 車両のレーンキープ制御装置
JP2019016246A (ja) * 2017-07-10 2019-01-31 株式会社Soken 走路認識装置
JP6590988B1 (ja) * 2018-05-01 2019-10-16 三菱電機株式会社 区画線認識装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000132677A (ja) * 1998-10-21 2000-05-12 Nec Corp 画像処理方法
JP2003044978A (ja) * 2001-07-27 2003-02-14 Mitsubishi Motors Corp 走行レーン認識装置
JP2014194698A (ja) * 2013-03-29 2014-10-09 Aisin Aw Co Ltd 道路端検出システム、方法およびプログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023076903A (ja) * 2021-11-24 2023-06-05 三菱電機株式会社 路面劣化検出システムおよび路面劣化検出方法

Also Published As

Publication number Publication date
JP6977887B2 (ja) 2021-12-08
US11861841B2 (en) 2024-01-02
US20210279484A1 (en) 2021-09-09
CN112352260A (zh) 2021-02-09
JPWO2020004231A1 (ja) 2021-01-07

Similar Documents

Publication Publication Date Title
US11697427B2 (en) Systems and methods for vehicle navigation
US11200433B2 (en) Detection and classification systems and methods for autonomous vehicle navigation
US20220009518A1 (en) Road vector fields
US11814079B2 (en) Systems and methods for identifying potential communication impediments
WO2020004231A1 (ja) レーン推定装置、方法およびプログラム
US8818026B2 (en) Object recognition device and object recognition method
JP4557288B2 (ja) 画像認識装置及び画像認識方法、並びにそれを用いた位置特定装置、車両制御装置及びナビゲーション装置
US20230005364A1 (en) Systems and methods for monitoring traffic lane congestion
KR102595897B1 (ko) 차선 결정 방법 및 장치
US20220035378A1 (en) Image segmentation
JP4902575B2 (ja) 道路標示認識装置、および道路標示認識方法
JP2006209510A (ja) 画像認識装置及び画像認識方法
JP2006208223A (ja) 車両位置認識装置及び車両位置認識方法
US11680801B2 (en) Navigation based on partially occluded pedestrians
JP4775658B2 (ja) 地物認識装置・自車位置認識装置・ナビゲーション装置・地物認識方法
EP4275192A2 (en) Systems and methods for common speed mapping and navigation
JP4731380B2 (ja) 自車位置認識装置及び自車位置認識方法
US20230136710A1 (en) Systems and methods for harvesting images for vehicle navigation
WO2023067385A2 (en) Radar-camera fusion for vehicle navigation

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19824515

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2020527462

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19824515

Country of ref document: EP

Kind code of ref document: A1