RU2563534C1 - Detector of solid objects and detection of solid objects - Google Patents

Detector of solid objects and detection of solid objects Download PDF

Info

Publication number
RU2563534C1
RU2563534C1 RU2014107926/11A RU2014107926A RU2563534C1 RU 2563534 C1 RU2563534 C1 RU 2563534C1 RU 2014107926/11 A RU2014107926/11 A RU 2014107926/11A RU 2014107926 A RU2014107926 A RU 2014107926A RU 2563534 C1 RU2563534 C1 RU 2563534C1
Authority
RU
Russia
Prior art keywords
vehicle
detection
lane
detecting
solid object
Prior art date
Application number
RU2014107926/11A
Other languages
Russian (ru)
Inventor
Ясухиса ХАЯКАВА
Тикао ЦУТИЯ
Осаму ФУКАТА
Юкинори НИСИДА
Дайсуке ОИКИ
Original Assignee
Ниссан Мотор Ко., Лтд.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ниссан Мотор Ко., Лтд. filed Critical Ниссан Мотор Ко., Лтд.
Application granted granted Critical
Publication of RU2563534C1 publication Critical patent/RU2563534C1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/167Driving aids for lane monitoring, lane changing, e.g. blind spot detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/08Detecting or categorising vehicles

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

FIELD: transport.SUBSTANCE: proposed detector (1) serves to detect solid objects at periphery of vehicle (V). Note here that said detector (1) comprises frame grabber chamber (10). Said frame comprises detection areas (A1, A2) set in adjacent lanes behind the vehicle (V). Solid object evaluation module (33) is intended for evaluation if solid object stays or no in the frames of detection areas (A1, A2) grabbed by camera (10). Crosswise position detection module (34) serves to detect spacing (?y) between vehicle position in the lane the vehicle (V) moves in and separation line separating said lanes. Module (33b) of setting the areas for request for increase in the size of detection area (A1 or A2) on the side of separation line location by larger magnitude in compliance with increase in distance (?y) to separation line detected by crosswise position detection module (34). Lane change detection means (35) reveals the change in the vehicle motion lane. In case said lane change is revealed, smaller increase is used at size increase in predefined area outward in direction of vehicle width.EFFECT: higher accuracy of detection.12 cl, 32 dwg

Description

Область техники, к которой относится изобретениеFIELD OF THE INVENTION

[0001] Настоящее изобретение относится к устройству обнаружения сплошных объектов и к способу обнаружения сплошных объектов.[0001] The present invention relates to a device for detecting solid objects and to a method for detecting solid objects.

Уровень техникиState of the art

[0002] Ранее предлагались устройства для наблюдения периферии транспортного средства, которые используют радар для того, чтобы оценивать, имеется или нет сплошной объект в области обнаружения позади транспортного средства, и уведомлять водителя. В таком устройстве для наблюдения периферии транспортного средства, область обнаружения включает в себя местоположение, которое является мертвой зоной, по меньшей мере, для бокового зеркала, и когда угол бокового зеркала изменяется, позиция области обнаружения изменяется соответствующим образом (см. патентный документ 1).[0002] Previously, devices have been proposed for monitoring the periphery of a vehicle that use a radar to assess whether or not there is a solid object in the detection area behind the vehicle and to notify the driver. In such a device for observing the periphery of a vehicle, the detection area includes a location that is a dead zone for at least a side mirror, and when the angle of the side mirror changes, the position of the detection area changes accordingly (see Patent Document 1).

Документы предшествующего уровня техникиBackground Documents

Патентные документыPatent documents

[0003] Патентный документ 1.[0003] Patent Document 1.

Выложенная японская патентная публикация (Япония) номер 2000-149197Japanese Patent Laid-Open (Japan) No. 2000-149197

Сущность изобретенияSUMMARY OF THE INVENTION

Задачи, которые должны быть решены изобретениемTasks to be Solved by the Invention

[0004] Тем не менее, в устройстве, раскрытом в патентном документе 1, имеется вероятность, в зависимости от позиции транспортного средства в полосе движения, того, что не может обнаруживаться сплошной объект, такой как другое транспортное средство в смежной полосе движения. В качестве более подробного описания, в устройстве, раскрытом в патентном документе 1, область обнаружения является фиксированной при условии, что угол бокового зеркала не изменяется. В этом состоянии, например, в таких случаях, когда транспортное средство приближается к левой стороне полосы движения, и другое транспортное средство и т.п. на правой смежной полосе движения находится около правой стороны первой полосы движения, например, другое транспортное средство не входит в область обнаружения, и сплошной объект больше не может обнаруживаться.[0004] However, in the device disclosed in Patent Document 1, there is a possibility, depending on the position of the vehicle in the lane, that a solid object such as another vehicle in the adjacent lane cannot be detected. As a more detailed description, in the device disclosed in Patent Document 1, the detection area is fixed provided that the angle of the side mirror does not change. In this state, for example, in such cases, when the vehicle approaches the left side of the lane, and another vehicle, etc. on the right adjacent lane is located near the right side of the first lane, for example, another vehicle is not in the detection area, and a solid object can no longer be detected.

[0005] Настоящее изобретение разработано, чтобы разрешать такие проблемы в предшествующем уровне техники, и цель изобретения заключается в том, чтобы предоставлять устройство обнаружения сплошных объектов и способ обнаружения сплошных объектов, за счет которых может повышаться точность обнаружения сплошных объектов.[0005] The present invention is designed to solve such problems in the prior art, and an object of the invention is to provide a solid object detection device and a solid object detection method, which can improve the accuracy of detecting solid objects.

Средство для решения задачMeans for solving problems

[0006] Устройство обнаружения сплошных объектов настоящего изобретения захватывает изображение, включающее в себя разделительную линию и предварительно определенную область смежной полосы движения, и оценивает то, имеется или нет сплошной объект в предварительно определенной области. Из захваченного изображения устройство обнаружения сплошных объектов обнаруживает расстояние по ширине транспортного средства между позицией транспортного средства и разделительной линией в полосе движения, по которой движется транспортное средство, и размер предварительно определенной области, позиционированной на стороне, на которой находится разделительная линия, увеличивается больше наружу в направлении ширины транспортного средства в соответствии с большим расстоянием по ширине транспортного средства.[0006] The solid object detection apparatus of the present invention captures an image including a dividing line and a predetermined area of an adjacent lane, and judges whether or not a solid object is in a predetermined area. From the captured image, the solid object detection device detects a distance across the width of the vehicle between the position of the vehicle and the dividing line in the lane along which the vehicle is moving, and the size of a predetermined area positioned on the side on which the dividing line is located increases outwardly the direction of the width of the vehicle in accordance with the large distance across the width of the vehicle.

Преимущества изобретенияAdvantages of the Invention

[0007] Согласно настоящему изобретению, предварительно определенная область, в которой расстояние по ширине транспортного средства позиционировано на стороне, на которой находится разделительная линия, увеличивается дальше наружу в направлении ширины транспортного средства согласно увеличению расстояния по ширине транспортного средства между позицией транспортного средства и разделительной линией. Следовательно, можно исключать ситуации, в которых вследствие отделения транспортного средства от разделительной линии, например, предварительно определенная область не задается надлежащим образом для смежного транспортного средства, и сплошной объект, такой как другое транспортное средство, находится за пределами предварительно определенной области и не может быть обнаружен. Следовательно, может повышаться точность обнаружения сплошных объектов.[0007] According to the present invention, a predetermined area in which the vehicle width distance is positioned on the side on which the dividing line is located increases further outward in the vehicle width direction according to an increase in the vehicle width distance between the vehicle position and the dividing line . Therefore, it is possible to exclude situations in which, due to separation of the vehicle from the dividing line, for example, a predetermined area is not set properly for an adjacent vehicle, and a solid object, such as another vehicle, is outside the predetermined area and cannot be detected. Therefore, the accuracy of detecting solid objects can be improved.

Краткое описание чертежейBrief Description of the Drawings

[0008] Фиг. 1 является принципиальной схемой устройства обнаружения сплошных объектов согласно настоящему варианту осуществления, показывающей пример случая, в котором устройство обнаружения сплошных объектов устанавливается в транспортном средстве;[0008] FIG. 1 is a schematic diagram of a solid object detection apparatus according to the present embodiment, showing an example of a case in which a solid object detection apparatus is installed in a vehicle;

Фиг. 2 является видом сверху, показывающим состояние движения транспортного средства, показанного на фиг. 1.FIG. 2 is a plan view showing a state of movement of the vehicle shown in FIG. one.

Фиг. 3 является блок-схемой, показывающей подробности компьютера, показанного на фиг. 1;FIG. 3 is a block diagram showing details of the computer shown in FIG. one;

Фиг. 4 является чертежом для описания схемы процесса модуля позиционного совмещения, показанного на фиг. 3, при этом (a) показывает состояние движения транспортного средства V, а (b) показывает схему позиционного совмещения;FIG. 4 is a drawing for describing a process diagram of a positional alignment module shown in FIG. 3, wherein (a) shows the state of movement of the vehicle V, and (b) shows a positional alignment diagram;

Фиг. 5 является принципиальной схемой, показывающей способ, которым формируются формы разностных сигналов посредством модуля формирования форм разностных сигналов, показанного на фиг. 3;FIG. 5 is a schematic diagram showing a method by which differential waveform forms are generated by the differential waveform generation module shown in FIG. 3;

Фиг. 6 является видом сверху, показывающим состояние движения транспортного средства, показанного на фиг. 1, и показывающим пример случая, в котором транспортное средство движется со смещением от центра в полосе движения;FIG. 6 is a plan view showing a state of movement of the vehicle shown in FIG. 1, and showing an example of a case in which a vehicle moves off-center in a lane;

Фиг. 7 является видом сверху, показывающим состояние движения транспортного средства, показанного на фиг. 1, и показывающим пример случая, в котором модуль задания областей увеличивает область обнаружения;FIG. 7 is a plan view showing a state of movement of the vehicle shown in FIG. 1, and showing an example of a case in which the area definition module enlarges the detection area;

Фиг. 8 является графиком, показывающим взаимосвязь между расстоянием по ширине транспортного средства до разделительной линии и размером (величиной увеличения) области обнаружения;FIG. 8 is a graph showing the relationship between the vehicle width to the dividing line and the size (magnification amount) of the detection area;

Фиг. 9 является блок-схемой последовательности операций способа, показывающей способ обнаружения сплошных объектов согласно настоящему варианту осуществления;FIG. 9 is a flowchart showing a method for detecting solid objects according to the present embodiment;

Фиг. 10 является блок-схемой, показывающей подробности компьютера согласно второму варианту осуществления;FIG. 10 is a block diagram showing details of a computer according to a second embodiment;

Фиг. 11 является видом сверху, показывающим состояние движения транспортного средства, когда ширина полосы движения является небольшой, и показывающим пример случая, в котором модуль задания областей увеличивает область обнаружения;FIG. 11 is a plan view showing the state of movement of the vehicle when the lane width is small, and showing an example of a case in which the area setting module enlarges the detection area;

Фиг. 12 является графиком, показывающим взаимосвязь между расстоянием по ширине транспортного средства до разделительной линии и размером (величиной увеличения) области обнаружения во втором варианте осуществления;FIG. 12 is a graph showing the relationship between the vehicle width to the dividing line and the size (magnification amount) of the detection area in the second embodiment;

Фиг. 13 является блок-схемой последовательности операций способа, показывающей способ обнаружения сплошных объектов согласно второму варианту осуществления, показывающей первую половину процесса;FIG. 13 is a flowchart showing a method for detecting solid objects according to a second embodiment, showing a first half of a process;

Фиг. 14 является блок-схемой последовательности операций способа, показывающей способ обнаружения сплошных объектов согласно второму варианту осуществления, показывающей вторую половину процесса;FIG. 14 is a flowchart showing a method for detecting solid objects according to a second embodiment, showing a second half of a process;

Фиг. 15 является блок-схемой, показывающей подробности компьютера согласно третьему варианту осуществления;FIG. 15 is a block diagram showing details of a computer according to a third embodiment;

Фиг. 16 является видом сверху, показывающим состояние движения транспортного средства во время смены полосы движения;FIG. 16 is a plan view showing a state of movement of a vehicle during a lane change;

Фиг. 17 является графиком, показывающим взаимосвязь между расстоянием по ширине транспортного средства до разделительной линии и размером (величиной увеличения) области обнаружения в третьем варианте осуществления;FIG. 17 is a graph showing a relationship between a vehicle width to a dividing line and a size (magnification amount) of a detection area in a third embodiment;

Фиг. 18 является блок-схемой последовательности операций способа, показывающей способ обнаружения сплошных объектов согласно третьему варианту осуществления, показывающей первую половину процесса;FIG. 18 is a flowchart showing a method for detecting solid objects according to a third embodiment, showing a first half of a process;

Фиг. 19 является блок-схемой последовательности операций способа, показывающей способ обнаружения сплошных объектов согласно третьему варианту осуществления, показывающей вторую половину процесса;FIG. 19 is a flowchart showing a method for detecting solid objects according to a third embodiment, showing a second half of a process;

Фиг. 20 является блок-схемой, показывающей подробности компьютера 30 согласно четвертому варианту осуществления;FIG. 20 is a block diagram showing details of a computer 30 according to a fourth embodiment;

Фиг. 21 является принципиальной схемой, показывающей подробности процесса, выполняемого посредством модуля 37 обнаружения линий на земной поверхности;FIG. 21 is a schematic diagram showing details of a process performed by the line detection module 37 on the earth's surface;

Фиг. 22 является графиком, показывающим темпы увеличения областей множества форм DWt1-DWt4 разностных сигналов, показанных на фиг. 21(b);FIG. 22 is a graph showing the growth rates of regions of a plurality of difference waveform DW t1 to DW t4 shown in FIG. 21 (b);

Фиг. 23 является графиком, показывающим взаимосвязь между расстоянием по ширине транспортного средства до разделительной линии и размером (величиной увеличения) области обнаружения в четвертом варианте осуществления;FIG. 23 is a graph showing a relationship between a vehicle width to a dividing line and a size (magnification amount) of a detection area in a fourth embodiment;

Фиг. 24 является блок-схемой, показывающей подробности компьютера 30 согласно пятому варианту осуществления;FIG. 24 is a block diagram showing details of a computer 30 according to a fifth embodiment;

Фиг. 25 является графиком, показывающим взаимосвязь между расстоянием по ширине транспортного средства до разделительной линии и размером (величиной увеличения) области обнаружения в пятом варианте осуществления;FIG. 25 is a graph showing a relationship between a vehicle width to a dividing line and a size (magnification amount) of a detection area in a fifth embodiment;

Фиг. 26 является видом сверху, показывающим состояние движения транспортного средства, когда транспортное средство поворачивает;FIG. 26 is a plan view showing a state of movement of the vehicle when the vehicle is turning;

Фиг. 27 является видом сверху, показывающим состояние движения транспортного средства в шестом варианте осуществления;FIG. 27 is a plan view showing a state of movement of a vehicle in a sixth embodiment;

Фиг. 28 является графиком, показывающим взаимосвязь между расстоянием по ширине транспортного средства до разделительной линии и размером (величиной увеличения) области обнаружения в шестом варианте осуществления;FIG. 28 is a graph showing a relationship between a vehicle width to a dividing line and a size (magnification amount) of a detection area in a sixth embodiment;

Фиг. 29 является блок-схемой, показывающей подробности компьютера 30 согласно седьмому варианту осуществления;FIG. 29 is a block diagram showing details of a computer 30 according to a seventh embodiment;

Фиг. 30 является графиком, показывающим взаимосвязь между расстоянием по ширине транспортного средства до разделительной линии и размером (величиной увеличения) области обнаружения в седьмом варианте осуществления;FIG. 30 is a graph showing the relationship between the vehicle width to the dividing line and the size (magnitude of magnification) of the detection area in the seventh embodiment;

Фиг. 31 является блок-схемой, показывающей подробности компьютера 30 согласно восьмому варианту осуществления; иFIG. 31 is a block diagram showing details of a computer 30 according to an eighth embodiment; and

Фиг. 32 является схемой для описания взаимосвязи между типом разделительной линии и размером (величиной увеличения) областей A1, A2 обнаружения.FIG. 32 is a diagram for describing a relationship between a dividing line type and a size (magnification amount) of detection areas A1, A2.

Предпочтительные варианты осуществления изобретенияPreferred Embodiments

[0009] Первый вариант осуществления[0009] First Embodiment

Предпочтительные варианты осуществления настоящего изобретения описываются ниже на основе чертежей. Фиг. 1 является принципиальной схемой устройства 1 обнаружения сплошных объектов согласно настоящему варианту осуществления, показывающей пример случая, в котором устройство 1 обнаружения сплошных объектов устанавливается в транспортном средстве V. Устройство 1 обнаружения сплошных объектов, показанное на фиг. 1, обнаруживает сплошные объекты (например, другие транспортные средства, двухколесные транспортные средства и т.д.), движущиеся в смежной полосе движения, которая является смежной с данной полосой движения, на которой движется транспортное средство V, причем смежная полоса движения является смежной через разделительную линию в качестве границы; устройство 1 обнаружения сплошных объектов предоставляет различную информацию водителю транспортного средства V; и устройство 1 обнаружения сплошных объектов содержит камеру 10 (средство захвата изображений), датчик 20 скорости транспортного средства и компьютер 30. Термин "данная полоса движения", используемый ниже, означает зону движения, в которой может двигаться транспортное средство V, когда отсутствуют смены полосы движения, а также является областью, которая исключает разделительную линию. Одновременно, термин "смежная полоса движения" означает зону движения, смежную с данной полосой движения через разделительную линию, которая также является областью, которая исключает разделительную линию. Разделительная линия представляет собой такую линию, как белые линии и т.п., которые служат в качестве границы между данной полосой движения и смежной полосой движения.Preferred embodiments of the present invention are described below based on the drawings. FIG. 1 is a schematic diagram of a solid object detection device 1 according to the present embodiment, showing an example of a case in which a solid object detection device 1 is installed in the vehicle V. The solid object detection device 1 shown in FIG. 1 detects solid objects (for example, other vehicles, two-wheeled vehicles, etc.) moving in an adjacent lane that is adjacent to a given lane in which the vehicle V is moving, and the adjacent lane is adjacent through dividing line as a border; the solid object detection device 1 provides various information to the driver of the vehicle V; and the solid object detecting device 1 comprises a camera 10 (image capturing means), a vehicle speed sensor 20, and a computer 30. The term “given lane”, used below, means a traffic zone in which vehicle V can move when there are no lane changes movement, and is also an area that eliminates the dividing line. At the same time, the term "adjacent lane" means a zone adjacent to a given lane through a dividing line, which is also an area that excludes a dividing line. The dividing line is a line such as white lines and the like, which serve as the boundary between a given lane and an adjacent lane.

[0010] Камера 10, показанная на фиг. 1, присоединяется в таком местоположении на высоте h в задней части транспортного средства V, что оптическая ось находится под углом θ вниз от горизонтали. Камера 10 выполнена с возможностью захватывать изображения области определения из этой позиции. Датчик 20 скорости транспортного средства обнаруживает скорость движения транспортного средства V, для которого применяется датчик и т.п., например, для считывания скорости вращения колес. На основе изображений, захваченных посредством камеры 10, компьютер 30 обнаруживает сплошные объекты (например, другие транспортные средства, двухколесные транспортные средства и т.д.), расположенные сзади транспортного средства V.[0010] The camera 10 shown in FIG. 1 is attached at a location at a height h in the rear of the vehicle V such that the optical axis is at an angle θ down from the horizontal. The camera 10 is configured to capture images of the detection region from this position. The vehicle speed sensor 20 detects a vehicle speed V, for which a sensor or the like is used, for example, for sensing wheel speeds. Based on the images captured by the camera 10, the computer 30 detects solid objects (e.g., other vehicles, two-wheeled vehicles, etc.) located at the rear of the vehicle V.

[0011] Устройство 1 обнаружения сплошных объектов также имеет предупреждающее устройство (не показано) и выдает предупреждения водителю транспортного средства V, например, в таких случаях, когда имеется вероятность вхождения в контакт с транспортным средством V в результате операции перемещения, обнаруженной посредством компьютера 30 .[0011] The solid object detection device 1 also has a warning device (not shown) and issues warnings to a driver of a vehicle V, for example, in cases where there is a chance of coming into contact with a vehicle V as a result of a moving operation detected by the computer 30.

[0012] Фиг. 2 является видом с высоты птичьего полета, показывающим состояние движения транспортного средства V, показанного на фиг. 1. Камера 10 допускает захват изображений области сзади транспортного средства V или конкретной области, включающей в себя разделительную линию и смежную полосу движения, как показано на фиг. 2. Области A1, A2 обнаружения (предварительно определенные участки) для обнаружения сплошных объектов, таких как другие транспортные средства, задаются в смежных полосах движения, которые являются смежными с данной полосой движения, в которой движется транспортное средство V, и компьютер 30 обнаруживает то, имеются или нет сплошные объекты в областях A1, A2 обнаружения. Такие области A1, A2 обнаружения задаются из своих относительных позиций относительно транспортного средства V.[0012] FIG. 2 is a bird's-eye view showing the state of motion of the vehicle V shown in FIG. 1. Camera 10 is capable of capturing images of an area behind the vehicle V or a specific area including a dividing line and an adjacent lane, as shown in FIG. 2. Detection areas A1, A2 (predetermined areas) for detecting solid objects, such as other vehicles, are defined in adjacent lanes that are adjacent to a given lane in which vehicle V is moving, and computer 30 detects whether or not there are solid objects in areas A1, A2 of detection. Such detection areas A1, A2 are set from their relative positions relative to the vehicle V.

[0013] Фиг. 3 является блок-схемой, показывающей подробности компьютера 30, показанного на фиг. 1. На фиг. 3 камера 10 и датчик 20 скорости транспортного средства также показаны для того, чтобы предоставлять понятную иллюстрацию взаимных соединений.[0013] FIG. 3 is a block diagram showing details of the computer 30 shown in FIG. 1. In FIG. 3, a camera 10 and a vehicle speed sensor 20 are also shown in order to provide a clear illustration of the interconnections.

[0014] Компьютер 30 содержит модуль 31 преобразования точки обзора, модуль 32 позиционного совмещения (средство позиционного совмещения) и модуль 33 обнаружения сплошных объектов (средство обнаружения сплошных объектов), как показано на фиг. 3.[0014] The computer 30 comprises a viewpoint conversion module 31, a positional alignment module 32 (positional alignment means) and a solid object detection module 33 (solid object detection means), as shown in FIG. 3.

[0015] Модуль 31 преобразования точки обзора вводит захваченные данные изображений, включающие в себя области A1, A2 обнаружения, полученные посредством захвата изображений, выполняемого посредством камеры 10, и преобразует точку обзора введенных захваченных данных изображений в данные изображений при виде с высоты птичьего полета, которые видны при просмотре с высоты птичьего полета. Такой вид с высоты птичьего полета представляет собой то, что должно быть видно с воображаемой камеры, смотрящей вертикально вниз, например, с воздуха. Это преобразование точки обзора выполняется, например, так, как раскрыто в выложенной японской патентной публикации № 2008-219063.[0015] The viewpoint conversion unit 31 introduces captured image data including the detection areas A1, A2 obtained by capturing images performed by the camera 10, and converts the viewpoint of the captured image data captured into image data when viewed from a bird's eye view, which are visible when viewed from a bird's eye view. Such a bird's-eye view is what should be seen from an imaginary camera looking vertically down, for example, from the air. This viewpoint transformation is performed, for example, as disclosed in Japanese Patent Laid-Open Publication No. 2008-219063.

[0016] Модуль 32 позиционного совмещения последовательно вводит данные изображений при виде с высоты птичьего полета, полученные посредством преобразования точки обзора модуля 31 преобразования точки обзора, и сопоставляет с позицией введенных данных изображений при виде с высоты птичьего полета в другое время. Фиг. 4 является видом сверху, показывающим схему процесса модуля 32 позиционного совмещения, показанного на фиг. 3, при этом (a) показывает состояние движения транспортного средства V, а (b) показывает схему позиционного совмещения.[0016] The positional alignment unit 32 sequentially inputs the bird-eye image data obtained by converting the viewpoint of the view-point converting module 31, and compares it with the position of the input image data when the bird's-eye view at another time. FIG. 4 is a plan view showing a process diagram of the position alignment unit 32 shown in FIG. 3, wherein (a) shows the state of movement of the vehicle V, and (b) shows the positional alignment scheme.

[0017] Как показано на фиг. 4(a), транспортное средство V в текущее время позиционируется в V1, и транспортное средство V во время на один период раньше позиционируется в V2. Другое транспортное средство V движется параллельно транспортному средству V в позиции сзади транспортного средства V, другое транспортное средство V в текущее время позиционируется в V3, и другое транспортное средство V во время на один период раньше позиционируется в V4. Кроме того, транспортное средство V перемещается на расстояние d за один момент времени. Термин "время на один период раньше" может означать время в прошлом от текущего времени с длительностью, устанавливаемой заранее (например, один цикл управления), либо он может означать время в прошлом с любой требуемой длительностью.[0017] As shown in FIG. 4 (a), vehicle V is currently positioned in V1, and vehicle V is positioned one time earlier in V2. The other vehicle V moves parallel to the vehicle V in the position behind the vehicle V, the other vehicle V is currently positioned in V3, and the other vehicle V is positioned one time earlier in V4. In addition, the vehicle V travels a distance d at one point in time. The term "time one period earlier" may mean time in the past from the current time with a duration set in advance (for example, one control cycle), or it can mean time in the past with any desired duration.

[0018] В этом состоянии, изображение PBt при виде с высоты птичьего полета в текущее время является таким, как показано на фиг. 4(b). В изображении PBt при виде с высоты птичьего полета белые линии, нарисованные на дороге, являются прямоугольными и находятся в состоянии сравнительно точной видимости сверху. Тем не менее, другое транспортное средство V3 начинает попадать в изображение. Аналогично, в изображении PBt-1 при виде с высоты птичьего полета во время на один период раньше, белые линии, нарисованные на дороге, являются прямоугольными и находятся в состоянии сравнительно точной видимости сверху, но другое транспортное средство V4 начинает попадать в изображение.[0018] In this state, the PB t image in a bird's eye view at the current time is as shown in FIG. 4 (b). In the PB t image, when viewed from a bird's eye view, the white lines drawn on the road are rectangular and are in a relatively accurate state of visibility from above. However, another V3 vehicle begins to hit the image. Similarly, in the PB t-1 image when viewed from a bird's eye view one time earlier, the white lines drawn on the road are rectangular and are in a relatively accurate view from above, but another vehicle V4 starts to get into the image.

[0019] Модуль 32 позиционного совмещения реализует позиционное совмещение изображений PBt, PBt-1 при виде с высоты птичьего полета, описанных выше с точки зрения данных. В это время, модуль 32 позиционного совмещения смещает изображение PBt-1 при виде с высоты птичьего полета во время на один период раньше и вызывает совпадение позиции с изображением PBt при виде с высоты птичьего полета в текущее время. Величина d' смещения является просто величиной, соответствующей проезжаемому расстоянию d, показанному на фиг. 4(a), и определяется на основе сигнала из датчика 20 скорости транспортного средства и длительности от времени на один период раньше до текущего времени.[0019] The positional alignment unit 32 implements the positional alignment of images PB t , PB t-1 in a bird's-eye view described above in terms of data. At this time, the positional alignment module 32 shifts the image PB t-1 when viewed from the bird's eye view one time earlier and causes a coincidence of position with the image PB t when viewed from the bird's eye view at the current time. The offset value d 'is simply a value corresponding to the travel distance d shown in FIG. 4 (a), and is determined based on the signal from the vehicle speed sensor 20 and the duration of the time one period earlier to the current time.

[0020] После позиционного совмещения модуль 32 позиционного совмещения находит разность между изображениями PBt, PBt-1 при виде с высоты птичьего полета и формирует данные разностного изображения PDt. Пикселное значение разностного изображения PDt может составлять абсолютное значение разности в пикселных значениях между изображениями PBt, PBt-1 при виде с высоты птичьего полета, или, чтобы соответствовать изменениям в окружении освещения, оно может составлять "1", когда абсолютное значение превышает предварительно определенное значение, и "0", когда абсолютное значение не превышает предварительно определенное значение.[0020] After positional alignment, the positional alignment module 32 finds the difference between the images PB t , PB t-1 from a bird's-eye view and generates the difference image data PD t . The pixel value of the difference image PD t may be the absolute value of the difference in pixel values between the images PB t , PB t-1 when viewed from a bird's eye view, or, to correspond to changes in the lighting environment, it may be “1” when the absolute value exceeds a predetermined value, and “0” when the absolute value does not exceed a predetermined value.

[0021] Снова обратимся к фиг. 3. Кроме того, компьютер 30 содержит модуль 34 обнаружения поперечной позиции (средство обнаружения поперечной позиции). На основе захваченных данных изображений, захваченных посредством камеры 10, модуль 34 обнаружения поперечной позиции обнаруживает позицию транспортного средства (в частности, боковую поверхность транспортного средства V) в полосе движения, по которой движется транспортное средство V, и расстояние по ширине транспортного средства до разделительной линии, которая разделяет полосу движения. Модуль 34 обнаружения поперечной позиции позволяет компьютеру 30 обнаруживать, к примеру, то движется транспортное средство через центр данной полосы движения или движется ближе к левой или правой стороне.[0021] Referring again to FIG. 3. In addition, the computer 30 includes a transverse position detection module 34 (transverse position detection means). Based on the captured image data captured by the camera 10, the transverse position detection module 34 detects the position of the vehicle (in particular, the side surface of the vehicle V) in the lane along which the vehicle V moves and the distance along the width of the vehicle to the dividing line that shares the lane. The lateral position detection module 34 allows the computer 30 to detect, for example, that the vehicle is moving through the center of a given lane or moving closer to the left or right side.

[0022] Кроме того, модуль 33 обнаружения сплошных объектов обнаруживает сплошные объекты на основе данных разностного изображения PDt, к примеру, показанных на фиг. 4. Модуль 33 обнаружения сплошных объектов содержит модуль 33a формирования форм разностных сигналов (средство формирования форм разностных сигналов) и модуль 33b задания областей (средство задания областей).[0022] Furthermore, the solid object detection unit 33 detects solid objects based on the differential image data PD t , for example, shown in FIG. 4. The solid object detection module 33 comprises a differential signal waveform generating module 33a (differential waveform generating means) and a region defining module 33b (region defining means).

[0023] Фиг. 5 является принципиальной схемой, показывающей способ, которым формируются формы разностных сигналов посредством модуля 33a формирования форм разностных сигналов, показанного на фиг. 3. Модуль 33a формирования форм разностных сигналов формирует форму DWt разностного сигнала из частей в разностном изображении PDt, которые являются эквивалентными областям A1, A2 обнаружения, как показано на фиг. 5. В это время, модуль 33a формирования форм разностных сигналов формирует форму DWt разностного сигнала вдоль направления, в котором сплошной объект попадает в поле зрения, посредством преобразования точки обзора. В примере, показанном на фиг. 5, описание использует только область A1 обнаружения для удобства.[0023] FIG. 5 is a schematic diagram showing a method by which differential waveform forms are generated by the differential waveform generator 33a shown in FIG. 3. The difference waveform generating unit 33a generates the difference waveform DW t from the parts in the difference image PD t that are equivalent to the detection areas A1, A2, as shown in FIG. 5. At this time, the difference waveform generating unit 33a generates the difference waveform DW t along the direction in which the solid object enters the field of view by converting the viewpoint. In the example shown in FIG. 5, the description uses only the detection region A1 for convenience.

[0024] В качестве конкретного описания, сначала модуль 33a формирования форм разностных сигналов задает линию La вдоль направления, в котором сплошной объект попадает в поле зрения в данных формы DWt разностного сигнала. Модуль 33a формирования форм разностных сигналов затем подсчитывает число разностных пикселов DP, представляющих предварительно определенные разности вдоль линии La. Разностные пикселы DP, представляющие предварительно определенные разности в данном документе, являются пикселами, превышающими предварительно определенное значение, когда пикселное значение формы DWt разностного сигнала является абсолютным значением разности между пикселными значениями изображений PBt, PBt-1 при виде с высоты птичьего полета, и разностные пикселы DP являются пикселами, представляющими "1", когда пикселное значение формы DWt разностного сигнала выражается как "0" и "1".[0024] As a specific description, first, the difference waveform generating unit 33a defines a line La along a direction in which a solid object is brought into view in the data of the difference waveform DW t . The difference waveform generating unit 33a then calculates the number of difference pixels DP representing predetermined differences along the line La. The difference pixels DP representing the predefined differences in this document are pixels greater than the predetermined value when the pixel value of the difference waveform DW t is the absolute value of the difference between the pixel values of the images PB t , PB t-1 when viewed from a bird's eye view, and the difference pixels DP are pixels representing “1” when the pixel value of the difference waveform DW t is expressed as “0” and “1”.

[0025] После подсчета числа разностных пикселов DP модуль 33a формирования форм разностных сигналов находит точку CP пересечения линии La и линии L1. Модуль 33a формирования форм разностных сигналов коррелирует точку CP пересечения и подсчитанное число, определяет позицию на горизонтальной оси (позицию на оси сверху вниз на плоскости изображений по фиг. 5) и определяет позицию на вертикальной оси (позицию на оси слева направо на плоскости изображений по фиг. 5) из подсчитанного числа.[0025] After counting the number of difference pixels DP, the difference waveform generating unit 33a finds the intersection point CP of the line La and the line L 1 . The difference waveform generating unit 33a correlates the intersection point CP and the calculated number, determines the position on the horizontal axis (position on the axis from top to bottom on the image plane of FIG. 5) and determines the position on the vertical axis (position on the axis from left to right on the image plane of FIG. 5) from the counted number.

[0026] Модуль 33a формирования форм разностных сигналов продолжает аналогично задавать линию вдоль направления, в котором сплошной объект попадает в поле зрения, подсчитывать число разностных пикселов DP, определять позицию на горизонтальной оси, на основе позиции точки CP пересечения и определять позицию на вертикальной оси из подсчитанного числа (числа разностных пикселов DP). Модуль 33 обнаружения сплошных объектов формирует форму DW разностного сигнала посредством последовательного повторения вышеуказанного процесса и создания частотного распределения.[0026] The difference waveform generating unit 33a likewise continues to define a line along a direction in which a solid object falls into view, count the number of difference pixels DP, determine a position on the horizontal axis based on the position of the intersection point CP, and determine a position on the vertical axis from the counted number (the number of differential pixels DP). The solid object detection unit 33 generates a differential waveform DW by successively repeating the above process and creating a frequency distribution.

[0027] Как показано на фиг. 5, линии La и Lb в направлении попадания в поле зрения сплошного объекта перекрывают область A1 обнаружения в различных расстояниях. Следовательно, при условии, что область A1 обнаружения заполнена разностными пикселами DP, линия La имеет больше разностных пикселов DP, чем линия Lb. Следовательно, при определении позиции на вертикальной оси из подсчитанного числа разностных пикселов DP, модуль 33a формирования форм разностных сигналов нормализует позицию на вертикальной оси на основе расстояния, посредством которого перекрываются линии La, Lb в направлении попадания в поле зрения сплошного объекта и область A1 обнаружения. В качестве конкретного примера, имеется шесть разностных пикселов DP на линии La на фиг. 5, и на линии Lb имеется пять разностных пикселов DP. Следовательно, при определении позиции на вертикальной оси из подсчитанного числа на фиг. 5, модуль 33a формирования форм разностных сигналов нормализует позицию на вертикальной оси посредством способа, к примеру, деления подсчитанного числа на расстояние перекрытия. Значения формы DWt разностного сигнала, которые соответствуют линиям La, Lb в направлении попадания в поле зрения сплошного объекта, в силу этого практически равны, как показано в форме DWt разностного сигнала.[0027] As shown in FIG. 5, the lines La and Lb in the direction of falling into the field of view of a solid object overlap the detection region A1 at various distances. Therefore, provided that the detection region A1 is filled with difference pixels DP, the line La has more difference pixels DP than the line Lb. Therefore, when determining the position on the vertical axis from the counted number of difference pixels DP, the difference waveform generating unit 33a normalizes the position on the vertical axis based on the distance by which the lines La, Lb overlap in the direction of the solid object’s field of view and the detection region A1. As a specific example, there are six difference pixels DP on line La in FIG. 5, and there are five difference DP pixels on the Lb line. Therefore, when determining the position on the vertical axis from the counted number in FIG. 5, the difference waveform generating unit 33a normalizes the position on the vertical axis by a method, for example, dividing the calculated number by the overlap distance. The values of the form DW t of the difference signal, which correspond to the lines La, Lb in the direction of falling into the field of view of a solid object, are therefore practically equal, as shown in the form DW t of the difference signal.

[0028] Когда форма DWt разностного сигнала формируется так, как описано выше, модуль 33 обнаружения сплошных объектов обнаруживает сплошной объект на основе данных формы DWt разностного сигнала. В это время, модуль 34 обнаружения поперечной позиции сначала вычисляет оцененную скорость сплошного объекта посредством корреляции формы DWt-1 разностного сигнала во время на один период раньше и текущей формы DWt разностного сигнала. Когда сплошной объект является другим транспортным средством V, например, форма DW разностного сигнала с большой вероятностью имеет два локальных максимальных значения, поскольку разностные пикселы DP легко получаются в частях шин другого транспортного средства V. Следовательно, относительная скорость другого транспортного средства V относительно транспортного средства V может рассчитываться посредством нахождения несоответствия между локальными максимальными значениями формы DWt-1 разностного сигнала во время на один период раньше и текущей формы DWt разностного сигнала. Модуль 34 обнаружения поперечной позиции в силу этого находит оцененную скорость сплошного объекта. Модуль 34 обнаружения поперечной позиции оценивает то, является или нет сплошной объект сплошным объектом, посредством оценки того, является или нет оцененная скорость сплошного объекта надлежащей скоростью для сплошного объекта.[0028] When the difference waveform DW t is generated as described above, the solid object detection unit 33 detects a solid object based on the data of the difference waveform DW t . At this time, the transverse position detection unit 34 first calculates the estimated speed of the solid object by correlating the difference waveform DW t-1 one time earlier and the current difference waveform DW t . When the solid object is another vehicle V, for example, the difference waveform DW is likely to have two local maximum values, since the difference pixels DP are easily obtained in the tire parts of another vehicle V. Therefore, the relative speed of the other vehicle V relative to the vehicle V can be calculated by finding a mismatch between the local maximum values of the shape of DW t-1 of the difference signal during one period earlier and t The current shape of DW t is the difference signal. The transverse position detection unit 34 therefore finds the estimated speed of the solid object. The transverse position detection unit 34 estimates whether or not the solid object is a solid object by evaluating whether or not the estimated speed of the solid object is the proper speed for the solid object.

[0029] Модуль 33b задания областей задает размеры областей A1, A2 обнаружения, показанных на фиг. 2. Чем больше расстояние по ширине транспортного средства до разделительной линии, обнаруженное посредством модуля 34 обнаружения поперечной позиции, тем дальше наружу в направлении ширины транспортного средства модуль 33b задания областей увеличивает размер области A1 или A2 обнаружения, размещаемой на стороне, на которой находится разделительная линия.[0029] The area defining unit 33b sets the dimensions of the detection areas A1, A2 shown in FIG. 2. The larger the vehicle’s width to the dividing line detected by the lateral position detection unit 34, the further outward in the vehicle width direction, the area defining unit 33b increases the size of the detection area A1 or A2 placed on the side on which the dividing line is located .

[0030] Фиг. 6 является видом сверху, показывающим состояние движения транспортного средства, показанного на фиг. 1, и показывающим пример случая, в котором транспортное средство V движется со смещением от центра в полосе движения. Как показано на фиг. 6, транспортное средство V движется со смещением от центра в полосе движения и движется около разделительной линии слева от транспортного средства (слева с точки зрения водителя).[0030] FIG. 6 is a plan view showing a state of movement of the vehicle shown in FIG. 1, and showing an example of a case in which a vehicle V moves off-center in a lane. As shown in FIG. 6, the vehicle V moves off-center in the lane and moves near the dividing line to the left of the vehicle (left from the point of view of the driver).

[0031] В этом случае, как показано на фиг. 6, когда другое транспортное средство V движется на расстоянии от другой разделительной линии (разделительной линии справа с точки зрения водителя), другое транспортное средство V становится размещенным не в области A1 обнаружения, расположенной справа с точки зрения водителя. Следовательно, в настоящем варианте осуществления, модуль 33b задания областей увеличивает область A1 обнаружения, чтобы не допускать ситуаций, которые вызывают ошибки при обнаружении.[0031] In this case, as shown in FIG. 6, when the other vehicle V moves at a distance from the other dividing line (dividing line to the right from the driver’s point of view), the other V vehicle is not located in the detection area A1 located to the right of the driver’s point of view. Therefore, in the present embodiment, the area setting unit 33b enlarges the detection area A1 so as to prevent situations that cause detection errors.

[0032] Фиг. 7 является видом сверху, показывающим состояние движения транспортного средства, показанного на фиг. 1, и показывающим пример случая, в котором модуль 33b задания областей увеличивает область A1 обнаружения. Область A1 обнаружения увеличивается посредством модуля 33b задания областей, как показано на фиг. 7. Другое транспортное средство V в силу этого становится размещенным в области A1 обнаружения, и могут исключаться ошибки при обнаружении другого транспортного средства V.[0032] FIG. 7 is a plan view showing a state of movement of the vehicle shown in FIG. 1, and showing an example of a case in which the area setting unit 33b enlarges the detection area A1. The detection area A1 is increased by the area setting unit 33b, as shown in FIG. 7. The other vehicle V thereby becomes placed in the detection area A1, and errors in detecting another vehicle V can be ruled out.

[0033] Фиг. 8 является графиком, показывающим взаимосвязь между расстоянием Δy по ширине транспортного средства до разделительной линии и размером области A1 обнаружения (величиной Δy0fs увеличения).[0033] FIG. 8 is a graph showing the relationship between the distance Δy across the width of the vehicle to the dividing line and the size of the detection area A1 (magnitude Δy 0 fs magnification).

[0034] Когда расстояние Δy по ширине транспортного средства до разделительной линии находится между нулем и y1, как показано на фиг. 8, величина увеличения области A1 обнаружения является нулем. Когда расстояние Δy по ширине транспортного средства находится между y1 и y2, величина увеличения области A1 обнаружения возрастает согласно размеру расстояния Δy по ширине транспортного средства. Кроме того, когда расстояние Δy по ширине транспортного средства превышает y2, величина увеличения области A1 обнаружения фиксируется на y0fs'. Таким образом, причина, по которой величина увеличения области A1 обнаружения фиксируется на конкретном значении y0fs', состоит в том, что когда область A1 обнаружения увеличивается без ограничений, имеется вероятность того, что область A1 обнаружения охватывает не только смежную полосу движения, но также и последующие полосы движения.[0034] When the distance Δy across the width of the vehicle to the dividing line is between zero and y 1 , as shown in FIG. 8, the magnification of the detection region A1 is zero. When the distance Δy across the width of the vehicle is between y 1 and y 2 , the magnitude of the increase of the detection area A1 increases according to the size of the distance Δy across the width of the vehicle. Furthermore, when the vehicle width Δy exceeds y 2 , the magnification of the detection area A1 is fixed at y 0 fs'. Thus, the reason that the magnitude of the increase in the detection region A1 is fixed to a particular value y 0 fs' is because when the detection region A1 increases without limitation, it is possible that the detection region A1 covers not only an adjacent lane, but also subsequent lanes.

[0035] На фиг. 8, величина увеличения области A1 обнаружения сравнительно увеличивается в интервале расстояния Δy по ширине транспортного средства между y1 и y2, но это увеличение не ограничено конкретным образом пропорциональным увеличением и может быть экспоненциальным увеличением и т.п. Как очевидно из фиг. 8, когда расстояние Δy по ширине транспортного средства до разделительной линии является небольшим, область A1 обнаружения, которая увеличена, затем сужается.[0035] FIG. 8, the magnitude of the increase in the detection region A1 is comparatively increased in the interval of the vehicle width Δy between y 1 and y 2 , but this increase is not specifically limited to a proportional increase and may be an exponential increase and the like. As is apparent from FIG. 8, when the distance Δy across the vehicle width to the dividing line is small, the detection area A1, which is enlarged, then narrows.

[0036] Вышеприведенное описание использует только область A1 обнаружения, но оно применимо также к области A2 обнаружения. В примере, показанном на фиг. 8, область A1 обнаружения увеличивается на основе расстояния Δy по ширине транспортного средства от правой боковой поверхности транспортного средства (правой боковой поверхности с точки зрения водителя) до разделительной линии справа, но когда размер области A2 обнаружения варьируется, разумеется, область обнаружения определяется на основе расстояния Δy по ширине транспортного средства от левой боковой поверхности транспортного средства (левой боковой поверхности с точки зрения водителя) до разделительной линии слева.[0036] The above description uses only the detection region A1, but it also applies to the detection region A2. In the example shown in FIG. 8, the detection region A1 increases based on the vehicle width Δy from the right side surface of the vehicle (right side surface from the driver’s point of view) to the dividing line on the right, but when the size of the detection region A2 varies, of course, the detection region is determined based on the distance Δy across the width of the vehicle from the left side of the vehicle (left side from the driver’s point of view) to the dividing line on the left.

[0037] Кроме того, модуль 33b задания областей выполнен с возможностью несущественно варьировать области A1, A2 обнаружения. Это обусловлено тем, что когда области A1, A2 обнаружения существенно варьируются, обнаружение сплошных объектов становится нестабильным, и имеется вероятность того, что это приводит к ошибкам при обнаружении сплошных объектов.[0037] In addition, the area defining unit 33b is configured to insignificantly vary the detection areas A1, A2. This is because when the detection areas A1, A2 vary significantly, the detection of solid objects becomes unstable, and there is a possibility that this leads to errors in the detection of solid objects.

[0038] В частности, модуль 33b задания областей спроектирован таким образом, что величина варьирования, когда области A1, A2 обнаружения варьируются, не превышает предельное значение (предписанное значение увеличения или предписанное значение). В качестве более конкретного описания, модуль 33b задания областей находит целевое значение для размеров областей A1, A2 обнаружения на основе графика, показанного на фиг. 8. Модуль 33b задания областей затем последовательно приближает размеры областей A1, A2 ближе к целевому значению в пределах диапазона, который не превышает предельное значение.[0038] In particular, the area setting unit 33b is designed so that the variation amount when the detection areas A1, A2 are varied does not exceed a limit value (a prescribed magnification value or a prescribed value). As a more specific description, the area setting module 33b finds a target value for the sizes of the detection areas A1, A2 based on the graph shown in FIG. 8. The area setting module 33b then sequentially approximates the sizes of areas A1, A2 closer to the target value within a range that does not exceed the limit value.

[0039] Предельное значение увеличения (предписанное значение увеличения), которое является предельным значением, когда области A1, A2 обнаружения увеличиваются, задается меньше предельного значения сужения (предписанного значения), которое является предельным значением, когда области A1, A2 обнаружения сужаются. Области A1, A2 обнаружения при сужении за счет этого не сужаются существенно, и можно не допускать ситуаций, в которых другое транспортное средство V выходит из областей A1, A2 обнаружения и не может быть обнаружено вследствие существенно суженных областей A1, A2 обнаружения.[0039] The magnification limit value (prescribed magnification value), which is the limiting value when the detection areas A1, A2 are increased, is set less than the narrowing limit value (prescribed value), which is the limiting value when the detection areas A1, A2 are narrowed. The narrowing detection regions A1, A2 due to this are not substantially narrowed, and situations in which another vehicle V leaves the detection regions A1, A2 and cannot be detected due to substantially narrowed detection regions A1, A2 can be avoided.

[0040] Модуль 33b задания областей уменьшает предельное значение таким образом, что оно меньше тогда, когда сплошной объект обнаруживается, чем тогда, когда сплошной объект не обнаруживается. Это обусловлено тем, что можно не допускать ситуаций, в которых обнаруживаемое другое транспортное средство V выходит из областей A1, A2 обнаружения и не может быть обнаружено вследствие существенно суженных областей A1, A2 обнаружения.[0040] The area defining unit 33b reduces the limit value so that it is smaller when a solid object is detected than when a solid object is not detected. This is because it is possible to prevent situations in which a detectable other vehicle V exits the detection regions A1, A2 and cannot be detected due to substantially narrowed detection regions A1, A2.

[0041] Далее описывается способ обнаружения сплошных объектов согласно настоящему варианту осуществления. Фиг. 9 является блок-схемой последовательности операций способа, показывающей способ обнаружения сплошных объектов согласно настоящему варианту осуществления.[0041] The following describes a method for detecting solid objects according to the present embodiment. FIG. 9 is a flowchart showing a method for detecting solid objects according to the present embodiment.

[0042] Во-первых, как показано на фиг. 9, модуль 34 обнаружения поперечной позиции обнаруживает расстояние Δy по ширине транспортного средства между боковой поверхностью транспортного средства V и разделительной линией (S1). В это время, модуль 34 обнаружения поперечной позиции обнаруживает расстояние Δy по ширине транспортного средства на основе данных изображений, захваченных посредством камеры 10. В настоящем варианте осуществления, поскольку области A1, A2 обнаружения задаются сзади слева и справа от транспортного средства V, модуль 34 обнаружения поперечной позиции обнаруживает расстояние Δy по ширине транспортного средства как между левой и правой боковыми поверхностями транспортного средства V, так и между левой и правой разделительными линиями. Для удобства в нижеприведенном описании, описание использует только одну область A1 обнаружения в качестве примера, но оно применимо также к другой области A2 обнаружения.[0042] First, as shown in FIG. 9, the transverse position detection unit 34 detects a distance Δy along the width of the vehicle between the side surface of the vehicle V and the dividing line (S1). At this time, the transverse position detection unit 34 detects a distance Δy along the vehicle width based on image data captured by the camera 10. In the present embodiment, since the detection areas A1, A2 are defined in the rear left and right of the vehicle V, the detection unit 34 transverse position detects the distance Δy across the width of the vehicle between the left and right side surfaces of the vehicle V, and between the left and right dividing lines. For convenience, in the description below, the description uses only one detection area A1 as an example, but it also applies to another detection area A2.

[0043] Затем, модуль 33b задания областей задает целевое значение области A1 обнаружения (S2). В это время, модуль 33b задания областей задает целевое значение на основе данных графика, описанных со ссылкой на фиг. 8. Затем, модуль 33 обнаружения сплошных объектов оценивает то, осуществляется или нет обнаружение сплошных объектов в данный момент (S3).[0043] Then, the area setting unit 33b sets the target value of the detection area A1 (S2). At this time, the area setting module 33b sets a target value based on the graph data described with reference to FIG. 8. Then, the solid object detection unit 33 evaluates whether or not solid object detection is currently being performed (S3).

[0044] Когда оценено, что обнаружение сплошных объектов осуществляется (S3: "Да"), модуль 33b задания областей задает предельное значение, которое является верхним пределом величины варьирования области A1 обнаружения, в качестве первого предельного значения (S4). Процесс затем переходит к этапу S6. Когда оценено, что обнаружение сплошных объектов не осуществляется (S3: "Нет"), модуль 33b задания областей задает предельное значение, которое является верхним пределом величины варьирования области A1 обнаружения, в качестве второго предельного значения (S5). Процесс затем переходит к этапу S6. Первое предельное значение в данном документе меньше второго предельного значения. Следовательно, существенные изменения в области A1 обнаружения дополнительно не допускаются в ходе обнаружения сплошных объектов.[0044] When it is estimated that the detection of solid objects is carried out (S3: “Yes”), the area setting unit 33b sets the limit value, which is the upper limit of the variation amount of the detection area A1, as the first limit value (S4). The process then proceeds to step S6. When it is judged that solid objects are not detected (S3: “No”), the area setting unit 33b sets the limit value, which is the upper limit of the variation amount of the detection area A1, as the second limit value (S5). The process then proceeds to step S6. The first limit value in this document is less than the second limit value. Therefore, significant changes in the detection area A1 are additionally not allowed during the detection of solid objects.

[0045] На этапе S6 модуль 33 обнаружения сплошных объектов оценивает то, сужается или нет область A1 обнаружения, на основе целевого значения, рассчитанного на этапе S2 (S6). Когда оценено, что область A1 обнаружения сужается (S6: "Да"), модуль 33b задания областей понижает предельное значение, заданное на этапах S4 и S5 (S7). Существенные изменения в области A1 обнаружения за счет этого могут дополнительно подавляться, когда область A1 обнаружения сужается. Процесс затем переходит к этапу S8. Когда оценено, что область A1 обнаружения не сужается (S6: "Нет"), т.е. когда область A1 обнаружения увеличивается, модуль 33b задания областей не понижает предельное значение, заданное на этапах S4 и S5, и процесс переходит к этапу S8.[0045] In step S6, the solid object detection unit 33 judges whether or not the detection area A1 is narrowed based on the target value calculated in step S2 (S6). When it is estimated that the detection area A1 is narrowed (S6: “Yes”), the area setting unit 33b lowers the limit value set in steps S4 and S5 (S7). Significant changes in the detection region A1 can thereby be further suppressed when the detection region A1 narrows. The process then proceeds to step S8. When it is estimated that the detection area A1 is not narrowed (S6: “No”), i.e. when the detection area A1 increases, the area setting unit 33b does not lower the limit value set in steps S4 and S5, and the process proceeds to step S8.

[0046] На этапе S8 модуль 33b задания областей изменяет размер области A1 обнаружения (S8). В это время, модуль 33b задания областей увеличивает или сужает размер области A1 обнаружения в пределах диапазона, который не превышает предельное значение, полученное через процесс, описанный выше.[0046] In step S8, the area defining unit 33b resizes the detection area A1 (S8). At this time, the area specifying unit 33b increases or narrows the size of the detection area A1 within a range that does not exceed the limit value obtained through the process described above.

[0047] Затем, компьютер 30 обнаруживает скорость транспортного средства на основе сигнала из датчика 20 скорости транспортного средства (S9). Затем, модуль 32 позиционного совмещения обнаруживает разность (S10). В это время, модуль 32 позиционного совмещения формирует данные разностного изображения PDt, как описано со ссылкой на фиг. 4.[0047] Then, the computer 30 detects the vehicle speed based on a signal from the vehicle speed sensor 20 (S9). Then, the positional alignment unit 32 detects the difference (S10). At this time, the positional alignment unit 32 generates the differential image data PD t , as described with reference to FIG. four.

[0048] Затем, модуль 33a формирования форм разностных сигналов формирует форму DW разностного сигнала (S11) способом, описанным со ссылкой на фиг. 5, на основе разностного изображения PDt, сформированного на этапе S10. Модуль 33 обнаружения сплошных объектов затем вычисляет оцененную скорость сплошного объекта (S12) посредством корреляции формы DWt-1 разностного сигнала во время на один период раньше и текущей формы DWt разностного сигнала.[0048] Then, the difference waveform generating unit 33a generates the difference waveform DW (S11) in the manner described with reference to FIG. 5, based on the differential image PD t generated in step S10. The solid object detection unit 33 then calculates the estimated speed of the solid object (S12) by correlating the difference waveform DW t-1 one time earlier and the current difference waveform DW t .

[0049] Модуль 33 обнаружения сплошных объектов затем оценивает то, является или нет оцененная скорость, вычисленная на этапе S12, целью обнаружения (S13). В настоящем варианте осуществления, устройство 1 обнаружения сплошных объектов обнаруживает другое транспортное средство, двухколесное транспортное средство и т.п., которое имеет вероятность контакта во время смены полосы движения. Следовательно, модуль 33 обнаружения сплошных объектов оценивает то, является или нет оцененная скорость подходящей в качестве скорости для другого транспортного средства, двухколесного транспортного средства и т.п., на этапе S13.[0049] The solid object detection module 33 then evaluates whether or not the estimated speed calculated in step S12 is a detection target (S13). In the present embodiment, the solid object detection device 1 detects another vehicle, a two-wheeled vehicle and the like, which has a likelihood of contact during a lane change. Therefore, the solid object detection unit 33 judges whether or not the estimated speed is suitable as a speed for another vehicle, a two-wheeled vehicle, and the like, in step S13.

[0050] Когда оценено, что оцененная скорость является надлежащей в качестве скорости другого транспортного средства, двухколесного транспортного средства и т.п. (S13: "Да"), модуль 33 обнаружения сплошных объектов оценивает то, что сплошной объект, указываемый посредством формы DWt разностного сигнала, является сплошным объектом (другим транспортным средством, двухколесным транспортным средством и т.п.), который может быть целью обнаружения (S14). После этого, процесс, показанный на фиг. 9, завершается. Когда оценено, что оцененная скорость не является надлежащей в качестве скорости другого транспортного средства, двухколесного транспортного средства и т.п. (S13: "Нет"), модуль 33 обнаружения сплошных объектов оценивает то, что сплошной объект, указываемый посредством формы DWt разностного сигнала, не является сплошным объектом, который может быть целью обнаружения, и процесс, показанный на фиг. 9, завершается.[0050] When it is estimated that the estimated speed is appropriate as the speed of another vehicle, a two-wheeled vehicle, and the like. (S13: “Yes”), the solid object detection unit 33 judges that the solid object indicated by the difference waveform DW t is a solid object (another vehicle, a two-wheeled vehicle, and the like), which may be a target detection (S14). After that, the process shown in FIG. 9 is completed. When it is estimated that the estimated speed is not appropriate as the speed of another vehicle, two-wheeled vehicle, and the like. (S13: “No”), the solid object detecting unit 33 judges that the solid object indicated by the difference waveform DW t is not a solid object that may be a detection target, and the process shown in FIG. 9 is completed.

[0051] Таким образом, согласно устройству 1 обнаружения сплошных объектов и способу обнаружения сплошных объектов согласно настоящему варианту осуществления, чем больше расстояние Δy по ширине транспортного средства между позицией транспортного средства и разделительной линией, тем дальше наружу в направлении ширины транспортного средства находится область A1 или A2 обнаружения, размещаемая на стороне, на которой находится разделительная линия; поэтому, можно не допускать ситуаций, в которых вследствие отделения транспортного средства V от разделительной линии, например, область A1 или A2 обнаружения не задается надлежащим образом для смежного транспортного средства, и сплошной объект, такой как другое транспортное средство, находится за пределами области A1 или A2 обнаружения, и этот объект не может обнаруживаться. Следовательно, может повышаться точность обнаружения сплошных объектов.[0051] Thus, according to the solid object detection device 1 and the solid object detection method according to the present embodiment, the larger the vehicle width Δy between the vehicle position and the dividing line, the further the region A1 is located outward in the vehicle width direction, or A2 detection, placed on the side on which the dividing line is located; therefore, it is possible to prevent situations in which, due to the separation of the vehicle V from the dividing line, for example, the detection area A1 or A2 is not set appropriately for the adjacent vehicle, and a solid object such as another vehicle is outside the area A1 or A2 detection, and this object cannot be detected. Therefore, the accuracy of detecting solid objects can be improved.

[0052] Размеры областей A1, A2 обнаружения увеличиваются на предельное значение увеличения, и увеличенные области A1, A2 обнаружения затем сужаются внутрь в направлении ширины транспортного средства на предельное значение сужения, меньшее предельного значения увеличения; поэтому, когда области A1, A2 обнаружения сужаются, можно не допускать существенного изменения областей A1, A2 обнаружения, и дополнительно могут не допускаться, к примеру, такие ситуации, которые вызывают ошибки при обнаружении.[0052] The sizes of the detection regions A1, A2 are increased by the limit magnification value, and the enlarged detection regions A1, A2 are then tapering inward in the vehicle width direction by a narrowing limit value smaller than the limiting magnification value; therefore, when the detection areas A1, A2 are narrowed, it is possible to prevent a substantial change in the detection areas A1, A2, and additionally, for example, situations that cause detection errors can be prevented.

[0053] Когда сплошной объект обнаруживается, предельное значение уменьшается до значения меньше, чем тогда, когда сплошной объект не обнаруживается. В частности, поскольку предельное значение сужения уменьшается до значения, меньшего предельного значения увеличения, можно не допускать, к примеру, таких ситуаций, когда размеры областей A1, A2 обнаружения существенно сужаются в ходе обнаружения сплошных объектов, и области A1, A2 обнаружения чрезвычайно сужаются, вызывая ошибки при обнаружении.[0053] When a solid object is detected, the limit value is reduced to a value less than when a solid object is not detected. In particular, since the limiting value of the narrowing is reduced to a value lower than the limiting value of the increase, it is possible to avoid, for example, situations where the dimensions of the detection areas A1, A2 are substantially narrowed during the detection of solid objects, and the detection areas A1, A2 are extremely narrowed, causing errors in detection.

[0054] Второй вариант осуществления[0054] Second Embodiment

Далее описывается второй вариант осуществления настоящего изобретения. Устройство обнаружения сплошных объектов и способ обнаружения сплошных объектов согласно второму варианту осуществления являются аналогичными устройству обнаружения сплошных объектов и способу обнаружения сплошных объектов по первому варианту осуществления, но конфигурации и детали обработки частично отличаются. Ниже описываются точки расхождения с первым вариантом осуществления.The following describes a second embodiment of the present invention. The solid object detection device and the solid object detection method according to the second embodiment are similar to the solid object detection device and the solid object detection method of the first embodiment, but the configuration and processing details are partially different. The points of discrepancy with the first embodiment are described below.

[0055] Фиг. 10 является блок-схемой, показывающей подробности компьютера 30 согласно второму варианту осуществления. На фиг. 10, камера 10 и датчик 20 скорости транспортного средства также показаны для того, чтобы предоставлять понятную иллюстрацию взаимных соединений.[0055] FIG. 10 is a block diagram showing details of a computer 30 according to a second embodiment. In FIG. 10, a camera 10 and a vehicle speed sensor 20 are also shown in order to provide a clear illustration of the interconnections.

[0056] Компьютер 30 согласно второму варианту осуществления содержит модуль 35 обнаружения ширины полос движения (средство обнаружения ширины), как показано на фиг. 10. Модуль 35 обнаружения ширины полос движения обнаруживает ширину полосы движения для данной полосы движения. Модуль 35 обнаружения ширины полос движения обнаруживает ширину полосы движения данной дороги на основе захваченных данных изображений, снятых посредством камеры 10. Модуль 35 обнаружения ширины полос движения также может обнаруживать ширину полосы движения для смежной полосы движения и использовать эту ширину в качестве ширины полосы движения для данной полосы движения. Это обусловлено тем, что ширины полосы движения по существу являются одинаковыми для дороги.[0056] The computer 30 according to the second embodiment comprises a lane width detection module 35 (width detection means), as shown in FIG. 10. The lane width detection module 35 detects a lane width for a given lane. Lane width detection module 35 detects a lane width of a given road based on captured image data captured by camera 10. Lane width detection module 35 can also detect lane width for an adjacent lane and use this width as the lane width for a given lanes. This is because the lane widths are essentially the same for the road.

[0057] Состояние движения транспортного средства, когда ширина полосы движения является небольшой, описано в данном документе со ссылкой на фиг. 11. Фиг. 11 является видом сверху, показывающим состояние движения транспортного средства, когда ширина полосы движения является небольшой, и показывает пример случая, в котором модуль 33b задания областей увеличивает область A1 обнаружения. Когда ширина полосы движения является небольшой, и область A1 обнаружения увеличивается идентично первому варианту осуществления, возникают случаи, в которых другое транспортное средство V в смежной полосе движения входит в область A1 обнаружения, как показано на фиг. 11. Когда обнаружение сплошных объектов выполняется на основе такой области A1 обнаружения, точность обнаружения сплошных объектов снижается. То же применимо к области A2 обнаружения.[0057] The state of movement of the vehicle when the lane width is small is described herein with reference to FIG. 11. FIG. 11 is a plan view showing a state of movement of the vehicle when the lane width is small, and shows an example of a case in which the area setting unit 33b enlarges the detection region A1. When the lane width is small and the detection region A1 increases identically to the first embodiment, there are cases in which another vehicle V in the adjacent lane enters the detection region A1, as shown in FIG. 11. When the detection of solid objects is performed based on such a detection area A1, the detection accuracy of solid objects is reduced. The same applies to detection area A2.

[0058] Во втором варианте осуществления, чем меньше ширина полосы движения, обнаруженная посредством модуля 35 обнаружения ширины полос движения, тем меньшей модуль 33b задания областей задает величину увеличения при увеличении размеров областей A1, A2 обнаружения наружу в направлении ширины транспортного средства.[0058] In the second embodiment, the smaller the lane width detected by the lane width detection unit 35, the smaller the area setting unit 33b sets an increase amount when increasing the sizes of the outward detection areas A1, A2 in the vehicle width direction.

[0059] Фиг. 12 является графиком, показывающим взаимосвязь между расстоянием Δy по ширине транспортного средства до разделительной линии и размером (величиной Δy0fs увеличения) области A1 обнаружения во втором варианте осуществления.[0059] FIG. 12 is a graph showing the relationship between the vehicle width Δy across the dividing line and the size (magnitude Δy 0 fs magnification) of the detection area A1 in the second embodiment.

[0060] Когда расстояние Δy по ширине транспортного средства находится между y1 и y2, величина увеличения области A1 обнаружения увеличивается согласно размеру расстояния Δy по ширине транспортного средства, как показано на фиг. 12, но величина увеличения является меньшей в примере, показанном на фиг. 8. В частности, модуль 33b задания областей согласно второму варианту осуществления спроектирован с возможностью не допускать слишком сильного увеличения области A1 обнаружения посредством уменьшения величины увеличения при увеличении областей A1, A2 обнаружения. Это не допускает задание области A1 обнаружения в последующих полосах движения и снижение точности обнаружения сплошных объектов.[0060] When the distance Δy across the width of the vehicle is between y 1 and y 2 , the magnitude of the increase in the detection area A1 increases according to the size of the distance Δy across the width of the vehicle, as shown in FIG. 12, but the magnification is smaller in the example shown in FIG. 8. In particular, the area defining unit 33b according to the second embodiment is designed to prevent a too large increase in the detection region A1 by decreasing the magnitude of the increase with the increase in the detection regions A1, A2. This does not allow setting the detection area A1 in subsequent lanes and reducing the accuracy of detection of solid objects.

[0061] Во втором варианте осуществления, максимальный предел y0fs' предпочтительно уменьшается до значения, меньшего, чем в примере, показанном на фиг. 8. Это обусловлено тем, что за счет этого можно дополнительно не допускать задания области A1 обнаружения в последующих полосах движения.[0061] In the second embodiment, the maximum limit y 0 fs' is preferably reduced to a value smaller than in the example shown in FIG. 8. This is due to the fact that due to this, it is possible to additionally prevent the detection area A1 from being set in subsequent lanes.

[0062] Далее описывается способ обнаружения сплошных объектов согласно второму варианту осуществления. Фиг. 13 и 14 являются блок-схемами последовательности операций способа, показывающими способ обнаружения сплошных объектов согласно второму варианту осуществления.[0062] The following describes a method for detecting solid objects according to a second embodiment. FIG. 13 and 14 are flowcharts showing a method for detecting solid objects according to a second embodiment.

[0063] Во-первых, модуль 35 обнаружения ширины полос движения обнаруживает ширину полосы движения для данной полосы движения на основе данных изображений, захваченных посредством камеры 10 (S21). Модуль 33b задания областей затем задает величину увеличения (S22). В частности, чем меньше ширина полосы движения, тем больше модуль 33b задания областей уменьшает величину увеличения согласно расстоянию Δy по ширине транспортного средства, как показано на фиг. 12. В этом процессе модуль 33b задания областей также предпочтительно уменьшает максимальный предел y0fs'.[0063] First, the lane width detection module 35 detects a lane width for a given lane based on image data captured by the camera 10 (S21). The area setting unit 33b then sets the magnification amount (S22). In particular, the smaller the lane width, the greater the area setting module 33b reduces the magnitude of the increase according to the vehicle width Δy, as shown in FIG. 12. In this process, the area defining unit 33b also preferably reduces the maximum limit y 0 fs'.

[0064] На этапах S23-S36, выполняется процесс, идентичный процессу на этапах S1-S14, показанному на фиг. 9.[0064] In steps S23-S36, a process identical to the process in steps S1-S14 shown in FIG. 9.

[0065] Таким образом, согласно устройству 2 обнаружения сплошных объектов и способу обнаружения сплошных объектов согласно второму варианту осуществления, может повышаться точность обнаружения сплошных объектов, и (дополнительно) могут не допускаться, к примеру, такие ситуации, которые вызывают ошибки при обнаружении сплошных объектов, аналогично первому варианту осуществления. Также можно не допускать, к примеру, таких ситуаций, в которых области A1, A2 обнаружения чрезвычайно сужаются, вызывая ошибки при обнаружении.[0065] Thus, according to the solid object detection device 2 and the solid object detection method according to the second embodiment, the accuracy of detecting solid objects can be increased, and (additionally) situations, for example, that cause errors when detecting solid objects, can be prevented. , similar to the first embodiment. It is also possible to avoid, for example, situations in which the detection areas A1, A2 are extremely narrow, causing detection errors.

[0066] Согласно второму варианту осуществления, чем меньше ширина полосы движения для данной полосы движения, тем меньше величина увеличения, когда размеры областей A1, A2 обнаружения увеличиваются. Следовательно, в случаях, в которых ширина полосы движения является небольшой, можно не допускать ситуаций, в которых области A1, A2 обнаружения задаются не в смежной полосе движения, а в последующей полосе движения.[0066] According to the second embodiment, the smaller the lane width for a given lane, the smaller the magnitude of the increase when the sizes of the detection areas A1, A2 increase. Therefore, in cases in which the lane width is small, it is possible not to allow situations in which the detection areas A1, A2 are set not in an adjacent lane, but in a subsequent lane.

[0067] Третий вариант осуществления[0067] Third Embodiment

Далее описывается третий вариант осуществления изобретения. Устройство обнаружения сплошных объектов и способ обнаружения сплошных объектов согласно третьему варианту осуществления являются аналогичными устройству обнаружения сплошных объектов и способу обнаружения сплошных объектов по первому варианту осуществления, но конфигурации и детали обработки частично отличаются. Ниже описываются точки расхождения с первым вариантом осуществления.The following describes a third embodiment of the invention. The solid object detection device and the solid object detection method according to the third embodiment are similar to the solid object detection device and the solid object detection method of the first embodiment, but the configuration and processing details are partially different. The points of discrepancy with the first embodiment are described below.

[0068] Фиг. 15 является блок-схемой, показывающей подробности компьютера 30 согласно третьему варианту осуществления. На фиг. 15, камера 10 и датчик 20 скорости транспортного средства также показаны для того, чтобы предоставлять понятную иллюстрацию взаимных соединений.[0068] FIG. 15 is a block diagram showing details of a computer 30 according to a third embodiment. In FIG. 15, a camera 10 and a vehicle speed sensor 20 are also shown in order to provide a clear illustration of the interconnections.

[0069] Компьютер 30 согласно третьему варианту осуществления содержит модуль 36 обнаружения смены полосы движения (средство обнаружения варьирования полосы движения), как показано на фиг. 15. Модуль 36 обнаружения смены полосы движения обнаруживает смены полосы движения посредством транспортного средства V, вычисляет величину близости к разделительной линии на основе данных изображений, полученных, например, посредством захвата изображений, выполняемого посредством камеры 10, и оценивает то, сменяет или нет транспортное средство V полосу движения. Модуль 36 обнаружения смены полосы движения не ограничивается вышеуказанным процессом и может оценивать смены полосы движения из величины руления или посредством некоторого другого способа.[0069] The computer 30 according to the third embodiment comprises a lane change detection module 36 (lane variation detection means), as shown in FIG. 15. The lane change detection module 36 detects lane changes by the vehicle V, calculates the proximity value to the dividing line based on image data obtained, for example, by capturing images performed by the camera 10, and estimates whether or not the vehicle is being replaced V lane. The lane change detection module 36 is not limited to the above process and can estimate lane changes from the amount of taxiing or by some other method.

[0070] В частности, модуль 36 обнаружения смены полосы движения обнаруживает то, что транспортное средство V сменяет полосу движения, когда боковая поверхность транспортного средства V находится в пределах предварительно определенного расстояния (например, 10 см) от разделительной линии. Модуль 36 обнаружения смены полосы движения также может быть спроектирован с возможностью обнаруживать то, что транспортное средство V не сменяет полосу движения, когда боковая поверхность транспортного средства находится в пределах предварительно определенного расстояния от разделительной линии, но, с другой стороны, отделена от разделительной линии, по меньшей мере, на предварительно определенное расстояние. Кроме того, модуль 36 обнаружения смены полосы движения может оценивать то, что смена полосы движения закончена, когда транспортное средство отделено от разделительной линии, по меньшей мере, на предварительно определенное расстояние после смены полосы движения (т.е. когда транспортное средство отделено от разделительной линии, по меньшей мере, на предварительно определенное расстояние после пересечения разделительной линии посредством смены полосы движения).[0070] In particular, the lane change detection module 36 detects that the vehicle V changes the lane when the side surface of the vehicle V is within a predetermined distance (eg, 10 cm) from the dividing line. The lane change detection module 36 may also be designed to detect that the vehicle V does not change the lane when the side surface of the vehicle is within a predetermined distance from the dividing line, but, on the other hand, is separated from the dividing line, at least a predetermined distance. In addition, the lane change detection module 36 may evaluate that the lane change is completed when the vehicle is separated from the dividing line by at least a predetermined distance after the lane change (i.e., when the vehicle is separated from the dividing line lines at least a predetermined distance after crossing the dividing line by changing the lane).

[0071] Способ, которым транспортное средство сменяет полосу движения, описывается со ссылкой на фиг. 16. Фиг. 16 является видом сверху, показывающим данную полосу движения транспортного средства, когда транспортное средство сменяет полосу движения. Как показано на фиг. 16, транспортное средство V позиционируется в центре полосы движения (см. символ Va), и транспортное средство затем сменяет полосу движения и достигает позиции Vb. В это время, расстояние Δy по ширине транспортного средства между боковой поверхностью транспортного средства V и разделительной линией временно является большим. Следовательно, область A1 обнаружения увеличивается, и имеется вероятность вхождения другого транспортного средства V в последующей полосе движения в область A1 обнаружения. В таких случаях, точность обнаружения сплошных объектов уменьшается.[0071] The manner in which a vehicle changes lane is described with reference to FIG. 16. FIG. 16 is a plan view showing a given lane of a vehicle when a vehicle changes lane. As shown in FIG. 16, vehicle V is positioned at the center of the lane (see symbol Va), and the vehicle then changes lane and reaches position Vb. At this time, the vehicle width Δy between the side surface of the vehicle V and the dividing line is temporarily large. Therefore, the detection region A1 is increased, and there is a chance that another vehicle V will enter the subsequent lane in the detection region A1. In such cases, the detection accuracy of solid objects is reduced.

[0072] С учетом этого, в третьем варианте осуществления, когда смена полосы движения, выполняемая транспортным средством V, обнаруживается посредством модуля 36 обнаружения смены полосы движения в течение определенной длительности, модуль 33b задания областей уменьшает величину увеличения, когда размеры областей A1, A2 обнаружения увеличиваются. В частности, когда смена полосы движения, выполняемая транспортным средством V, обнаруживается посредством модуля 36 обнаружения смены полосы движения в течение определенной длительности, модуль 33b задания областей уменьшает величину Δy0fs увеличения области A1 или A2 обнаружения относительно расстояния Δy по ширине транспортного средства между боковой поверхностью транспортного средства V, показанного на фиг. 16, и разделительной линией. В частности, в течение определенной длительности, когда обнаруживается смена полосы движения, выполняемая транспортным средством V, модуль 33b задания областей уменьшает величину Δy0fs увеличения области A1 или A2 обнаружения относительно расстояния Δy по ширине транспортного средства между боковой поверхностью транспортного средства V и разделительной линией таким образом, что она меньше, чем до смены полосы движения, как показано на фиг. 17. За счет этого можно не допускать ситуаций, в которых область A1 или A2 обнаружения временно увеличивается слишком существенно во время смены полосы движения. Фиг. 17 является графиком, показывающим взаимосвязь между расстоянием по ширине транспортного средства и размером области обнаружения (величиной Δy0fs увеличения) в третьем варианте осуществления.[0072] With this in mind, in the third embodiment, when the lane change performed by the vehicle V is detected by the lane change detection unit 36 for a certain duration, the area setting unit 33b decreases the magnification amount when the sizes of the detection areas A1, A2 are increasing. In particular, when the lane change performed by the vehicle V is detected by the lane change detection unit 36 for a certain duration, the area setting unit 33b reduces the magnitude Δy 0 fs of the increase in the detection area A1 or A2 with respect to the vehicle Δy across the vehicle width between the side the surface of the vehicle V shown in FIG. 16, and a dividing line. In particular, for a certain duration, when a lane change performed by the vehicle V is detected, the area setting module 33b decreases the magnitude Δy 0 fs of the increase in the detection area A1 or A2 with respect to the distance Δy along the vehicle width between the side surface of the vehicle V and the dividing line so that it is less than before changing the lane, as shown in FIG. 17. Due to this, it is possible to prevent situations in which the detection area A1 or A2 temporarily increases too much during a lane change. FIG. 17 is a graph showing the relationship between the vehicle-wide distance and the size of the detection area (magnitude Δy 0 fs magnification) in the third embodiment.

[0073] Далее описывается способ обнаружения сплошных объектов согласно третьему варианту осуществления. Фиг. 18 и 19 являются блок-схемами последовательности операций способа, показывающими способ обнаружения сплошных объектов согласно третьему варианту осуществления.[0073] The following describes a method for detecting solid objects according to a third embodiment. FIG. 18 and 19 are flowcharts showing a method for detecting solid objects according to a third embodiment.

[0074] Во-первых, на основе данных изображений, захваченных посредством камеры 10, модуль 36 обнаружения смены полосы движения вычисляет величину близости к разделительной линии и оценивает то, сменяет или нет транспортное средство V полосу движения (S41). Когда оценено, что транспортное средство V не сменяет полосу движения (S41: "Нет"), процесс переходит к этапу S43. Когда оценено, что транспортное средство V сменяет полосу движения (S41: "Да"), модуль 33b задания областей задает величину увеличения (S42). В частности, модуль 33b задания областей уменьшает величину увеличения согласно расстоянию Δy по ширине транспортного средства, как показано на фиг. 17. В этом процессе модуль 33b задания областей также предпочтительно уменьшает максимальный предел y0fs'.[0074] First, based on image data captured by the camera 10, the lane change detection unit 36 calculates a proximity value to a dividing line and judges whether or not the vehicle V is changing the lane (S41). When it is estimated that the vehicle V is not changing lane (S41: “No”), the process proceeds to step S43. When it is estimated that the vehicle V is changing lane (S41: “Yes”), the area setting unit 33b sets the magnification amount (S42). In particular, the area defining unit 33b reduces the magnification according to the vehicle width Δy, as shown in FIG. 17. In this process, the area defining unit 33b also preferably reduces the maximum limit y 0 fs'.

[0075] На этапах S43-S56, выполняется процесс, идентичный процессу на этапах S1-S14, показанному на фиг. 9.[0075] In steps S43-S56, a process identical to the process in steps S1-S14 shown in FIG. 9.

[0076] Таким образом, согласно устройству 3 обнаружения сплошных объектов и способу обнаружения сплошных объектов согласно третьему варианту осуществления, может повышаться точность обнаружения сплошных объектов, и (дополнительно) могут не допускаться, к примеру, такие ситуации, которые вызывают ошибки при обнаружении сплошных объектов, аналогично первому варианту осуществления. Также можно не допускать, к примеру, таких ситуаций, в которых области A1, A2 обнаружения чрезвычайно сужаются, вызывая ошибки при обнаружении.[0076] Thus, according to the solid object detection device 3 and the solid object detection method according to the third embodiment, the accuracy of detecting solid objects can be increased, and (for example) situations that cause errors when detecting solid objects can be prevented , similar to the first embodiment. It is also possible to avoid, for example, situations in which the detection areas A1, A2 are extremely narrow, causing detection errors.

[0077] Согласно третьему варианту осуществления, когда обнаруживается смена полосы движения, выполняемая транспортным средством V, уменьшается величина увеличения для увеличения размеров областей A1, A2 обнаружения. Следовательно, можно не допускать ситуаций, в которых в момент, когда транспортное средство временно находится около разделительной линии при смене полосы движения, области A1, A2 обнаружения задаются не в смежной полосе движения, а в последующей полосе движения.[0077] According to the third embodiment, when a lane change performed by the vehicle V is detected, an increase amount is decreased to increase the size of the detection areas A1, A2. Therefore, it is possible to avoid situations in which at the moment when the vehicle is temporarily near the dividing line when changing the lane, the detection areas A1, A2 are set not in the adjacent lane, but in the subsequent lane.

[0078] Четвертый вариант осуществления[0078] Fourth Embodiment

Далее описывается четвертый вариант осуществления настоящего изобретения. Устройство обнаружения сплошных объектов и способ обнаружения сплошных объектов согласно четвертому варианту осуществления являются аналогичными устройству обнаружения сплошных объектов и способу обнаружения сплошных объектов по первому варианту осуществления, но конфигурации и детали обработки частично отличаются. Ниже описываются точки расхождения с первым вариантом осуществления.The following describes a fourth embodiment of the present invention. The solid object detection device and the solid object detection method according to the fourth embodiment are similar to the solid object detection device and the solid object detection method of the first embodiment, but the configuration and processing details are partially different. The points of discrepancy with the first embodiment are described below.

[0079] Фиг. 20 является блок-схемой, показывающей подробности компьютера 30 согласно четвертому варианту осуществления. На фиг. 20 камера 10 и датчик 20 скорости транспортного средства также показаны для того, чтобы предоставлять понятную иллюстрацию взаимных соединений.[0079] FIG. 20 is a block diagram showing details of a computer 30 according to a fourth embodiment. In FIG. 20, a camera 10 and a vehicle speed sensor 20 are also shown in order to provide a clear illustration of the interconnections.

[0080] Компьютер 30 согласно четвертому варианту осуществления содержит модуль 37 обнаружения линий на земной поверхности, как показано на фиг. 20. Модуль 37 обнаружения линий на земной поверхности обнаруживает позиции, в которых шины другого транспортного средства V, движущегося на смежной полосе движения (позиции в направлении ширины транспортного средства), в качестве линий на земной поверхности. Подробности описываются ниже с использованием фиг. 21 и 22. Фиг. 21 и 22 являются схемами для описания способа обнаружения линий на земной поверхности посредством модуля 37 обнаружения линий на земной поверхности.[0080] The computer 30 according to the fourth embodiment comprises a module for detecting lines on the earth's surface, as shown in FIG. 20. The module for detecting lines on the earth's surface detects positions in which the tires of another vehicle V moving in an adjacent lane (position in the width direction of the vehicle) as lines on the earth's surface. Details are described below using FIG. 21 and 22. FIG. 21 and 22 are diagrams for describing a method for detecting lines on the earth's surface through the module 37 for detecting lines on the earth's surface.

[0081] Во-первых, модуль 37 обнаружения линий на земной поверхности задает множество линий L1-Ln в различных позициях в области A1 или A2 обнаружения, причем линии являются практически параллельным с направлением движения транспортного средства V. Например, в примере, показанном на фиг. 21, модуль 37 обнаружения линий на земной поверхности задает четыре практически параллельные линии. Нижеприведенное описание использует четыре практически параллельные линии L1-L4 в качестве примера, но линии не ограничены этим примером, и может быть две, три, пять или более параллельных линий.[0081] First, the line detection module 37 on the earth's surface defines a plurality of lines L 1 -Ln at various positions in the detection region A1 or A2, the lines being substantially parallel to the direction of travel of the vehicle V. For example, in the example shown in FIG. 21, the earth line detection module 37 defines four substantially parallel lines. The following description uses four almost parallel lines L 1 -L 4 as an example, but the lines are not limited to this example, and there may be two, three, five or more parallel lines.

[0082] Модуль 37 обнаружения линий на земной поверхности затем вынуждает модуль 33a формирования форм разностных сигналов формировать формы DWt разностных сигналов для заданных линий L1-L4. В частности, после вынуждения модуля 33a формирования форм разностных сигналов подсчитывать число разностных пикселов DP, модуль 37 обнаружения линий на земной поверхности находит точки CP пересечения между линиями L1-L4 и линией La вдоль направления, в котором сплошной объект попадает в поле зрения в данных разностных изображений DWt и вынуждает модуль 33a формирования форм разностных сигналов формировать форму DWt разностного сигнала для каждой из линий L1-L4 посредством корреляции точек CP пересечения и подсчитанного числа. Модуль 37 обнаружения линий на земной поверхности за счет этого может получать множество форм разностных сигналов, как показано на фиг. 21(b). На фиг. 21(b), форма DWt1 разностного сигнала основана на практически параллельной линии L1, форма DWt2 разностного сигнала основана на практически параллельной линии L2, форма DWt3 разностного сигнала основана на практически параллельной линии L3, и форма DWt4 разностного сигнала основана на практически параллельной линии L4.[0082] The line detection module 37 on the earth's surface then forces the difference waveform generating unit 33a to generate the difference waveform DW t for predetermined lines L 1 -L 4 . In particular, after forcing the difference waveform generating unit 33a to count the number of difference pixels DP, the line detection module 37 on the earth's surface finds the intersection points CP between the lines L 1 -L 4 and the line La along the direction in which the solid object comes into view in of the difference image data DW t and causes the difference waveform generating unit 33 a to generate the difference waveform DW t for each of the lines L 1 -L 4 by correlating the intersection points CP and the counted number. The line detection module 37 on the earth's surface can thereby receive a plurality of difference waveforms, as shown in FIG. 21 (b). In FIG. 21 (b), the differential waveform DW t1 is based on an almost parallel line L 1 , the differential waveform DWt 2 is based on an almost parallel line L 2 , the differential waveform DW t3 is based on an almost parallel line L 3 , and the differential waveform DW t4 based on an almost parallel line L 4 .

[0083] Ссылаясь на множество форм DWt1-DWt4 разностных сигналов, форма DWt3 разностного сигнала на основе практически параллельной линии L3 около транспортного средства V демонстрирует большую тенденцию к увеличению частоты, чем формы DWt1, DWt2 разностных сигналов на основе практически параллельных линий L1, L2 дальше от транспортного средства V. Это обусловлено тем, что другое транспортное средство V является сплошным объектом, и в силу этого другое транспортное средство V безусловно растягивается до бесконечности в разностном изображении PD. Тем не менее, форма DWt3 разностного сигнала и форма DWt4 разностного сигнала имеют идентичную частоту. Это обусловлено тем, что практически параллельные линии L3, L4 перекрывают другое транспортное средство V в разностном изображении PDt. В частности, это обусловлено тем, что отсутствуют разностные пикселы DP между практически параллельной линией L3 и линией L4.[0083] Referring to a plurality of difference waveforms DW t1 to DW t4, the difference waveform DW t3 based on a substantially parallel line L 3 near the vehicle V shows a greater tendency to increase frequency than the difference waveforms DW t1 , DWt 2 based on the practically parallel lines L 1 , L 2 further from the vehicle V. This is due to the fact that the other vehicle V is a solid object, and therefore the other vehicle V certainly stretches to infinity in the difference image PD. However, the differential waveform DW t3 and the differential waveform DW t4 have the same frequency. This is due to the fact that almost parallel lines L 3 , L 4 overlap another vehicle V in the differential image PD t . In particular, this is due to the fact that there are no difference pixels DP between the almost parallel line L 3 and the line L 4 .

[0084] Модуль 37 обнаружения линий на земной поверхности оценивает линию Lt на земной поверхности другого транспортного средства V из изменений в профилях множества форм DWt1-DWt4 разностных сигналов, описанных выше. В случае примера, показанного на фиг. 21(b), модуль 37 обнаружения линий на земной поверхности оценивает практически параллельную линию L3 как линию Lt на земной поверхности. В частности, линия Lt на земной поверхности оценивается из темпов увеличения области, показанной на фиг. 22. Фиг. 22 является графиком, показывающим темпы увеличения областей множества форм DWt1-DWt4 разностных сигналов, показанных на фиг. 21(b). Модуль 37 обнаружения линий на земной поверхности обращается к темпам увеличения области от самой дальней практически параллельной линии из вычисленных областей до самой ближней практически параллельной линии, как показано на фиг. 22. Область формы DWt2 разностного сигнала демонстрирует темп увеличения, который является постоянным относительно области формы DWt1 разностного сигнала, и область формы DWt3 разностного сигнала демонстрирует темп увеличения, который является постоянным относительно области формы DWt2 разностного сигнала. Область формы DWt4 разностного сигнала и область формы DWt3 разностного сигнала равны, и темп увеличения составляет предварительно определенное значение или меньше. Это обусловлено тем, что отсутствуют разностные пикселы DP между практически параллельной линией L3 и линией L4, как описано выше. В частности, может быть оценено, что отсутствует сплошной объект (например, шины смежного транспортного средства) между практически параллельной линией L3 и линией L4. Следовательно, модуль 37 обнаружения линий на земной поверхности обнаруживает практически параллельную линию L3 в качестве линии Lt на земной поверхности другого транспортного средства V.[0084] The Earth line detection module 37 estimates the line L t on the earth surface of another vehicle V from changes in the profiles of the multiple difference waveforms DW t1 to DW t4 described above. In the case of the example shown in FIG. 21 (b), the earth line detection module 37 evaluates a substantially parallel line L 3 as the earth line L t . In particular, the line L t on the earth's surface is estimated from the rate of increase of the area shown in FIG. 22. FIG. 22 is a graph showing the growth rates of regions of a plurality of difference waveform DW t1 to DW t4 shown in FIG. 21 (b). The module for detecting lines on the earth’s surface refers to the rate of increase of the region from the farthest almost parallel line from the calculated areas to the nearest almost parallel line, as shown in FIG. 22. The difference waveform region DWt 2 shows an increase rate that is constant with respect to the difference waveform region DW t1 , and the difference waveform region DW t3 shows an increase rate that is constant with respect to the difference waveform region DWt 2 . The difference waveform region DW t4 and the difference waveform region DW t3 are equal, and the increase rate is a predetermined value or less. This is because there are no difference pixels DP between a substantially parallel line L 3 and a line L 4 , as described above. In particular, it can be estimated that there is no solid object (for example, tires of an adjacent vehicle) between a substantially parallel line L 3 and a line L 4 . Therefore, the line detection module 37 on the earth's surface detects a substantially parallel line L 3 as the line L t on the earth's surface of another vehicle V.

[0085] Возвращаясь к фиг. 20, модуль 33b задания областей согласно четвертому варианту осуществления увеличивает размеры областей A1, A2 обнаружения на основе расстояния Δy по ширине транспортного средства между боковой поверхностью транспортного средства V и разделительной линией, аналогично первому варианту осуществления. Кроме того, в четвертом варианте осуществления, модуль 33b задания областей изменяет величину Δy0fs увеличения при увеличении областей A1, A2 обнаружения наружу в направлении ширины транспортного средства на основе линии Lt на земной поверхности другого транспортного средства V, обнаруженного посредством модуля 37 обнаружения линий на земной поверхности. В частности, чем меньше расстояние по ширине транспортного средства от боковой поверхности транспортного средства V1 до линии Lt на земной поверхности другого транспортного средства V, тем больше модуль 33b задания областей уменьшает величину Δy0fs увеличения при увеличении размеров областей A1, A2 обнаружения, как показано на фиг. 23.[0085] Returning to FIG. 20, the area setting module 33b according to the fourth embodiment enlarges the detection areas A1, A2 based on the distance Δy along the width of the vehicle between the side surface of the vehicle V and the dividing line, similarly to the first embodiment. In addition, in the fourth embodiment, the area defining unit 33b changes the magnitude Δy 0 fs of the increase with increasing outward detection areas A1, A2 in the vehicle width direction based on the line L t on the earth surface of another vehicle V detected by the line detection unit 37 on the earth’s surface. In particular, the smaller the distance across the width of the vehicle from the side surface of the vehicle V1 to the line L t on the ground surface of another vehicle V, the more the area setting module 33b decreases the magnitude Δy 0 fs of the increase with increasing size of the detection areas A1, A2, as shown in FIG. 23.

[0086] Таким образом, согласно устройству 4 обнаружения сплошных объектов и способу обнаружения сплошных объектов согласно четвертому варианту осуществления, может повышаться точность обнаружения сплошных объектов, и (дополнительно) могут не допускаться, к примеру, такие ситуации, которые вызывают ошибки при обнаружении сплошных объектов, аналогично первому варианту осуществления. Также можно не допускать, к примеру, таких ситуаций, в которых области A1, A2 обнаружения чрезвычайно сужаются, вызывая ошибки при обнаружении.[0086] Thus, according to the solid object detection device 4 and the solid object detection method according to the fourth embodiment, the accuracy of detecting solid objects can be increased, and (additionally) situations, for example, that cause errors when detecting solid objects, can be prevented. , similar to the first embodiment. It is also possible to avoid, for example, situations in which the detection areas A1, A2 are extremely narrow, causing detection errors.

[0087] Согласно четвертому варианту осуществления, обнаруживается линия Lt на земной поверхности другого транспортного средства V, движущегося в смежной полосе движения, и чем меньше расстояние от боковой поверхности транспортного средства V до линии Lt на земной поверхности, тем больше величина Δy0fs изменения уменьшается, когда размеры областей A1, A2 обнаружения увеличиваются. Например, в таких случаях, когда другое транспортное средство V может быть надлежащим образом обнаружено в смежной полосе движения, даже когда расстояние в направлении ширины транспортного средства от боковой поверхности транспортного средства V до смежного транспортного средства является небольшим, и минимизируется величина увеличения, на которую увеличиваются размеры областей A1, A2 обнаружения, за счет этого в четвертом варианте осуществления можно минимизировать величину Δy0fs изменения, когда размеры областей A1, A2 обнаружения увеличиваются, и в силу этого эффективно не допускать задания областей A1, A2 обнаружения в последующих полосах движения или за пределами дороги и не допускать ошибочного обнаружения других транспортных средств, движущихся в последующих полосах движения, по покрытию за пределами дороги и т.п., в качестве смежных транспортных средств.[0087] According to the fourth embodiment, a line L t is detected on the earth's surface of another vehicle V moving in an adjacent lane, and the smaller the distance from the side surface of the vehicle V to the line L t on the earth's surface, the greater Δy 0 fs changes decreases when the sizes of the detection areas A1, A2 increase. For example, in such cases, when another vehicle V can be properly detected in an adjacent lane, even when the distance in the width direction of the vehicle from the side surface of the vehicle V to the adjacent vehicle is small, and the magnification by which they are increased is minimized dimensions of the regions A1, A2 detection due to this fourth embodiment can minimize the amount Δy 0 fs change when the dimensions of the areas A1, A2 detection withdrawn occur and, therefore, it is effective to prevent the detection areas A1, A2 from being set in subsequent traffic lanes or outside the road and to prevent the erroneous detection of other vehicles moving in subsequent traffic lanes by coverage outside the road, etc., in as related vehicles.

[0088] Пятый вариант осуществления[0088] Fifth Embodiment

Далее описывается пятый вариант осуществления настоящего изобретения. Устройство обнаружения сплошных объектов и способ обнаружения сплошных объектов согласно пятому варианту осуществления являются аналогичными устройству обнаружения сплошных объектов и способу обнаружения сплошных объектов по первому варианту осуществления, но конфигурации и детали обработки частично отличаются. Ниже описываются точки расхождения с первым вариантом осуществления.The following describes a fifth embodiment of the present invention. The solid object detection device and the solid object detection method according to the fifth embodiment are similar to the solid object detection device and the solid object detection method of the first embodiment, but the configuration and processing details are partially different. The points of discrepancy with the first embodiment are described below.

[0089] Фиг. 24 является блок-схемой, показывающей подробности компьютера 30 согласно пятому варианту осуществления. На фиг. 24, камера 10 и датчик 20 скорости транспортного средства также показаны для того, чтобы предоставлять понятную иллюстрацию взаимных соединений.[0089] FIG. 24 is a block diagram showing details of a computer 30 according to a fifth embodiment. In FIG. 24, a camera 10 and a vehicle speed sensor 20 are also shown in order to provide a clear illustration of the interconnections.

[0090] Компьютер 30 согласно пятому варианту осуществления содержит модуль 38 определения состояния поворота (средство определения состояния поворота), как показано на фиг. 24. Модуль 38 определения состояния поворота определяет то, находится или нет транспортное средство V в состоянии поворота, на основе скорости транспортного средства, обнаруженной посредством датчика 20 скорости транспортного средства, или величины руления, обнаруженной посредством датчика угла поворота при рулении (не показан), а также обнаруживает радиус поворота транспортного средства V, когда транспортное средство V находится в состоянии поворота. Способ, посредством которого состояние поворота обнаруживается посредством модуля 38 определения состояния поворота, не ограничен конкретным образом; состояние поворота транспортного средства V1 может быть обнаружено на основе результатов определения датчика поперечного ускорения, например, или состояние поворота транспортного средства V1 может быть обнаружено посредством прогнозирования формы дороги на основе изображения, захваченного посредством камеры 10. Состояние поворота транспортного средства V1 также может быть обнаружено посредством указания дороги, на которой движется транспортное средство V, в соответствии с картографической информацией или информацией текущей позиции транспортного средства V согласно навигационной системе и т.п.[0090] The computer 30 according to the fifth embodiment comprises a rotation state determination module 38 (rotation state determination means), as shown in FIG. 24. The turn state determination unit 38 determines whether or not the vehicle V is in the turn state based on the vehicle speed detected by the vehicle speed sensor 20 or the steering angle detected by the steering angle sensor (not shown), and also detects the turning radius of the vehicle V when the vehicle V is in a turning state. The method by which the rotation state is detected by the rotation state determination unit 38 is not particularly limited; the turning state of the vehicle V1 can be detected based on the results of determining the lateral acceleration sensor, for example, or the turning state of the vehicle V1 can be detected by predicting the shape of the road based on the image captured by the camera 10. The turning state of the vehicle V1 can also be detected by indicate the road on which the vehicle V is moving, in accordance with the cartographic information or the information of the current position vehicle V according to the navigation system and the like.

[0091] Модуль 33b задания областей согласно пятому варианту осуществления увеличивает области A1, A2 обнаружения на основе расстояния Δy по ширине транспортного средства между боковой поверхностью транспортного средства V и разделительной линией, аналогично первому варианту осуществления, и в пятом варианте осуществления модуль 33b задания областей также изменяет величину Δy0fs увеличения, когда размеры областей A1, A2 обнаружения увеличиваются в соответствии с радиусом поворота транспортного средства V, когда транспортное средство V определяется посредством модуля 38 определения состояния поворота как находящееся в состоянии поворота. В частности, чем меньше радиус поворота транспортного средства V, тем меньшей модуль 33b задания областей задает величину Δy0fs увеличения областей A1, A2 обнаружения.[0091] The area definition module 33b according to the fifth embodiment enlarges the detection areas A1, A2 based on the vehicle width Δy between the side surface of the vehicle V and the dividing line, similarly to the first embodiment, and in the fifth embodiment, the area definition module 33b also changes the magnitude Δy 0 fs of the increase when the dimensions of the detection areas A1, A2 increase in accordance with the turning radius of the vehicle V when the vehicle V determines by means of the module 38 determining the state of rotation as being in a state of rotation. In particular, the smaller the turning radius of the vehicle V, the smaller the area setting module 33b sets the magnitude Δy 0 fs of the increase in the detection areas A1, A2.

[0092] Фиг. 25 является видом сверху, показывающим состояние движения транспортного средства, когда транспортное средство поворачивает, и также показывающим пример случая, в котором модуль 33b задания областей увеличивает область A1 обнаружения. В этом окружении, в котором транспортное средство V поворачивает на повороте и т.п., как показано на фиг. 25, чем меньше радиус поворота транспортного средства V, тем проще области A1, A2 обнаружения на внешних сторонах направления поворота задаются в последующих полосах движения, и когда область A1 обнаружения увеличивается наружу в направлении ширины транспортного средства идентично первому варианту осуществления, возникают случаи, в которых другое транспортное средство V в последующей полосе движения входит в область A1 обнаружения, и это другое транспортное средство V ошибочно обнаруживается в качестве смежного транспортного средства.[0092] FIG. 25 is a plan view showing the state of movement of the vehicle when the vehicle is turning, and also showing an example of a case in which the area setting unit 33b enlarges the detection area A1. In this environment in which the vehicle V turns in a bend or the like, as shown in FIG. 25, the smaller the turning radius of the vehicle V, the simpler the detection areas A1, A2 on the outer sides of the turning direction are set in subsequent lanes, and when the detection area A1 increases outward in the vehicle width direction identical to the first embodiment, there are cases in which another vehicle V in the subsequent lane enters the detection area A1, and this other vehicle V is erroneously detected as an adjacent vehicle.

[0093] С учетом этого, когда транспортное средство V определяется посредством модуля 38 определения состояния поворота как поворачивающее, чем меньше радиус поворота транспортного средства V, тем меньше модуль 33b задания областей задает величину Δy0fs увеличения областей A1, A2 обнаружения относительно расстояния Δy по ширине транспортного средства, как показано на фиг. 26. За счет этого можно не позволять задание областей A1, A2 обнаружения в последующих полосах движения, даже когда транспортное средство V поворачивает на повороте, и как результат, можно эффективно не допускать ошибочного обнаружения других транспортных средств V в последующих полосах движения в качестве смежных транспортных средств.[0093] With this in mind, when the vehicle V is determined by the turning state determination unit 38 as turning, the smaller the turning radius of the vehicle V, the less the area setting module 33b sets the magnitude Δy 0 fs of the increase in the detection areas A1, A2 with respect to the distance Δy over vehicle width as shown in FIG. 26. Due to this, it is possible not to allow the detection areas A1, A2 to be set in subsequent lanes, even when the vehicle V turns in a bend, and as a result, it is possible to effectively prevent erroneous detection of other vehicles V in subsequent lanes as adjacent vehicles funds.

[0094] В дополнение к конфигурации, описанной выше, модуль 33b задания областей в пятом варианте осуществления также может использовать конфигурацию для уменьшения величины Δy0fs увеличения областей A1, A2 обнаружения на основе ширины полосы движения полосы движения, по которой движется транспортное средство V, как раскрыто во втором варианте осуществления. В этом случае, модуль 33b задания областей может сравнивать величину Δy0fs увеличения областей A1, A2 обнаружения, определенных на основе радиуса поворота, и величину Δy0fs увеличения областей A1, A2 обнаружения, определенных на основе ширины полосы движения, выбирать меньшую величину Δy0fs увеличения и увеличивать размеры областей A1, A2 обнаружения наружу в направлении ширины транспортного средства.[0094] In addition to the configuration described above, the area defining unit 33b in the fifth embodiment can also use the configuration to decrease the magnitude Δy 0 fs of the increase of the detection areas A1, A2 based on the lane width of the lane along which the vehicle V is traveling, as disclosed in the second embodiment. In this case, the area setting module 33b can compare the magnitude Δy 0 fs of the increase in the detection areas A1, A2 determined based on the turning radius and the magnitude Δy 0 fs of the increase in the detection areas A1, A2 determined on the basis of the lane width, select a smaller value Δy 0 fs increase and increase the size of the detection areas A1, A2 outward in the width direction of the vehicle.

[0095] Таким образом, согласно устройству 5 обнаружения сплошных объектов и способу обнаружения сплошных объектов согласно пятому варианту осуществления, может повышаться точность обнаружения сплошных объектов, и (дополнительно) могут не допускаться, к примеру, такие ситуации, которые вызывают ошибки при обнаружении сплошных объектов, аналогично первому варианту осуществления. Также можно не допускать, к примеру, таких ситуаций, в которых области A1, A2 обнаружения чрезвычайно сужаются, вызывая ошибки при обнаружении.[0095] Thus, according to the solid object detection device 5 and the solid object detection method according to the fifth embodiment, the accuracy of detecting solid objects can be increased, and (additionally) situations, for example, that cause errors when detecting solid objects, can be prevented. , similar to the first embodiment. It is also possible to avoid, for example, situations in which the detection areas A1, A2 are extremely narrow, causing detection errors.

[0096] В пятом варианте осуществления, когда транспортное средство V определяется посредством модуля 38 определения состояния поворота как поворачивающее, чем меньше радиус поворота транспортного средства V, тем меньше величина Δy0fs увеличения областей A1, A2 обнаружения относительно расстояния Δy по ширине транспортного средства, как показано на фиг. 26, за счет чего можно не позволять задание областей A1, A2 обнаружения в последующих полосах движения, даже когда транспортное средство V поворачивает на повороте, как показано на фиг. 25, и как результат, можно эффективно не допускать ошибочного обнаружения других транспортных средств V в последующих полосах движения в качестве смежных транспортных средств.[0096] In the fifth embodiment, when the vehicle V is determined by the turning state determination unit 38 as turning, the smaller the turning radius of the vehicle V, the smaller the magnitude Δy 0 fs of the increase in detection areas A1, A2 with respect to the distance Δy across the width of the vehicle, as shown in FIG. 26, due to which it is possible to prevent the setting of detection areas A1, A2 in subsequent lanes, even when the vehicle V turns in a bend, as shown in FIG. 25, and as a result, it is possible to effectively prevent erroneous detection of other vehicles V in subsequent lanes as adjacent vehicles.

[0097] Кроме того, согласно пятому варианту осуществления, когда транспортное средство V сменяет полосу движения, величина Δy0fs увеличения областей A1, A2 обнаружения может подавляться на основе состояния поворота транспортного средства V. Например, когда транспортное средство V1 движется на прямой дороге, и когда транспортное средство V обнаруживается как поворачивающее, может быть оценено, что чем меньше радиус поворота, тем выше вероятность того, что транспортное средство V выполняет смену полосы движения. С учетом этого, посредством оценки того, что чем меньше радиус поворота транспортного средства V, тем выше вероятность того, что транспортное средство V выполняет смену полосы движения, и посредством уменьшения величины Δy0fs увеличения областей A1, A2 обнаружения, можно эффективно не допускать задания областей A1, A2 обнаружения в последующих полосах движения во время смены полосы движения и не допускать ошибочного обнаружения других транспортных средств, движущихся в последующих полосах движения, в качестве смежных транспортных средств.[0097] Furthermore, according to the fifth embodiment, when the vehicle V changes the lane, the increase amount Δy 0 fs of the detection areas A1, A2 can be suppressed based on the turning state of the vehicle V. For example, when the vehicle V1 is traveling on a straight road, and when the vehicle V is detected as turning, it can be estimated that the smaller the turning radius, the higher the likelihood that the vehicle V performs a lane change. With this in mind, by estimating that the smaller the turning radius of the vehicle V, the higher the likelihood that the vehicle V is changing the lane, and by reducing the magnitude Δy 0 fs of the increase in detection areas A1, A2, it is possible to effectively prevent tasks detection areas A1, A2 in subsequent lanes during a lane change and prevent erroneous detection of other vehicles moving in subsequent lanes as adjacent vehicles.

[0098] Шестой вариант осуществления[0098] Sixth Embodiment

Далее описывается шестой вариант осуществления настоящего изобретения. Устройство обнаружения сплошных объектов и способ обнаружения сплошных объектов согласно шестому варианту осуществления являются аналогичными устройству обнаружения сплошных объектов и способу обнаружения сплошных объектов по первому варианту осуществления, но конфигурации и детали обработки частично отличаются. Ниже описываются точки расхождения с первым вариантом осуществления.The following describes a sixth embodiment of the present invention. The solid object detection device and the solid object detection method according to the sixth embodiment are similar to the solid object detection device and the solid object detection method of the first embodiment, but the configuration and processing details are partially different. The points of discrepancy with the first embodiment are described below.

[0099] Фиг. 27 является видом сверху, показывающим состояние движения транспортного средства в шестом варианте осуществления, и также показывающим пример случая, в котором модуль 33b задания областей увеличивает область A1 обнаружения. В шестом варианте осуществления модуль 33b задания областей смещает области A1, A2 обнаружения наружу в направлении ширины транспортного средства на основе расстояния Δy по ширине транспортного средства между боковой поверхностью транспортного средства V и разделительной линией и увеличивает области A1, A2 обнаружения наружу в направлении ширины транспортного средства на основе расстояния Δy по ширине транспортного средства между боковой поверхностью транспортного средства V и разделительной линией. Подробности описываются ниже.[0099] FIG. 27 is a plan view showing a state of movement of the vehicle in the sixth embodiment, and also showing an example of a case in which the area setting unit 33b enlarges the detection area A1. In the sixth embodiment, the area defining unit 33b biases the detection areas A1, A2 outward in the vehicle width direction based on the vehicle width Δy between the side surface of the vehicle V and the dividing line and increases the outward detection areas A1, A2 in the vehicle width direction based on the distance Δy across the width of the vehicle between the side surface of the vehicle V and the dividing line. Details are described below.

[0100] Фиг. 28(A) является графиком, показывающим взаимосвязь между расстоянием Δy по ширине транспортного средства до разделительной линии и величиной перемещения (величиной y0fs1 смещения), когда области A1, A2 обнаружения смещаются наружу в направлении ширины транспортного средства, и фиг. 28(B) является графиком, показывающим взаимосвязь между расстоянием Δy по ширине транспортного средства до разделительной линии и величиной увеличения (величиной Δy0fs2 увеличения), когда области A1, A2 обнаружения увеличиваются наружу в направлении ширины транспортного средства.[0100] FIG. 28 (A) is a graph showing the relationship between the vehicle width Δy of the vehicle to the dividing line and the displacement amount (offset value y 0 fs1) when the detection areas A1, A2 are shifted outward in the vehicle width direction, and FIG. 28 (B) is a graph showing the relationship between the vehicle width Δy of the vehicle to the dividing line and the magnification magnitude (magnitude Δy 0 fs2) when the detection areas A1, A2 increase outward in the vehicle width direction.

[0101] В частности, когда расстояние Δy по ширине транспортного средства между боковой поверхностью транспортного средства V и разделительной линией меньше y3, как показано на фиг. 28(A), модуль 33b задания областей оставляет области A1, A2 обнаружения неизмененными, и когда расстояние Δy по ширине транспортного средства составляет y3 или более и меньше y4, модуль 33b задания областей смещает области A1, A2 обнаружения наружу в направлении ширины транспортного средства согласно расстоянию Δy по ширине транспортного средства. Когда расстояние Δy по ширине транспортного средства между боковой поверхностью транспортного средства V1 и разделительной линией составляет y3 или более и меньше y4, области A1, A2 обнаружения не увеличиваются наружу в направлении ширины транспортного средства.[0101] In particular, when the distance Δy across the width of the vehicle between the side surface of the vehicle V and the dividing line is less than y 3 , as shown in FIG. 28 (A), the area determining unit 33b leaves the detection areas A1, A2 unchanged, and when the vehicle width Δy is y 3 or more and less than y 4 , the area setting unit 33b biases the detection areas A1, A2 outward in the vehicle width direction means according to the distance Δy across the width of the vehicle. When the distance Δy along the width of the vehicle between the side surface of the vehicle V1 and the dividing line is y 3 or more and less than y 4 , the detection areas A1, A2 do not increase outward in the vehicle width direction.

[0102] Когда расстояние Δy по ширине транспортного средства составляет y4 или более, модуль 33b задания областей смещает области A1, A2 обнаружения наружу в направлении ширины транспортного средства на предварительно определенную величину y0fs1' смещения и увеличивает области A1, A2 обнаружения наружу в направлении ширины транспортного средства, как показано на фиг. 28(A). В частности, когда расстояние Δy по ширине транспортного средства составляет y4 или более и меньше y5, области A1, A2 обнаружения увеличиваются наружу в направлении ширины транспортного средства согласно расстоянию Δy по ширине транспортного средства, как показано на фиг. 28(B), и когда расстояние Δy по ширине транспортного средства составляет y5 или более, области A1, A2 обнаружения увеличиваются наружу в направлении ширины транспортного средства на предварительно определенную величину Δy0fs2' увеличения.[0102] When the vehicle width Δy is y 4 or more, the area defining unit 33b biases the detection areas A1, A2 outward in the vehicle width direction by a predetermined offset amount y 0 fs1 'and increases the outward detection areas A1, A2 in vehicle width direction, as shown in FIG. 28 (A). In particular, when the vehicle width Δy is y 4 or more and less than y 5 , the detection areas A1, A2 increase outward in the vehicle width direction according to the vehicle width Δy, as shown in FIG. 28 (B), and when the vehicle width Δy is y 5 or more, the detection areas A1, A2 increase outward in the vehicle width direction by a predetermined increase amount Δy 0 fs2 '.

[0103] В окружении, в котором транспортное средство V отделено от разделительной линии, например, модуль 33b задания областей за счет этого смещает области A1, A2 обнаружения наружу в направлении ширины транспортного средства в соответствии с расстоянием Δy по ширине транспортного средства, когда расстояние Δy по ширине транспортного средства между боковой поверхностью транспортного средства V и разделительной линией составляет y3 или более, и когда расстояние Δy по ширине транспортного средства после того составляет y4 или более, модуль 33b задания областей прекращает смещение областей A1, A2 обнаружения наружу в направлении ширины транспортного средства и вместо этого увеличивает области A1, A2 обнаружения наружу в направлении ширины транспортного средства. Модуль 33b задания областей затем увеличивает области A1, A2 обнаружения наружу в направлении ширины транспортного средства в соответствии с расстоянием Δy по ширине транспортного средства до тех пор, пока расстояние Δy по ширине транспортного средства не достигнет y5, и в момент времени, когда расстояние Δy по ширине транспортного средства достигает y5, модуль 33b задания областей также прекращает увеличение областей A1, A2 обнаружения наружу в направлении ширины транспортного средства.[0103] In an environment in which the vehicle V is separated from the dividing line, for example, the area defining unit 33b thereby biases the detection areas A1, A2 outward in the vehicle width direction in accordance with the vehicle width Δy when the vehicle distance Δy the width of the vehicle between the side surface of the vehicle V and the dividing line is y 3 or more, and when the distance Δy across the width of the vehicle is then y 4 or more, the module 33b is set The region stops stopping the outward detection regions A1, A2 in the vehicle width direction and instead increases the outward detection regions A1, A2 in the vehicle width direction. The area defining unit 33b then enlarges the outward detection areas A1, A2 in the vehicle width direction in accordance with the vehicle width Δy until the vehicle width Δy reaches y 5 , and at the time when the distance Δy the width of the vehicle reaches y 5 , the area setting module 33b also stops increasing the outward detection areas A1, A2 in the width direction of the vehicle.

[0104] В этом окружении, в котором транспортное средство V приближается к разделительной линии, когда расстояние Δy по ширине транспортного средства меньше y5, модуль 33b задания областей сужает размеры увеличенных областей A1, A2 обнаружения внутрь в направлении ширины транспортного средства. Когда расстояние Δy по ширине транспортного средства после этого меньше y4, модуль 33b задания областей прекращает сужение областей A1, A2 обнаружения внутрь в направлении ширины транспортного средства и вместо этого смещает области A1, A2 обнаружения внутрь в направлении ширины транспортного средства в соответствии с расстоянием Δy по ширине транспортного средства. Когда расстояние Δy по ширине транспортного средства меньше y3, модуль 33b задания областей затем также прекращает смещение областей A1, A2 обнаружения внутрь в направлении ширины транспортного средства.[0104] In this environment in which the vehicle V approaches the dividing line when the vehicle width Δy is less than y 5 , the area defining unit 33b narrows the dimensions of the enlarged detection areas A1, A2 inward in the vehicle width direction. When the vehicle width Δy then is less than y 4 , the area defining unit 33b stops narrowing the detection areas A1, A2 inward in the vehicle width direction and instead shifts the detection areas A1, A2 inward in the vehicle width direction in accordance with the distance Δy the width of the vehicle. When the vehicle width Δy is less than y 3 , the area defining unit 33b then also stops shifting the detection areas A1, A2 inward in the vehicle width direction.

[0105] Кроме того, в шестом варианте осуществления, модуль 33b задания областей имеет предельные значения (предписанные значения увеличения, предписанные значения) для величин изменения согласно различным состояниям, когда транспортное средство V сменяет полосу движения, когда сплошной объект считывается, и в обычные моменты времени (когда транспортное средство V движется по прямой, и когда сплошной объект не обнаруживается), как для величины y0fs1 смещения, так и для величины Δy0fs2 увеличения областей A1, A2 обнаружения. Модуль 33b задания областей затем постепенно смещает области A1, A2 обнаружения наружу в направлении ширины транспортного средства в пределах диапазона, который не превышает предельные значения Δy0fs1 и Δy0fs2 согласно различным состояниям, и постепенно увеличивает размеры областей A1, A2 обнаружения наружу в направлении ширины транспортного средства. Предельные значения для каждого состояния, описанного выше, применяются независимо от состояния поворота транспортного средства или ширины полосы движения для данной полосы движения.[0105] Furthermore, in the sixth embodiment, the area defining unit 33b has limit values (prescribed magnification values, prescribed values) for change amounts according to various conditions when the vehicle V changes lane when a solid object is read and at ordinary times time (when the vehicle V moves in a straight line, and when a solid object is not detected), both for the displacement y 0 fs1 and the Δy 0 fs2 magnitude of the increase in detection areas A1, A2. The area defining unit 33b then gradually shifts the detection areas A1, A2 outward in the vehicle width direction within a range that does not exceed the limit values Δy 0 fs1 and Δy 0 fs2 according to different states, and gradually increases the size of the outward detection areas A1, A2 vehicle width. The limit values for each state described above apply regardless of the vehicle turning state or lane width for a given lane.

[0106] Таким образом, согласно устройству 6 обнаружения сплошных объектов и способу обнаружения сплошных объектов согласно шестому варианту осуществления, может повышаться точность обнаружения сплошных объектов, и (дополнительно) могут не допускаться, к примеру, такие ситуации, которые вызывают ошибки при обнаружении сплошных объектов, аналогично первому варианту осуществления. Также можно не допускать, к примеру, таких ситуаций, в которых области A1, A2 обнаружения чрезвычайно сужаются, вызывая ошибки при обнаружении.[0106] Thus, according to the solid object detection device 6 and the solid object detection method according to the sixth embodiment, the accuracy of detecting solid objects can be increased, and (additionally) situations, for example, that cause errors when detecting solid objects, can be prevented. , similar to the first embodiment. It is also possible to avoid, for example, situations in which the detection areas A1, A2 are extremely narrow, causing detection errors.

[0107] Согласно шестому варианту осуществления, области A1, A2 обнаружения смещаются наружу в направлении ширины транспортного средства на основе расстояния Δy по ширине транспортного средства между боковой поверхностью транспортного средства V и разделительной линией, и когда расстояние Δy по ширине транспортного средства после того достигает предварительно определенного значения или более, и величина смещения областей A1, A2 обнаружения достигает предварительно определенной величины, следующие преимущества могут достигаться посредством увеличения областей A1, A2 обнаружения наружу в направлении ширины транспортного средства вместо смещения областей A1, A2 обнаружения.[0107] According to the sixth embodiment, the detection areas A1, A2 are shifted outward in the vehicle width direction based on the vehicle width Δy between the vehicle side surface V and the dividing line, and when the vehicle width Δy has previously reached a certain value or more, and the shift amount of the detection areas A1, A2 reaches a predetermined value, the following advantages can be achieved by increasing the detection areas A1, A2 outward in the width direction of the vehicle instead of shifting the detection areas A1, A2.

[0108] В частности, когда сплошной объект (другое транспортное средство и т.п.), движущийся в смежной полосе движения, обнаруживается в области A1 или A2 обнаружения, чем дальше наружу в направлении ширины транспортного средства размещается область A1 или A2 обнаружения, тем чаще скорость перемещения сплошного объекта вычисляется как превышающая фактическую скорость перемещения, а чем дальше внутрь в направлении ширины транспортного средства размещается область A1 или A2 обнаружения, тем чаще скорость перемещения сплошного объекта вычисляется как меньшая фактической скорости перемещения. Следовательно, когда области A1, A2 обнаружения увеличиваются слишком далеко наружу в направлении ширины транспортного средства на основе расстояния Δy по ширине транспортного средства, возникают случаи, в которых имеется неоднородность в скорости перемещения обнаруженного сплошного объекта, и точность обнаружения сплошного объекта снижается, в зависимости от определенной позиции сплошного объекта в области A1 или A2 обнаружения. В настоящем варианте осуществления, когда транспортное средство V отделено от разделительной линии, такая неоднородность в результатах обнаружения скорости перемещения сплошного объекта может быть минимизирована, и сплошной объект (смежное транспортное средство) может быть надлежащим образом обнаружен посредством смещения областей A1, A2 обнаружения наружу в направлении ширины транспортного средства на основе расстояния Δy по ширине транспортного средства между боковой поверхностью транспортного средства V и разделительной линией.[0108] In particular, when a solid object (another vehicle or the like) moving in an adjacent lane is detected in the detection region A1 or A2, the further outward the detection region A1 or A2 is located in the vehicle width direction, the more often the speed of moving a solid object is calculated as exceeding the actual speed of moving, and the further inward in the direction of the width of the vehicle the detection region A1 or A2 is located, the more often the speed of moving a solid object is calculated to A lower actual travel speed. Therefore, when the detection areas A1, A2 increase too far outward in the vehicle width direction based on the vehicle width Δy, there are cases in which there is a heterogeneity in the speed of movement of the detected solid object, and the detection accuracy of the solid object is reduced, depending on a specific solid object position in the detection area A1 or A2. In the present embodiment, when the vehicle V is separated from the dividing line, such heterogeneity in the detection results of the moving speed of the solid object can be minimized, and the solid object (adjacent vehicle) can be properly detected by moving the detection areas A1, A2 outward the width of the vehicle based on the distance Δy along the width of the vehicle between the side surface of the vehicle V and the dividing line.

[0109] Когда области A1, A2 обнаружения смещаются слишком далеко наружу в направлении ширины транспортного средства, возникают случаи, в которых двухколесное транспортное средство и т.п., движущееся в позиции около транспортного средства V1 в направлении ширины транспортного средства, не входит в область A1 или A2 обнаружения, и это двухколесное транспортное средство не может быть обнаружено. Тем не менее, в настоящем варианте осуществления, когда величина смещения, на которую области A1, A2 обнаружения смещаются наружу в направлении ширины транспортного средства, составляет предварительно определенную величину или более, такие проблемы могут эффективно разрешаться посредством увеличения областей A1, A2 обнаружения наружу в направлении ширины транспортного средства вместо смещения областей A1, A2 обнаружения.[0109] When the detection areas A1, A2 are shifted too far outward in the vehicle width direction, there are cases in which a two-wheeled vehicle and the like moving at a position near the vehicle V1 in the vehicle width direction does not enter the area A1 or A2 detection, and this two-wheeled vehicle cannot be detected. However, in the present embodiment, when the displacement amount by which the detection areas A1, A2 are shifted outward in the vehicle width direction is a predetermined amount or more, such problems can be effectively solved by increasing the outward detection areas A1, A2 in the direction vehicle width instead of shifting detection areas A1, A2.

[0110] Седьмой вариант осуществления[0110] Seventh Embodiment

Далее описывается седьмой вариант осуществления настоящего изобретения. Устройство обнаружения сплошных объектов и способ обнаружения сплошных объектов согласно седьмому варианту осуществления являются аналогичными устройству обнаружения сплошных объектов и способу обнаружения сплошных объектов по первому варианту осуществления, но конфигурации и детали обработки частично отличаются. Ниже описываются точки расхождения с первым вариантом осуществления.The following describes a seventh embodiment of the present invention. The solid object detection device and the solid object detection method according to the seventh embodiment are similar to the solid object detection device and the solid object detection method of the first embodiment, but the configuration and processing details are partially different. The points of discrepancy with the first embodiment are described below.

[0111] Фиг. 29 является блок-схемой, показывающей подробности компьютера 30 согласно седьмому варианту осуществления. На фиг. 29, камера 10 и датчик 20 скорости транспортного средства также показаны для того, чтобы предоставлять понятную иллюстрацию взаимных соединений.[0111] FIG. 29 is a block diagram showing details of a computer 30 according to a seventh embodiment. In FIG. 29, a camera 10 and a vehicle speed sensor 20 are also shown in order to provide a clear illustration of the interconnections.

[0122] Компьютер 30 согласно седьмому варианту осуществления содержит модуль 39 обнаружения посторонних веществ (средство обнаружения посторонних веществ), как показано на фиг. 29. На основе изображения, захваченного посредством камеры 10, модуль 39 обнаружения посторонних веществ обнаруживает посторонние вещества, такие как дождевая вода или пятна от воды, прилипающие к линзе. Например, модуль 39 обнаружения посторонних веществ обнаруживает количество дождевой воды, прилипающей к линзе, посредством обнаружения интенсивности работы стеклоочистителя или датчика дождевой воды, который обнаруживает количество дождевой воды, прилипающей к линзе, посредством излучения инфракрасного света на линзу и обнаружения величины, на которую излученный инфракрасный свет ослабляется посредством дождевой воды; и модуль 39 обнаружения посторонних веществ выводит обнаруженное количество дождевой воды в модуль 33b задания областей.[0122] The computer 30 according to the seventh embodiment comprises a foreign substance detection module (foreign substance detection means), as shown in FIG. 29. Based on the image captured by the camera 10, the foreign substance detection unit 39 detects foreign substances, such as rainwater or water spots, adhering to the lens. For example, the foreign substance detection module 39 detects the amount of rainwater adhering to the lens by detecting an intensity of the wiper or the rainwater sensor that detects the amount of rainwater adhering to the lens by emitting infrared light to the lens and detecting the amount by which the emitted infrared light is dimmed by rainwater; and the foreign matter detection unit 39 outputs the detected amount of rainwater to the area setting unit 33b.

[0113] Модуль 39 обнаружения посторонних веществ не ограничивается обнаружением дождевой воды и, например, также может обнаруживать пятна от воды или грязь, прилипающую к линзе. Например, посредством извлечения края сфотографированного субъекта из захваченного изображения и оценки резкости изображения из характеристик извлеченного края, модуль 39 обнаружения посторонних веществ может оценивать величину, в которой пятна от воды и т.п. прилипают к линзе, и линза мутнеет (белая тонкая пленка формируется на поверхности линзы), и за счет этого может обнаруживать количество посторонних веществ, прилипающих к линзе. В противном случае, когда край аналогичной интенсивности обнаруживается в идентичной области в захваченном изображении в течение определенной длительности, модуль 39 обнаружения посторонних веществ может оценивать то, что посторонние вещества прилипают к этой области, и обнаруживать количество посторонних веществ, прилипающих к линзе.[0113] The foreign substance detection module 39 is not limited to detecting rainwater and, for example, can also detect water spots or dirt adhering to the lens. For example, by extracting the edge of the photographed subject from the captured image and evaluating the sharpness of the image from the characteristics of the extracted edge, the foreign substance detection module 39 can estimate the amount at which water stains and the like. stick to the lens, and the lens becomes cloudy (a white thin film forms on the surface of the lens), and due to this it can detect the amount of foreign substances sticking to the lens. Otherwise, when an edge of similar intensity is detected in an identical region in the captured image for a certain duration, the foreign substance detection module 39 can evaluate that foreign substances adhere to this region and detect the amount of foreign substances adhering to the lens.

[0114] Модуль 33b задания областей согласно седьмому варианту осуществления увеличивает области A1, A2 обнаружения наружу в направлении ширины транспортного средства на основе расстояния Δy по ширине транспортного средства между боковой поверхностью транспортного средства V, и разделительной линией, аналогично первому варианту осуществления, и в седьмом варианте осуществления также варьирует величина Δy0fs увеличения при увеличении областей A1, A2 обнаружения на основе количества посторонних веществ, обнаруженных посредством модуля 39 обнаружения посторонних веществ. В частности, чем больше количество посторонних веществ, прилипающих к линзе, тем меньшей модуль 33b задания областей задает величину Δy0fs увеличения при увеличении областей A1, A2 обнаружения.[0114] The area defining unit 33b according to the seventh embodiment increases the outward detection areas A1, A2 in the vehicle width direction based on the vehicle width Δy between the vehicle side surface V and the dividing line, similarly to the first embodiment, and in the seventh embodiment also varies the quantity Δy 0 fs increase with increasing areas A1, A2 detection based on the number of foreign substances detected by the detect module 39 eniya foreign substances. In particular, the larger the number of foreign substances adhering to the lens, the smaller the area setting module 33b sets the magnitude Δy 0 fs of the increase with increasing detection areas A1, A2.

[0115] Фиг. 30 является графиком, показывающим взаимосвязь между количеством посторонних веществ, прилипающих к линзе, и размерами областей A1, A2 обнаружения (величиной Δy0fs увеличения). Чем больше количество посторонних веществ, прилипающих к линзе, тем меньшей модуль 33b задания областей задает величину Δy0fs увеличения при увеличении областей A1, A2 обнаружения, как показано на фиг. 30. В частности, когда количество посторонних веществ, прилипающих к линзе, меньше q1, модуль 33b задания областей сохраняет величина Δy0fs увеличения областей A1, A2 обнаружения равной начальной величины увеличения определенной на основе расстояния Δy по ширине транспортного средства. Когда количество посторонних веществ, прилипающих к линзе, составляет q1 или более и меньше q2, чем больше количество посторонних веществ, прилипающих к линзе, тем меньшей модуль 33b задания областей задает величину Δy0fs увеличения областей A1, A2 обнаружения. Когда количество посторонних веществ, прилипающих к линзе, превышает q2, модуль 33b задания областей задает величину увеличения областей A1, A2 обнаружения равной наименьшему предварительно определенному значению Δy0fs''.[0115] FIG. 30 is a graph showing the relationship between the amount of foreign matter adhering to the lens and the size of the detection areas A1, A2 (magnitude Δy 0 fs magnification). The larger the amount of foreign matter adhering to the lens, the smaller the area setting module 33b sets the magnitude Δy 0 fs of the increase with increasing detection areas A1, A2, as shown in FIG. 30. In particular, when the amount of foreign matter adhering to the lens is less than q 1 , the area setting module 33b stores the magnitude Δy 0 fs of the increase in the detection regions A1, A2 equal to the initial magnitude of the increase determined based on the distance Δy across the vehicle width. When the amount of foreign substances adhering to the lens is q 1 or more and less than q 2 , the greater the number of foreign substances adhering to the lens, the smaller the area setting module 33b sets the magnitude Δy 0 fs of the increase in the detection areas A1, A2. When the amount of foreign matter adhering to the lens exceeds q 2 , the area setting module 33b sets the magnification of the detection areas A1, A2 to the smallest predetermined value Δy 0 fs ''.

[0116] Таким образом, согласно устройству 7 обнаружения сплошных объектов и способу обнаружения сплошных объектов согласно седьмому варианту осуществления, может повышаться точность обнаружения сплошных объектов, и (дополнительно) могут не допускаться, к примеру, такие ситуации, которые вызывают ошибки при обнаружении сплошных объектов, аналогично первому варианту осуществления. Также можно не допускать, к примеру, таких ситуаций, в которых области A1, A2 обнаружения чрезвычайно сужаются, вызывая ошибки при обнаружении.[0116] Thus, according to the solid object detection device 7 and the solid object detection method according to the seventh embodiment, the accuracy of detecting solid objects can be increased, and (additionally) situations, for example, that cause errors when detecting solid objects, can be prevented. , similar to the first embodiment. It is also possible to avoid, for example, situations in which the detection areas A1, A2 are extremely narrow, causing detection errors.

[0117] Согласно седьмому варианту осуществления, обнаруживается количество посторонних веществ, прилипающих к линзе камеры 10, и чем больше количество посторонних веществ, тем меньше величина Δy0fs увеличения областей A1, A2 обнаружения. Чем больше количество посторонних веществ, прилипающих к линзе, тем больший световой поток от сфотографированного субъекта блокируется и нерегулярно отражается посредством посторонних веществ, и как результат, возникают случаи, в которых изображение разделительной линии, захваченное посредством камеры 10, является искаженным или нечетким, и точность обнаружения разделительной линии уменьшается. Следовательно, в настоящем варианте осуществления, когда большее количество посторонних веществ прилипает к линзе, величина Δy0fs увеличения областей A1, A2 обнаружения уменьшается, за счет чего можно эффективно не допускать слишком большой величины увеличения областей A1, A2 обнаружения вследствие ошибки в обнаружении расстояния по ширине транспортного средства Δy между боковой поверхностью транспортного средства V и разделительной линией и эффективно не допускать ошибочного обнаружения других транспортных средств, движущихся в последующих полосах движения, по покрытию за пределами дороги и т.п., в качестве смежных транспортных средств.[0117] According to the seventh embodiment, the amount of foreign substances adhering to the lens of the camera 10 is detected, and the larger the number of foreign substances, the smaller the magnitude Δy 0 fs of the increase in detection areas A1, A2. The greater the number of foreign substances adhering to the lens, the greater the light flux from the photographed subject is blocked and irregularly reflected by foreign substances, and as a result, there are cases in which the image of the dividing line captured by the camera 10 is distorted or fuzzy, and the accuracy dividing line detection is reduced. Therefore, in the present embodiment, when a larger amount of foreign matter adheres to the lens, the magnitude Δy 0 fs of the increase in the detection areas A1, A2 is reduced, thereby preventing the too large magnification of the areas of detection A1, A2 due to an error in detecting a distance over the width of the vehicle Δy between the side surface of the vehicle V and the dividing line and to effectively prevent the erroneous detection of other vehicles moving in the aftermath boiling lanes, to cover outside of the road and the like as adjacent vehicles.

[0118] Восьмой вариант осуществления[0118] Eighth Embodiment

Далее описывается восьмой вариант осуществления настоящего изобретения. Устройство обнаружения сплошных объектов и способ обнаружения сплошных объектов согласно восьмому варианту осуществления являются аналогичными устройству обнаружения сплошных объектов и способу обнаружения сплошных объектов по первому варианту осуществления, но конфигурации и детали обработки частично отличаются. Ниже описываются точки расхождения с первым вариантом осуществления.The following describes an eighth embodiment of the present invention. The solid object detection device and the solid object detection method according to the eighth embodiment are similar to the solid object detection device and the solid object detection method of the first embodiment, but the configuration and processing details are partially different. The points of discrepancy with the first embodiment are described below.

[0119] Фиг. 31 является блок-схемой, показывающей подробности компьютера 30 согласно восьмому варианту осуществления. На фиг. 31, камера 10 и датчик 20 скорости транспортного средства также показаны для того, чтобы предоставлять понятную иллюстрацию взаимных соединений.[0119] FIG. 31 is a block diagram showing details of a computer 30 according to an eighth embodiment. In FIG. 31, a camera 10 and a vehicle speed sensor 20 are also shown in order to provide a clear illustration of the interconnections.

[0120] Компьютер 30 согласно восьмому варианту осуществления содержит модуль 40 указания типов разделительных линий (средство указания типов разделительных линий), как показано на фиг. 31. Модуль 40 указания типов разделительных линий указывает тип разделительной линии на основе изображения, захваченного посредством камеры 10. Способ для указания типа разделительной линии не ограничен конкретным образом, но модуль 40 указания типов разделительных линий, например, может указывать тип разделительной линии посредством выполнения сопоставления с шаблоном для разделительной линии, снятой посредством камеры 10. В противном случае, модуль 40 указания типов разделительных линий может указывать тип разделительной линии из картографической информации посредством указания дороги (полосы движения), на которой движется транспортное средство V, в соответствии с картографической информацией или информацией текущей позиции транспортного средства V в навигационной системе и т.п.[0120] A computer 30 according to an eighth embodiment comprises a dividing line type indicating unit 40 (dividing line type indicating means), as shown in FIG. 31. The dividing line type indicating unit 40 indicates the dividing line type based on the image captured by the camera 10. The method for indicating the dividing line type is not particularly limited, but the dividing line type indicating unit 40, for example, can indicate the type of dividing line by performing a mapping with a template for a dividing line taken by camera 10. Otherwise, the dividing line type indicating unit 40 may indicate the type of dividing line from the cart aficheskoy information by indicating the road (lane), on which the vehicle V, in accordance with the map information or the current information V of the vehicle position in a navigation system, etc.

[0121] Модуль 33b задания областей согласно восьмому варианту осуществления увеличивает области A1, A2 обнаружения наружу в направлении ширины транспортного средства на основе расстояния Δy по ширине транспортного средства между боковой поверхностью транспортного средства V и разделительной линией, аналогично первому варианту осуществления, и в восьмом варианте осуществления модуль 33b задания областей также варьирует величина Δy0fs увеличения при увеличении областей A1, A2 обнаружения на основе типа разделительной линии, указываемой посредством модуля 40 указания типов разделительных линий.[0121] The area definition module 33b according to the eighth embodiment enlarges the outward detection areas A1, A2 in the vehicle width direction based on the vehicle width Δy between the vehicle side surface V and the dividing line, similar to the first embodiment, and in the eighth embodiment the implementation of the module 33b defining areas also varies the magnitude Δy 0 fs increase with increasing areas A1, A2 detection based on the type of dividing line indicated by module 40 indicating the types of dividing lines.

[0122] Фиг. 32 является схемой, показывающей взаимосвязь между типом разделительной линии и размером областей A1, A2 обнаружения. Чем ниже вероятность того, что указанная разделительная линия является разделительной линией, которая разделяет полосу движения, по которой движется транспортное средство V, и смежную полосу движения, тем меньшей модуль 33b задания областей задает величину Δy0fs увеличения областей A1, A2 обнаружения. В примере, показанном на фиг. 32, например, модуль 33b задания областей допускает указание четырех типов разделительных линий: белая прерывистая линия, белая сплошная линия, желтая линия и составная линия. В этом случае, когда разделительная линия представляет собой белую прерывистую линию, модуль 33b задания областей оценивает из этих четырех типов разделительных линий то, что наибольшей является вероятность того, что область, смежная с полосой движения, по которой движется транспортное средство V, является смежной полосой движения, и увеличивает величину Δy0fs увеличения областей A1, A2 обнаружения на наибольшую величину из этих четырех типов разделительных линий. Когда разделительная линия представляет собой белую сплошную линию, модуль 33b задания областей оценивает то, что имеется вероятность того, что, область рядом с полосой движения, по которой движется транспортное средство V, является смежной полосой движения, и задает величину Δy0fs увеличения областей A1, A2 обнаружения таким образом, что величина Δy0fs увеличения меньше величины Δy0fs увеличения для белой прерывистой линии, но больше величины Δy0fs увеличения для других разделительных линий. Когда разделительная линия представляет собой желтую линию, модуль 33b задания областей оценивает то, что вероятность того, что область рядом с полосой движения, по которой движется транспортное средство V, является смежной полосой движения, является низкой, и уменьшает величину Δy0fs увеличения областей A1, A2 обнаружения. Когда разделительная линия представляет собой составную линию, модуль 33b задания областей оценивает то, что вероятность того, что область рядом с полосой движения, по которой движется транспортное средство V, является смежной полосой движения, является наименьшей, и уменьшает величину Δy0fs увеличения областей A1, A2 обнаружения на наибольшую величину из этих четырех типов разделительных линий.[0122] FIG. 32 is a diagram showing the relationship between the type of dividing line and the size of the detection areas A1, A2. The lower the likelihood that said dividing line is a dividing line that separates the lane along which the vehicle V is moving and the adjacent lane, the smaller the area setting module 33b sets the magnitude Δy 0 fs of the increase in the detection areas A1, A2. In the example shown in FIG. 32, for example, the area defining unit 33b allows four types of dividing lines to be indicated: a white dashed line, a white solid line, a yellow line, and a compound line. In this case, when the dividing line is a white dashed line, the area setting unit 33b judges from these four types of dividing lines that the greatest probability is that the area adjacent to the lane along which the vehicle V moves is an adjacent lane motion, and increases the magnitude Δy 0 fs of the increase in the detection areas A1, A2 by the largest of these four types of dividing lines. When the dividing line is a white solid line, the area defining unit 33b estimates that there is a possibility that the area next to the lane in which the vehicle V moves is an adjacent lane and sets the magnitude Δy 0 fs to increase the areas A1 , A2 of detection so that the magnitude Δy 0 fs of the increase is less than the magnitude Δy 0 fs of the increase for the white dashed line, but greater than the magnitude of Δy 0 fs of the increase for other dividing lines. When the dividing line is a yellow line, the area defining unit 33b estimates that the probability that the area near the lane that the vehicle V is moving in the adjacent lane is low and reduces the magnitude Δy 0 fs of the increase in areas A1 , A2 detection. When the dividing line is a composite line, the area defining unit 33b estimates that the probability that the area near the lane in which the vehicle V is adjacent the lane is the smallest and reduces the magnitude Δy 0 fs of the increase in areas A1 , A2 detecting the largest value of these four types of dividing lines.

[0123] Таким образом, согласно устройству 8 обнаружения сплошных объектов и способу обнаружения сплошных объектов согласно восьмому варианту осуществления, может повышаться точность обнаружения сплошных объектов, и (дополнительно) могут не допускаться, к примеру, такие ситуации, которые вызывают ошибки при обнаружении сплошных объектов, аналогично первому варианту осуществления. Также можно не допускать, к примеру, таких ситуаций, в которых области A1, A2 обнаружения чрезвычайно сужаются, вызывая ошибки при обнаружении.[0123] Thus, according to the solid object detection device 8 and the solid object detection method according to the eighth embodiment, the accuracy of detecting solid objects can be improved, and (optionally) situations that cause errors when detecting solid objects can be prevented, for example , similar to the first embodiment. It is also possible to avoid, for example, situations in which the detection areas A1, A2 are extremely narrow, causing detection errors.

[0124] Согласно восьмому варианту осуществления, указывается тип разделительной линии, и различная величина Δy0fs увеличения областей A1, A2 обнаружения используется на основе указанного типа разделительной линии. Например, когда тип разделительной линии представляет собой желтую линию или составную линию, возможно то, что область рядом с полосой движения, по которой движется транспортное средство V, является обочиной, находится за пределами дороги или на встречной полосе движения, и в этом случае имеется большая вероятность того, что обнаруживается покрытие, искажения и т.п. за пределами дороги, когда увеличиваются области A1, A2 обнаружения, и точность обнаружения сплошных объектов (других транспортных средств и т.п.) снижается. В настоящем варианте осуществления, когда тип разделительной линии представляет собой желтую линию или составную линию, например, обнаружение покрытия, искажений и т.п. за пределами дороги может эффективно подавляться посредством подавления увеличения областей A1, A2 обнаружения. Когда тип разделительной линии представляет собой белую прерывистую линию или белую сплошную линию, область рядом с полосой движения, по которой движется транспортное средство V, возможно является смежной полосой движения, когда сплошной объект (другое транспортное средство V) в смежной полосе движения может быть надлежащим образом обнаружен посредством надлежащего увеличения областей A1, A2 обнаружения в соответствии с расстоянием Δy по ширине транспортного средства.[0124] According to the eighth embodiment, a type of dividing line is indicated, and a different magnification Δy 0 fs of magnification of the detection areas A1, A2 is used based on the specified type of dividing line. For example, when the dividing line type is a yellow line or a composite line, it is possible that the area near the lane that the vehicle V is moving along is a roadside, off road or in an oncoming lane, in which case there is a large the likelihood of detecting coverage, distortion, etc. off-road, when the detection areas A1, A2 increase, and the detection accuracy of solid objects (other vehicles, etc.) is reduced. In the present embodiment, when the type of dividing line is a yellow line or a composite line, for example, detecting coverage, distortion, and the like. off road can be effectively suppressed by suppressing an increase in detection areas A1, A2. When the dividing line type is a white dashed line or a white solid line, the area adjacent to the lane in which the vehicle V is moving may be an adjacent lane when a solid object (another V vehicle) in the adjacent lane can be properly detected by appropriately increasing the detection areas A1, A2 in accordance with the vehicle width Δy.

[0125] Настоящее изобретение описано выше на основе вариантов осуществления, но настоящее изобретение не ограничено вышеописанными вариантами осуществления, и изменения могут вноситься, а варианты осуществления могут комбинироваться в диапазоне, который не отклоняется от объема настоящего изобретения.[0125] The present invention is described above based on embodiments, but the present invention is not limited to the above described embodiments, and changes may be made, and embodiments may be combined in a range that does not deviate from the scope of the present invention.

[0126] Например, в третьем варианте осуществления, описанном выше, проиллюстрирована конфигурация, в которой величина Δy0fs увеличения при увеличении размеров областей A1, A2 обнаружения уменьшена в течение определенной длительности в случаях, в которых смена полосы движения, выполняемая транспортным средством V, обнаружена посредством модуля 36 обнаружения смены полосы движения, но возможное дополнение в эту конфигурацию представляет собой дополнение, в котором вычисляется скорость перемещения транспортного средства V в направлении ширины транспортного средства, когда обнаруживается смена полосы движения, выполняемая транспортным средством V, и чем выше скорость перемещения транспортного средства V в направлении ширины транспортного средства, тем меньше величина Δy0fs увеличения при увеличении размеров областей A1, A2 обнаружения. В этом случае, чем выше скорость перемещения транспортного средства V в направлении ширины транспортного средства, тем выше вероятность смены полосы движения транспортным средством V, которая может оцениваться. Следовательно, посредством установления величины Δy0fs увеличения областей A1, A2 обнаружения тем меньшей, чем более высокой является скорость перемещения транспортного средства V в направлении ширины транспортного средства, можно эффективно не допускать слишком существенного увеличения областей A1, A2 обнаружения и задания областей A1, A2 обнаружения в последующих полосах движения вследствие смены полосы движения транспортным средством V. Способ для вычисления скорости перемещения транспортного средства V в направлении ширины транспортного средства не ограничен конкретным образом, и модуль 33b задания областей может вычислять скорость перемещения транспортного средства V в направлении ширины транспортного средства либо на основе изменения во времени расстояния Δy по ширине транспортного средства от боковой поверхности транспортного средства V до разделительной линии, обнаруженного посредством модуля 34 обнаружения поперечной позиции, либо посредством использования датчика поперечного ускорения (не показан).[0126] For example, in a third embodiment described above, a configuration is illustrated in which an increase Δy 0 fs with an increase in the size of the detection regions A1, A2 is reduced for a certain duration in cases in which a change of lane performed by the vehicle V, detected by the lane change detection module 36, but a possible addition to this configuration is an addition in which the vehicle speed V in the width direction is calculated of a vehicle when a lane change detected by the vehicle V is detected, and the higher the vehicle speed V in the vehicle width direction, the smaller the increase Δy 0 fs with increasing size of the detection areas A1, A2. In this case, the higher the speed of the vehicle V in the direction of the width of the vehicle, the higher the probability of changing the lane of the vehicle V, which can be estimated. Therefore, by setting the magnitude Δy 0 fs of the increase in the detection areas A1, A2 to be smaller, the higher is the speed of the vehicle V in the width direction of the vehicle, it is possible to effectively prevent a too large increase in the detection areas A1, A2 and setting the areas A1, A2 detection in subsequent lanes due to a change in the lane of the vehicle V. A method for calculating the speed of movement of the vehicle V in the width direction of the vehicle The means are not limited in a specific way, and the area setting module 33b can calculate the vehicle speed V in the direction of the vehicle width, or based on the time variation of the distance Δy along the vehicle width from the side surface of the vehicle V to the dividing line detected by the module 34 detecting a transverse position, or by using a transverse acceleration sensor (not shown).

[0127] В шестом варианте осуществления, описанном выше, проиллюстрирована конфигурация, в которой после того, как области A1, A2 обнаружения смещаются наружу в направлении ширины транспортного средства на основе расстояния Δy по ширине транспортного средства от боковой поверхности транспортного средства V до разделительной линии, размеры областей A1, A2 обнаружения увеличиваются наружу в направлении ширины транспортного средства, но конфигурация не ограничена этим, и другой возможный вариант, например, состоит в том, что размеры областей A1, A2 обнаружения увеличиваются наружу в направлении ширины транспортного средства, в то время как области A1, A2 обнаружения одновременно смещаются наружу в направлении ширины транспортного средства.[0127] In the sixth embodiment described above, a configuration is illustrated in which, after the detection areas A1, A2 are shifted outward in the vehicle width direction based on the vehicle width Δy from the vehicle side surface V to the dividing line, the dimensions of the detection regions A1, A2 increase outward in the width direction of the vehicle, but the configuration is not limited thereto, and another possible option, for example, is that the dimensions of the regions A1, A2 are naruzheniya increases outward in the vehicle width direction, whereas the region A1, A2 detection simultaneously displaced outwardly in the vehicle width direction.

[0128] Кроме того, в вариантах осуществления, описанных выше, скорость транспортного средства V оценивается на основе сигнала из датчика 20 скорости транспортного средства, но оценка скорости транспортного средства не ограничена этим, и скорость транспортного средства может быть оценена из множества изображений в различные моменты времени. В этом случае, датчик скорости транспортного средства является необязательным, и конфигурация может быть упрощена. Поведение транспортного средства также может оцениваться исключительно из изображений.[0128] Furthermore, in the embodiments described above, the vehicle speed V is estimated based on a signal from the vehicle speed sensor 20, but the vehicle speed estimate is not limited thereto, and the vehicle speed can be estimated from a plurality of images at various times time. In this case, the vehicle speed sensor is optional, and the configuration can be simplified. Vehicle behavior can also be evaluated solely from images.

[0129] Дополнительно, в вышеописанных вариантах осуществления, захваченное изображение текущего времени и изображение времени на один период раньше преобразуются в виды с высоты птичьего полета, разностное изображение PDt формируется после комбинирования преобразованных видов с высоты птичьего полета, и сформированное разностное изображение PDt оценивается вдоль направления попадания в поле зрения (направления, в котором сплошной объект попадает в поле зрения, когда захваченные изображения преобразуются в виды с высоты птичьего полета), чтобы формировать форму DWt разностного сигнала, но настоящее изобретение не ограничено этим. В другом возможном варианте, например, только изображение времени на один период раньше преобразуется в вид с высоты птичьего полета, преобразованный вид с высоты птичьего полета преобразуется в эквивалент захваченного изображения после позиционного совмещения, разностное изображение формируется из этого изображения и изображения текущего времени, и форма DWt разностного сигнала формируется посредством оценки сформированного разностного изображения вдоль направления, эквивалентного направлению попадания в поле зрения (т.е. направления, полученного посредством преобразования направления попадания в поле зрения в направление на захваченном изображении). В частности, если изображение текущего времени и изображение времени на один период раньше позиционно совмещаются, разностное изображение PDt формируется из разности двух позиционно совмещенных изображений, и разностное изображение PDt может быть оценено вдоль направления попадания в поле зрения сплошного объекта, когда изображение преобразуется в вид с высоты птичьего полета; совершенно необязательно формировать вид с высоты птичьего полета.[0129] Further, in the above embodiments, the captured current time image and the time image are previously converted to bird's-eye views one time, the differential image PD t is formed after combining the converted views from the bird's-eye, and the generated differential image PD t is evaluated along the direction of falling into the field of view (the direction in which the solid object enters the field of view when the captured images are converted into bird's-eye views), to form the differential waveform DW t , but the present invention is not limited thereto. In another possible embodiment, for example, only a time image is converted one time earlier into a bird's-eye view, the converted bird-eye view is converted to the equivalent of the captured image after positional alignment, a difference image is formed from this image and the current time image, and the shape DW t of the difference signal is generated by evaluating the generated difference image along a direction equivalent to the direction of getting into the field of view (i.e., the direction obtained by converting the direction of getting into the field of view into the direction on the captured image). In particular, if the current time image and the time image are positionally aligned one period earlier, the difference image PD t is formed from the difference of two positionally aligned images, and the difference image PD t can be estimated along the direction of falling into the field of view of a solid object when the image is converted to bird's-eye view; it is not necessary to form a bird's-eye view.

[0130] Устройства 1-3 обнаружения сплошных объектов согласно настоящим вариантам осуществления обнаруживают сплошной объект на основе формы DWt разностного сигнала, но не ограничено по сути, и, например, могут обнаруживать сплошной объект посредством использования оптического потока или шаблона изображения. Кроме того, обнаружение сплошного объекта ограничивается использованием формы DWt разностного сигнала, и может использоваться разностное изображение PDt. Кроме того, когда размеры областей A1, A2 обнаружения увеличиваются, размеры самих областей A1, A2 обнаружения изменяются в настоящем варианте осуществления, но настоящее изобретение не ограничено этим, и могут задаваться участки увеличения, отдельные от областей A1, A2 обнаружения.[0130] The solid object detection apparatuses 1-3 according to the present embodiments detect a solid object based on the difference waveform DW t , but are not limited in nature, and, for example, can detect a solid object by using an optical stream or an image pattern. In addition, the detection of a solid object is limited to using the differential waveform DW t , and a differential image PD t may be used. Furthermore, when the sizes of the detection areas A1, A2 increase, the sizes of the detection areas A1, A2 themselves change in the present embodiment, but the present invention is not limited thereto, and enlargement portions separate from the detection areas A1, A2 can be set.

[0131] Кроме того, модуль 32 позиционного совмещения в настоящем варианте осуществления позиционно совмещает позиции изображений вида с высоты птичьего полета в различные моменты времени в виде с высоты птичьего полета, но этот процесс "позиционного совмещения" может быть выполнен с точностью, соответствующей типу цели обнаружения или требуемой точности обнаружения. Например, строгое позиционное совмещение может быть выполнено на основе идентичного времени или идентичной позиции, или слабое позиционное совмещение может быть выполнено только в достаточной величины для того, чтобы воспринимать координаты изображений при виде с высоты птичьего полета.[0131] In addition, the positional alignment module 32 in the present embodiment positionally aligns the position of the bird's-eye view images at various times in the form of the bird's-eye view, but this “positional alignment” process can be performed with an accuracy corresponding to the type of target detection or required detection accuracy. For example, strict positional alignment can be performed on the basis of identical time or identical position, or weak positional alignment can be performed only in a sufficient amount to perceive the coordinates of the images when viewed from a bird's-eye view.

Обозначения номеров ссылокLink Number Designations

[0132] 1-3 - устройства определения проезжаемого расстояния[0132] 1-3 - devices for determining the distance traveled

10 - камера (устройство захвата изображений)10 - camera (image capture device)

20 - датчик скорости транспортного средства20 - vehicle speed sensor

30 - компьютер30 - computer

31 - модуль преобразования точки обзора31 - viewpoint conversion module

32 - модуль позиционного совмещения32 - positional alignment module

33 - модуль обнаружения сплошных объектов (средство обнаружения сплошных объектов)33 - solid object detection module (solid object detection means)

33a - модуль формирования форм разностных сигналов33a - differential waveform generation module

33b - модуль задания областей (средство задания областей)33b - area definition module (area definition tool)

34 - модуль обнаружения поперечной позиции (средство обнаружения поперечной позиции)34 — transverse position detection module (transverse position detection means)

35 - модуль обнаружения ширины полос движения (средство обнаружения ширины)35 - lane width detection module (width detection means)

36 - модуль обнаружения смены полосы движения (средство обнаружения смены полосы движения)36 - lane change detection module (lane change detection means)

37 - модуль обнаружения линий на земной поверхности (средство обнаружения линий на земной поверхности)37 - module detecting lines on the earth's surface (means for detecting lines on the earth's surface)

38 - модуль определения состояния поворота (средство определения состояния поворота)38 - module for determining the state of rotation (means for determining the state of rotation)

39 - модуль обнаружения посторонних веществ (средство обнаружения посторонних веществ)39 - module detecting foreign substances (means for detecting foreign substances)

40 - модуль указания типов разделительных линий (средство указания типов разделительных линий)40 - module for indicating the types of dividing lines (means for indicating the types of dividing lines)

a - угол обзораa - viewing angle

A1, A2 - области обнаруженияA1, A2 - detection areas

CP - точка пересеченияCP - intersection point

DP - разностные пикселыDP - difference pixels

DWt, DWt' - формы разностных сигналовDW t , DW t '- differential waveforms

La, Lb - линии вдоль направления попадания в поле зрения сплошного объектаLa, Lb - lines along the direction of falling into the field of view of a solid object

PBt - изображение при виде с высоты птичьего полетаPB t - bird's-eye view

PD - разностное изображениеPD - differential image

V - транспортное средство, другое транспортное средствоV - vehicle, another vehicle

Δy - расстояние по ширине транспортного средстваΔy - distance across the width of the vehicle

Claims (12)

1. Устройство обнаружения сплошных объектов для обнаружения сплошного объекта, движущегося в смежной полосе движения, которая является смежной через разделительную линию, служащую в качестве границы для полосы движения, по которой движется транспортное средство, причем устройство обнаружения сплошных объектов отличается тем, что оно содержит:
- средство захвата изображений для захвата изображения, включающего в себя разделительную линию и предварительно определенную область смежной полосы движения, причем средство захвата изображений установлено в транспортном средстве;
- средство оценки сплошных объектов для оценки того, присутствует ли или нет сплошной объект в изображении предварительно определенной области, захваченном посредством средства захвата изображений;
- средство обнаружения поперечной позиции для обнаружения из изображения, захваченного посредством средства захвата изображений, расстояния по ширине транспортного средства между разделительной линией и позицией транспортного средства в полосе, по которой движется транспортное средство;
- средство задания областей для увеличения размера предварительно определенной области, размещенной на стороне, на которой находится разделительная линия, дальше наружу в направлении ширины транспортного средства согласно увеличению расстояния по ширине транспортного средства до разделительной линии, обнаруженному посредством средства обнаружения поперечной позиции; и
- средство обнаружения смены полосы движения для обнаружения смены полосы движения, выполняемой транспортным средством;
- причем величина, на которую размер предварительно определенной области увеличивается наружу в направлении ширины транспортного средства, уменьшается посредством средства задания областей, когда смена полосы движения, выполняемая транспортным средством, обнаруживается посредством средства обнаружения смены полосы движения.
1. A solid object detection device for detecting a solid object moving in an adjacent lane that is adjacent through a dividing line serving as a boundary for a lane along which the vehicle is moving, wherein the solid object detection device is characterized in that it comprises:
- image capturing means for capturing an image including a dividing line and a predetermined area of an adjacent lane, wherein the image capturing means is installed in the vehicle;
- solid object evaluation means for evaluating whether or not a solid object is present in an image of a predetermined area captured by the image capturing means;
- transverse position detection means for detecting from an image captured by the image capturing means, a vehicle width distance between a dividing line and a vehicle position in a strip along which the vehicle is traveling;
- means for defining areas for increasing the size of a predetermined area located on the side on which the dividing line is located, further outward in the width direction of the vehicle according to the increase in the distance along the vehicle width to the dividing line detected by means of detecting the transverse position; and
- lane change detection means for detecting a lane change performed by the vehicle;
- wherein the amount by which the size of the predetermined area increases outward in the vehicle width direction is decreased by the area setting means when the lane change performed by the vehicle is detected by the lane change detection means.
2. Устройство обнаружения сплошных объектов по п. 1, отличающееся тем, что средство задания областей вычисляет скорость перемещения транспортного средства в направлении ширины транспортного средства, когда смена полосы движения, выполняемая транспортным средством, обнаруживается посредством средства обнаружения смены полосы движения; и вызывает уменьшение величины, на которую размер предварительно определенной области увеличивается наружу в направлении ширины транспортного средства, согласно увеличению скорости перемещения в направлении ширины транспортного средства.2. The solid object detection device according to claim 1, characterized in that the area setting means calculates the vehicle speed in the vehicle width direction when the lane change performed by the vehicle is detected by the lane change detection means; and causes a decrease in the amount by which the size of the predetermined area increases outward in the vehicle width direction, according to an increase in the travel speed in the vehicle width direction. 3. Устройство обнаружения сплошных объектов по п. 1 или 2, отличающееся тем, что оно дополнительно содержит средство обнаружения ширины для обнаружения ширины полосы движения для полосы, по которой движется транспортное средство, или смежной полосы движения;
- причем величина, на которую размер предварительно определенной области увеличивается наружу в направлении ширины транспортного средства, уменьшается посредством средства задания областей согласно уменьшению ширины полосы движения, обнаруженной посредством средства обнаружения ширины.
3. The solid object detection device according to claim 1 or 2, characterized in that it further comprises a width detection means for detecting a lane width for a lane along which the vehicle is moving or an adjacent lane;
- moreover, the amount by which the size of the predefined area increases outward in the width direction of the vehicle is reduced by means of defining areas according to the reduction of the width of the lane detected by means of detecting the width.
4. Устройство обнаружения сплошных объектов по п. 1 или 2, отличающееся тем, что, когда средство задания областей увеличивает размер предварительно определенной области, средство задания областей увеличивает предварительно определенную область в приращениях предварительно определенного предписанного значения увеличения посредством множественных итераций процесса, и, когда средство задания областей возвращает увеличенную предварительно определенную область к первоначальному размеру, средство задания областей сужает предварительно определенную область внутрь в направлении ширины транспортного средства в приращениях предписанного значения, меньшего предписанного значения увеличения, посредством множественных итераций процесса.4. The device for detecting solid objects according to claim 1 or 2, characterized in that when the means for defining regions increases the size of a predefined region, the means for defining regions increases a predefined region in increments of a predetermined prescribed magnification value by means of multiple iterations of the process, and when the area setting tool returns the enlarged predefined area to its original size, the area setting tool narrows down a certain region inward in the direction of the width of the vehicle in increments of the prescribed value, less than the prescribed value of the increase, through multiple iterations of the process. 5. Устройство обнаружения сплошных объектов по п. 1 или 2, отличающееся тем, что, когда сплошной объект обнаружен, средство задания областей вызывает предписанное значение, которое ниже, чем когда сплошной объект не обнаружен.5. The device for detecting solid objects according to claim 1 or 2, characterized in that when a solid object is detected, the means for defining the areas calls the prescribed value, which is lower than when the solid object is not detected. 6. Устройство обнаружения сплошных объектов по п. 1 или 2, отличающееся тем, что оно дополнительно содержит средство обнаружения линий на земной поверхности для обнаружения линии на земной поверхности сплошного объекта, движущегося в смежной полосе движения;
- причем величина, на которую размер предварительно определенной области увеличивается наружу в направлении ширины транспортного средства, уменьшается посредством средства задания областей согласно снижению расстояния в направлении ширины транспортного средства от транспортного средства до линии на земной поверхности.
6. The device for detecting solid objects according to claim 1 or 2, characterized in that it further comprises means for detecting lines on the earth's surface for detecting a line on the earth's surface of a solid object moving in an adjacent lane;
- moreover, the amount by which the size of the predefined area increases outward in the width direction of the vehicle is reduced by means of defining areas according to a decrease in the distance in the width direction of the vehicle from the vehicle to the line on the earth's surface.
7. Устройство обнаружения сплошных объектов по п. 1 или 2, отличающееся тем, что оно дополнительно содержит средство определения состояния поворота для обнаружения состояния поворота транспортного средства;
- причем величина, на которую размер предварительно определенной области увеличивается наружу в направлении ширины транспортного средства, уменьшается посредством средства задания областей согласно уменьшению радиуса поворота транспортного средства, обнаруженного посредством средства определения состояния поворота.
7. The device for detecting solid objects according to claim 1 or 2, characterized in that it further comprises means for determining a turning state for detecting a turning state of a vehicle;
- moreover, the amount by which the size of the predefined area increases outward in the width direction of the vehicle is reduced by means of defining areas according to the reduction of the turning radius of the vehicle detected by means of determining the state of rotation.
8. Устройство обнаружения сплошных объектов по п. 1 или 2, отличающееся тем, что, когда расстояние по ширине транспортного средства составляет предварительно определенное значение или более, средство задания областей перемещает предварительно определенную область наружу в направлении ширины транспортного средства и увеличивает размер предварительно определенной области наружу в направлении ширины транспортного средства.8. The solid object detection device according to claim 1 or 2, characterized in that when the distance across the width of the vehicle is a predetermined value or more, the area defining means moves the predetermined area outward in the width direction of the vehicle and increases the size of the predetermined area outward in the width direction of the vehicle. 9. Устройство обнаружения сплошных объектов по п. 8, отличающееся тем, что средство задания областей увеличивает размер предварительно определенной области наружу в направлении ширины транспортного средства после перемещения предварительно определенной области наружу в направлении ширины транспортного средства.9. The solid object detection device according to claim 8, characterized in that the area defining means increases the size of the predetermined area outward in the width direction of the vehicle after moving the predetermined area outward in the width direction of the vehicle. 10. Устройство обнаружения сплошных объектов по п. 1 или 2, отличающееся тем, что оно дополнительно содержит средство обнаружения посторонних веществ для обнаружения посторонних веществ, прилипших к линзе средства захвата изображений;
- причем величина, на которую размер предварительно определенной области увеличивается наружу в направлении ширины транспортного средства, уменьшается посредством средства задания областей согласно увеличению количества посторонних веществ, обнаруженных посредством средства обнаружения посторонних веществ.
10. The device for detecting solid objects according to claim 1 or 2, characterized in that it further comprises means for detecting foreign substances for detecting foreign substances adhering to the lens of the image pickup means;
- moreover, the amount by which the size of the predefined area increases outward in the width direction of the vehicle is reduced by means of defining areas according to the increase in the number of foreign substances detected by means of detection of foreign substances.
11. Устройство обнаружения сплошных объектов по п. 1 или 2, отличающееся тем, что оно дополнительно содержит средство указания типов разделительных линий для указания типа разделительной линии;
- причем средство задания областей вызывает варьирование величины, на которую размер предварительно определенной области увеличивается наружу в направлении ширины транспортного средства, на основе типа разделительной линии, указанной посредством средства указания типов разделительных линий.
11. The device for detecting solid objects according to claim 1 or 2, characterized in that it further comprises means for indicating the types of dividing lines to indicate the type of dividing line;
- wherein the area defining means causes a variation in the amount by which the size of the predefined region increases outward in the vehicle width direction based on the type of dividing line indicated by the means for indicating the types of dividing lines.
12. Способ обнаружения сплошных объектов для обнаружения сплошного объекта, движущегося в смежной полосе движения, которая является смежной через разделительную линию, служащую в качестве границы для полосы движения, по которой движется транспортное средство, причем способ обнаружения сплошных объектов отличается тем, что он содержит:
- этап захвата изображений, на котором захватывают изображение, включающее в себя разделительную линию и предварительно определенную область смежной полосы движения, из транспортного средства;
- этап оценки сплошных объектов, на котором оценивают, присутствует ли или нет сплошной объект в изображении предварительно определенной области, захваченном посредством средства захвата изображений;
- этап обнаружения поперечной позиции, на котором обнаруживают расстояние по ширине транспортного средства между разделительной линией и позицией транспортного средства в полосе, по которой движется транспортное средство, из изображения, полученного посредством захвата изображений на этапе захвата изображений;
- этап обнаружения смены полосы движения, на котором обнаруживают смену полосы движения, выполняемую транспортным средством; и
- этап задания области, на котором вызывают увеличение величины, на которую размер предварительно определенной области увеличивается наружу в направлении ширины транспортного средства, согласно увеличению расстояния по ширине транспортного средства до разделительной линии, обнаруженного на этапе обнаружения поперечной позиции, причем предварительно определенная область размещается на стороне, на которой находится разделительная линия; и уменьшают величину, на которую размер предварительно определенной области увеличивается наружу в направлении ширины транспортного средства, когда обнаруживается смена полосы движения, выполняемая транспортным средством.
12. A method for detecting solid objects to detect a solid object moving in an adjacent lane that is adjacent through a dividing line serving as a boundary for a lane along which the vehicle is moving, the method for detecting solid objects is characterized in that it comprises:
an image capturing step of capturing an image including a dividing line and a predetermined area of an adjacent lane from a vehicle;
- a step for evaluating solid objects, in which it is judged whether or not a solid object is present in the image of a predetermined area captured by means of image capturing;
- a step of detecting a transverse position, at which a distance across the width of the vehicle between the dividing line and the position of the vehicle in the strip along which the vehicle is moving is detected from the image obtained by capturing images in the image capturing step;
- a lane change detection step of detecting a lane change performed by a vehicle; and
- a step of defining an area at which an increase in the size by which the size of the predetermined area increases outward in the vehicle width direction is caused, according to an increase in the distance along the vehicle width to the dividing line detected in the step of detecting the transverse position, the predetermined area being placed on the side on which the dividing line is located; and reduce the amount by which the size of the predefined area increases outward in the width direction of the vehicle when a change in lane performed by the vehicle is detected.
RU2014107926/11A 2011-08-02 2012-07-27 Detector of solid objects and detection of solid objects RU2563534C1 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2011-168904 2011-08-02
JP2011168904 2011-08-02
PCT/JP2012/069094 WO2013018673A1 (en) 2011-08-02 2012-07-27 Object detector and object detection method

Publications (1)

Publication Number Publication Date
RU2563534C1 true RU2563534C1 (en) 2015-09-20

Family

ID=47629197

Family Applications (1)

Application Number Title Priority Date Filing Date
RU2014107926/11A RU2563534C1 (en) 2011-08-02 2012-07-27 Detector of solid objects and detection of solid objects

Country Status (9)

Country Link
US (1) US9092676B2 (en)
EP (1) EP2741271B8 (en)
JP (1) JP5761349B2 (en)
CN (1) CN103718224B (en)
BR (1) BR112014001824B1 (en)
MX (1) MX2014000652A (en)
MY (1) MY183995A (en)
RU (1) RU2563534C1 (en)
WO (1) WO2013018673A1 (en)

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5916444B2 (en) * 2012-03-08 2016-05-11 日立建機株式会社 Mining vehicle
EP2879111A4 (en) * 2012-07-27 2016-10-19 Clarion Co Ltd Image processing device
JP6163207B2 (en) * 2013-07-18 2017-07-12 クラリオン株式会社 In-vehicle device
JP6467776B2 (en) * 2014-03-13 2019-02-13 株式会社リコー Ranging system, information processing apparatus, information processing method, and program
CN103942960B (en) * 2014-04-22 2016-09-21 深圳市宏电技术股份有限公司 A kind of vehicle lane change detection method and device
JP6132359B2 (en) * 2014-10-20 2017-05-24 株式会社Soken Traveling line recognition device
JP6532229B2 (en) * 2014-12-18 2019-06-19 株式会社デンソーテン Object detection apparatus, object detection system, object detection method and program
JP6581379B2 (en) * 2015-03-31 2019-09-25 株式会社デンソー Vehicle control apparatus and vehicle control method
US20170248958A1 (en) * 2016-02-25 2017-08-31 Delphi Technologies, Inc. Adjacent lane verification for an automated vehicle
BR112018069472B1 (en) * 2016-03-24 2023-12-19 Nissan Motor Co., Ltd TRAFFIC LANE DETECTION METHOD AND TRAFFIC LANE DETECTION DEVICE
US9910440B2 (en) * 2016-05-13 2018-03-06 Delphi Technologies, Inc. Escape-path-planning system for an automated vehicle
JP6809531B2 (en) * 2016-10-07 2021-01-06 日産自動車株式会社 Vehicle determination method, travel route correction method, vehicle determination device, and travel route correction device
CN110023712A (en) * 2017-02-28 2019-07-16 松下知识产权经营株式会社 It is displaced measuring device and displacement measuring method
JP6530782B2 (en) * 2017-06-09 2019-06-12 株式会社Subaru Vehicle control device
KR102374916B1 (en) * 2017-09-29 2022-03-16 주식회사 만도모빌리티솔루션즈 Apparatus and Method for Controlling Lane-Keeping
US10576894B2 (en) * 2018-06-04 2020-03-03 Fca Us Llc Systems and methods for controlling vehicle side mirrors and for displaying simulated driver field of view
JP7156225B2 (en) * 2019-09-20 2022-10-19 株式会社デンソーテン Attached matter detection device and attached matter detection method
CN114078246A (en) * 2020-08-11 2022-02-22 华为技术有限公司 Method and device for determining three-dimensional information of detection object
JP7486657B2 (en) 2021-02-22 2024-05-17 日立Astemo株式会社 Rear monitoring device
WO2023157721A1 (en) * 2022-02-17 2023-08-24 株式会社デンソー Vehicle control device and vehicle control method
CN118050054A (en) * 2024-04-16 2024-05-17 中国民用航空飞行学院 Flight safety real-time monitoring system and method based on intelligent data analysis

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000149197A (en) 1998-11-17 2000-05-30 Toyota Motor Corp Vehicle circumference monitoring device
JP2000161915A (en) * 1998-11-26 2000-06-16 Matsushita Electric Ind Co Ltd On-vehicle single-camera stereoscopic vision system
JP3846341B2 (en) * 2002-03-20 2006-11-15 日産自動車株式会社 Vehicle rearward monitoring device
DE10218010A1 (en) * 2002-04-23 2003-11-06 Bosch Gmbh Robert Method and device for lateral guidance support in motor vehicles
JP3991915B2 (en) * 2003-05-12 2007-10-17 日産自動車株式会社 VEHICLE DRIVE OPERATION ASSISTANCE DEVICE AND VEHICLE HAVING THE DEVICE
US8130269B2 (en) * 2005-03-23 2012-03-06 Aisin Aw Co., Ltd. Visual recognition apparatus, methods, and programs for vehicles
JP4855158B2 (en) * 2006-07-05 2012-01-18 本田技研工業株式会社 Driving assistance device
JP2008100554A (en) * 2006-10-17 2008-05-01 Yamaha Motor Co Ltd Rear side visual recognition device
JP4420011B2 (en) * 2006-11-16 2010-02-24 株式会社日立製作所 Object detection device
JP2008219063A (en) 2007-02-28 2008-09-18 Sanyo Electric Co Ltd Apparatus and method for monitoring vehicle's surrounding
DE102007044535B4 (en) * 2007-09-18 2022-07-14 Bayerische Motoren Werke Aktiengesellschaft Method for driver information in a motor vehicle
JP2009116723A (en) * 2007-11-08 2009-05-28 Denso Corp Lane change support system
JP5359085B2 (en) * 2008-03-04 2013-12-04 日産自動車株式会社 Lane maintenance support device and lane maintenance support method
KR101356201B1 (en) * 2008-09-19 2014-01-24 현대자동차주식회사 Rear side sensing system for vehicle

Also Published As

Publication number Publication date
MY183995A (en) 2021-03-17
EP2741271B8 (en) 2019-09-11
US9092676B2 (en) 2015-07-28
US20140147007A1 (en) 2014-05-29
CN103718224B (en) 2016-01-13
EP2741271B1 (en) 2019-04-03
BR112014001824B1 (en) 2021-04-20
MX2014000652A (en) 2014-04-30
EP2741271A4 (en) 2015-08-19
BR112014001824A2 (en) 2017-02-21
CN103718224A (en) 2014-04-09
JPWO2013018673A1 (en) 2015-03-05
JP5761349B2 (en) 2015-08-12
EP2741271A1 (en) 2014-06-11
WO2013018673A1 (en) 2013-02-07

Similar Documents

Publication Publication Date Title
RU2563534C1 (en) Detector of solid objects and detection of solid objects
RU2636120C2 (en) Three-dimensional object detecting device
US9349057B2 (en) Three-dimensional object detection device
EP2741256B1 (en) Moving body detection device and method
EP2879382B1 (en) Three-dimensional object detection device and foreign object detection device
US9558556B2 (en) Three-dimensional object detection device
RU2571368C1 (en) Device for detecting three-dimensional objects, method of detecting three-dimensional objects
US9569675B2 (en) Three-dimensional object detection device, and three-dimensional object detection method
US9297641B2 (en) Detection of obstacles at night by analysis of shadows
US9591274B2 (en) Three-dimensional object detection device, and three-dimensional object detection method
EP2797320B1 (en) Object detection device
RU2570892C1 (en) Device for detecting three-dimensional objects and method of detecting three-dimensional objects
JP5943077B2 (en) Three-dimensional object detection apparatus and three-dimensional object detection method
RU2636121C2 (en) Three-dimensional object detecting device
WO2017145605A1 (en) Image processing device, image pickup device, moving body apparatus control system, image processing method, and program
WO2013129354A1 (en) Three-dimensional object detection device
EP2821981A1 (en) Three-dimensional object detection device
JP5999183B2 (en) Three-dimensional object detection apparatus and three-dimensional object detection method
JP2013173427A (en) Three-dimensional object detecting device