KR20210087238A - Apparatus and method for generating virtual lane - Google Patents

Apparatus and method for generating virtual lane Download PDF

Info

Publication number
KR20210087238A
KR20210087238A KR1020200000248A KR20200000248A KR20210087238A KR 20210087238 A KR20210087238 A KR 20210087238A KR 1020200000248 A KR1020200000248 A KR 1020200000248A KR 20200000248 A KR20200000248 A KR 20200000248A KR 20210087238 A KR20210087238 A KR 20210087238A
Authority
KR
South Korea
Prior art keywords
vehicle
virtual lane
unit
lane
driving environment
Prior art date
Application number
KR1020200000248A
Other languages
Korean (ko)
Other versions
KR102302285B1 (en
Inventor
김성희
Original Assignee
주식회사 경신
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 경신 filed Critical 주식회사 경신
Priority to KR1020200000248A priority Critical patent/KR102302285B1/en
Publication of KR20210087238A publication Critical patent/KR20210087238A/en
Application granted granted Critical
Publication of KR102302285B1 publication Critical patent/KR102302285B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/21Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using visual output, e.g. blinking lights or matrix displays
    • B60K35/23Head-up displays [HUD]
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/20Optical features of instruments
    • B60K2360/31Virtual images
    • B60K2370/1529
    • B60K2370/31
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/146Display means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2555/00Input parameters relating to exterior conditions, not covered by groups B60W2552/00, B60W2554/00
    • B60W2555/20Ambient conditions, e.g. wind or rain
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60YINDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
    • B60Y2400/00Special features of vehicle units
    • B60Y2400/30Sensors

Landscapes

  • Engineering & Computer Science (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Human Computer Interaction (AREA)
  • Traffic Control Systems (AREA)
  • Instrument Panels (AREA)

Abstract

The present invention relates to a deive and a method for generating a virtual lane, wherein the device comprises: a camera unit photographing a front image of a vehicle; a rainwater sensor unit detecting an amount and speed of rainwater; an illumination sensor unit detecting illuminance around the vehicle; a display unit displaying a lane in which the vehicle drives; a driving environment determination unit determining whether a driving environment of the vehicle is in rain or nighttime based on a detection result of the rainwater sensor unit and the illumination sensor unit; and a virtual lane generation unit distinguishing the lane in which the vehicle drives based on the front image of the vehicle photographed by the camera unit when the driving environment determination unit determines that the driving environment of the vehicle is in rain or nighttime, generating the virtual lane based on the distinguished lane, and displaying the generated virtual lane through the display unit.

Description

가상 차선 생성 장치 및 방법{APPARATUS AND METHOD FOR GENERATING VIRTUAL LANE}Apparatus and method for generating a virtual lane {APPARATUS AND METHOD FOR GENERATING VIRTUAL LANE}

본 발명은 가상 차선 생성 장치 및 방법에 관한 것으로, 빗물 감지센서 및 조도 센서부를 통해 감지된 차량의 주행 환경과, 카메라를 통해 식별된 차선 정보에 기초하여 가상 차선을 생성하는 가상 차선 생성 장치 및 방법에 관한 것이다.The present invention relates to a virtual lane generating apparatus and method, and a virtual lane generating apparatus and method for generating a virtual lane based on a driving environment of a vehicle detected through a rainwater sensor and an illuminance sensor unit and lane information identified through a camera is about

도로를 주행하는 차량이 야간에도 차선을 인식하기 용이하도록 반사도가 높은 도료를 이용하여 차선을 도색하고 있으며, 도로 규정 상 차선을 처음 도색하는 경우에, 백색 차선은 차선의 반사율이 240mcd/m2Lux 이상이 되도록 도색하고, 황색 차선은 차선의 반사율이 150mcd/m2Lux 이상이 되도록 도색하여야 한다.And and to the vehicle running on the road using a highly reflective coating to facilitate to recognize the lane at night painted lane, when the first paint to the road regulations lane, the white lane reflectance of a lane 240mcd / m 2 Lux It should be painted so as to be more than 150mcd/m 2 Lux or more for the yellow lane.

하지만, 차선의 마모, 불량 도료의 사용 등으로 인하여 차선의 반사율이 도로 규정에 부합하지 못하는 경우가 종종 발생하고 있으며, 이에 따라 야간 운전 시 운전자가 차선을 제대로 인식하지 못하여 교통사고가 빈번히 발생하고 있는 실정이다. However, due to the wear of the lane and the use of poor paint, the reflectivity of the lane often does not meet the road regulations, and accordingly, the driver does not recognize the lane properly when driving at night, resulting in frequent traffic accidents. the current situation.

아울러, 비가 내리는 경우 빗물로 인하여 도로에 수막이 형성됨에 따라 차선의 반사율이 급격히 떨어지고, 이에 따라 비가 내리지 않는 경우보다 차선 미인식에 따른 교통사고가 빈번히 발생하고 있는 실정이다.In addition, when it rains, as a water film is formed on the road due to rainwater, the reflectivity of the lane is sharply reduced, and accordingly, traffic accidents due to lane ignorance occur more frequently than when it does not rain.

본 발명의 배경기술은 대한민국 공개특허공보 제10-2013-0057112호(2013.05.31.)의 '가상 차선 생성 장치 및 방법'에 개시되어 있다.The background technology of the present invention is disclosed in 'Virtual Lane Generating Apparatus and Method' of Korean Patent Application Laid-Open No. 10-2013-0057112 (2013.05.31.).

본 발명은 전술한 문제점을 해결하기 위해 창안된 것으로, 본 발명의 일 측면에 따른 목적은 야간 또는 비가 내리는 경우, 차선의 반사율이 급격히 떨어져 차선을 제대로 인식하지 못함에 따라 교통사고 발생의 위험이 증가되는 문제를 해소하기 위한 가상 차선 생성 장치 및 방법을 제공하는 것이다.The present invention was created to solve the above problems, and an object according to an aspect of the present invention is to increase the risk of a traffic accident as the reflectivity of the lane drops sharply at night or when it rains, and the lane is not recognized properly. It is to provide an apparatus and method for generating a virtual lane for resolving the problem.

본 발명의 일 측면에 따른 가상 차선 생성 장치는 차량의 전방 영상을 촬영하는 카메라부, 빗물의 양과 속도를 감지하는 빗물 센서부, 상기 차량 주변의 조도를 감지하는 조도 센서부, 상기 차량이 주행 중인 차선을 표시하는 디스플레이부, 상기 빗물 센서부 및 상기 조도 센서부의 감지 결과에 기초하여 상기 차량의 주행 환경이 강우 또는 야간인지 여부를 판단하는 주행 환경 판단부, 및 상기 주행 환경 판단부가 상기 차량의 주행 환경이 강우 또는 야간인 것으로 판단한 경우, 상기 카메라부를 통해 촬영한 상기 차량의 전방 영상에 기초하여 상기 차량이 주행 중인 차선을 식별하고, 상기 식별된 차선에 기초하여 가상 차선을 생성하며, 상기 생성된 가상 차선을 상기 디스플레이부를 통해 표시하는 가상 차선 생성부를 포함하는 것을 특징으로 한다.A virtual lane generating apparatus according to an aspect of the present invention includes a camera unit that captures an image in front of a vehicle, a rainwater sensor unit that detects the amount and speed of rainwater, an illumination sensor unit that detects illuminance around the vehicle, and a vehicle in which the vehicle is driving. A display unit for displaying a lane, a driving environment determination unit for determining whether the driving environment of the vehicle is rain or night based on the detection results of the rainwater sensor unit and the illuminance sensor unit, and the driving environment determination unit for driving the vehicle When it is determined that the environment is rain or night, a lane in which the vehicle is traveling is identified based on the image in front of the vehicle captured by the camera unit, a virtual lane is generated based on the identified lane, and the generated and a virtual lane generating unit displaying the virtual lane through the display unit.

본 발명에 있어 상기 디스플레이부는 HUD(Head Up Display)인 것을 특징으로 한다.In the present invention, the display unit is characterized in that the HUD (Head Up Display).

본 발명에 있어 상기 가상 차선 생성부는, 상기 빗물 센서부를 통해 감지되는 상기 빗물의 양 및 상기 빗물의 속도에 기초하여 상기 디스플레이부를 통해 표시되는 상기 가상 차선의 밝기를 제어하는 것을 특징으로 한다.In the present invention, the virtual lane generating unit is characterized in that it controls the brightness of the virtual lane displayed through the display unit based on the amount of rainwater and the speed of the rainwater detected through the rainwater sensor unit.

본 발명에 있어 상기 가상 차선 생성부는, 상기 조도 센서부를 통해 감지되는 상기 차량 주변의 조도에 기초하여 상기 디스플레이부를 통해 표시되는 상기 가상 차선의 밝기를 제어하는 것을 특징으로 한다.In the present invention, the virtual lane generating unit may control brightness of the virtual lane displayed through the display unit based on the illuminance around the vehicle detected through the illuminance sensor unit.

본 발명에 있어 상기 가상 차선 생성부는, 상기 차량의 운전자 시야를 통해 인식되는 실제 차선의 위치에 상기 가상 차선을 표시하는 것을 특징으로 한다.In the present invention, the virtual lane generating unit may display the virtual lane at a location of an actual lane recognized through a driver's view of the vehicle.

본 발명에 있어 상기 가상 차선 생성부는, 상기 차량의 운전자의 시야를 차량의 내부에 구비된 카메라를 통해 감지하고, 상기 감지된 운전자의 시야에 기초하여 상기 디스플레이부를 통해 표시되는 가상 차선의 위치를 보정하는 것을 특징으로 한다.In the present invention, the virtual lane generating unit detects the driver's field of view of the vehicle through a camera provided inside the vehicle, and corrects the position of the virtual lane displayed through the display unit based on the detected driver's field of view characterized in that

본 발명의 일 측면에 따른 가상 차선 생성 방법은 주행 환경 판단부가, 빗물 센서부 및 조도 센서부를 통해 차량의 주행 환경을 감지하는 단계, 주행 환경 판단부가, 상기 차량의 주행 환경을 감지한 결과에 기초하여 상기 차량의 주행 환경이 강우 또는 야간인지 여부를 판단하는 단계, 및 상기 차량의 주행 환경이 강우 또는 야간인 것으로 판단된 경우, 가상 차선 생성부가, 카메라부를 통해 촬영한 상기 차량의 전방 영상에 기초하여 상기 차량이 주행 중인 차선을 식별하고, 상기 식별된 차선에 기초하여 가상 차선을 생성하며, 상기 생성된 가상 차선을 디스플레이부를 통해 표시하는 단계를 포함하는 것을 특징으로 한다.The method for generating a virtual lane according to an aspect of the present invention includes the steps of, by a driving environment determining unit, detecting a driving environment of a vehicle through a rainwater sensor unit and an illuminance sensor unit, based on a result of the driving environment determining unit detecting the driving environment of the vehicle to determine whether the driving environment of the vehicle is rain or night, and when it is determined that the driving environment of the vehicle is rain or night, the virtual lane generating unit, based on the front image of the vehicle photographed through the camera unit to identify a lane in which the vehicle is traveling, create a virtual lane based on the identified lane, and display the generated virtual lane through a display unit.

본 발명에 있어 상기 디스플레이부는 HUD(Head Up Display)인 것을 특징으로 한다.In the present invention, the display unit is characterized in that the HUD (Head Up Display).

본 발명에 있어 상기 표시하는 단계에서, 상기 가상 차선 생성부는, 상기 빗물 센서부를 통해 감지되는 상기 빗물의 양 및 상기 빗물의 속도에 기초하여 상기 디스플레이부를 통해 표시되는 상기 가상 차선의 밝기를 제어하는 것을 특징으로 한다.In the present invention, in the displaying step, the virtual lane generating unit controls the brightness of the virtual lane displayed through the display unit based on the amount of rainwater detected through the rainwater sensor unit and the speed of the rainwater. characterized.

본 발명에 있어 상기 표시하는 단계에서, 상기 가상 차선 생성부는, 상기 조도 센서부를 통해 감지되는 상기 차량 주변의 조도에 기초하여 상기 디스플레이부를 통해 표시되는 상기 가상 차선의 밝기를 제어하는 것을 특징으로 한다.In the displaying step of the present invention, the virtual lane generating unit controls the brightness of the virtual lane displayed through the display unit based on the illuminance around the vehicle detected through the illuminance sensor unit.

본 발명에 있어 상기 표시하는 단계에서, 상기 가상 차선 생성부는, 상기 차량의 운전자 시야를 통해 인식되는 실제 차선의 위치에 상기 가상 차선을 표시하는 것을 특징으로 한다.In the displaying step of the present invention, the virtual lane generating unit may display the virtual lane at a location of an actual lane recognized through a driver's view of the vehicle.

본 발명에 있어 상기 표시하는 단계에서, 상기 가상 차선 생성부는, 상기 차량의 운전자의 시야를 차량의 내부에 구비된 카메라를 통해 감지하고, 상기 감지된 운전자의 시야에 기초하여 상기 디스플레이부를 통해 표시되는 가상 차선의 위치를 보정하는 것을 특징으로 한다.In the present invention, in the displaying step, the virtual lane generating unit detects the driver's field of view of the vehicle through a camera provided inside the vehicle, and is displayed through the display unit based on the detected driver's field of view. It is characterized in that the position of the virtual lane is corrected.

본 발명의 일 측면에 따르면 빗물 감지센서 및 조도 센서부를 통해 감지된 차량의 주행 환경과, 카메라를 통해 식별된 차선에 기초하여 가상 차선을 생성함으로써 운전자의 차선 인식성을 향상시키고, 야간 또는 강우 상황에서 주행 시 운전자의 안전성을 향상시킬 수 있다. According to an aspect of the present invention, the driver's lane recognition is improved by creating a virtual lane based on the driving environment of the vehicle detected through the rainwater sensor and the illuminance sensor unit and the lane identified through the camera, and at night or in a rain situation Driver safety can be improved when driving in

도 1은 본 발명의 일 실시예에 따른 가상 차선 생성 장치를 설명하기 위한 블록 구성도이다.
도 2는 본 발명의 일 실시예에 따른 가상 차선 생성 장치를 설명하기 위한 예시도이다.
도 3은 본 발명의 일 실시예에 따른 가상 차선 생성 방법을 설명하기 위한 순서도이다.
1 is a block diagram illustrating an apparatus for generating a virtual lane according to an embodiment of the present invention.
2 is an exemplary diagram for explaining an apparatus for generating a virtual lane according to an embodiment of the present invention.
3 is a flowchart illustrating a method for generating a virtual lane according to an embodiment of the present invention.

이하에서는 본 발명의 실시예에 따른 가상 차선 생성 장치 및 방법을 첨부된 도면들을 참조하여 상세하게 설명한다. 이 과정에서 도면에 도시된 선들의 두께나 구성요소의 크기 등은 설명의 명료성과 편의상 과장되게 도시되어 있을 수 있다. 또한, 후술되는 용어들은 본 발명에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례에 따라 달라질 수 있다. 그러므로 이러한 용어들에 대한 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.Hereinafter, an apparatus and method for generating a virtual lane according to an embodiment of the present invention will be described in detail with reference to the accompanying drawings. In this process, the thickness of the lines or the size of the components shown in the drawings may be exaggerated for clarity and convenience of explanation. In addition, the terms to be described later are terms defined in consideration of functions in the present invention, which may vary according to the intention or custom of the user or operator. Therefore, definitions of these terms should be made based on the content throughout this specification.

도 1은 본 발명의 일 실시예에 따른 가상 차선 생성 장치를 설명하기 위한 블록 구성도이고, 도 2는 본 발명의 일 실시예에 따른 가상 차선 생성 장치를 설명하기 위한 예시도이다.1 is a block diagram illustrating an apparatus for generating a virtual lane according to an embodiment of the present invention, and FIG. 2 is an exemplary diagram for explaining an apparatus for generating a virtual lane according to an embodiment of the present invention.

도 1을 참조하면, 본 발명의 일 실시예에 따른 가상 차선 생성 장치는 카메라부(100), 빗물 센서부(200), 조도 센서부(300), 디스플레이부(400), 주행 환경 판단부(500) 및 가상 차선 생성부(600)를 포함할 수 있다. Referring to FIG. 1 , a virtual lane generating apparatus according to an embodiment of the present invention includes a camera unit 100 , a rainwater sensor unit 200 , an illuminance sensor unit 300 , a display unit 400 , and a driving environment determination unit ( 500) and a virtual lane generating unit 600 .

카메라부(100)는 차량의 전방 영상을 촬영할 수 있다. The camera unit 100 may photograph a front image of the vehicle.

예를 들어, 카메라부(100)는 차량의 내부 또는 외부에 구비되어 차량의 전방 영상을 촬영할 수 있고, 하나 이상의 렌즈들, 이미지 센서들, 또는 이미지 시그널 프로세서들을 포함할 수 있다.For example, the camera unit 100 may be provided inside or outside the vehicle to photograph the front image of the vehicle, and may include one or more lenses, image sensors, or image signal processors.

빗물 센서부(200)는 차량의 주행 환경이 강우인지 여부를 판단하기 위해 빗물의 양과 속도를 감지할 수 있다.The rainwater sensor unit 200 may detect the amount and speed of rainwater to determine whether the driving environment of the vehicle is rain.

예를 들어, 빗물 센서부(200)는 차량의 앞 유리에 부착되어, 적외선을 통해 빗물의 양과 속도를 감지하거나, 빗물 센서부(200)에 구비된 발광부에서 발생한 빛이 차량의 앞 유리에서 반사하여 빗물 센서부(200)에 구비된 수광부에 수광되는 정도를 통해 빗물의 양과 속도를 감지할 수 있다.For example, the rainwater sensor unit 200 is attached to the windshield of the vehicle, detects the amount and speed of rainwater through infrared rays, or light generated from the light emitting unit provided in the rainwater sensor unit 200 is emitted from the windshield of the vehicle. It is possible to detect the amount and speed of rainwater through the degree of being reflected and received by the light receiving unit provided in the rainwater sensor unit 200 .

다만, 본 실시예는 이에 한정되는 것은 아니며, 차량의 주행 환경이 강우인지 판단하기 위한 다양한 방법이 포함될 수 있다.However, the present embodiment is not limited thereto, and various methods for determining whether the driving environment of the vehicle is rain may be included.

조도 센서부(300)는 차량의 주행 환경이 야간인지 여부를 판단하기 위해 차량 주변의 조도를 감지할 수 있다.The illuminance sensor unit 300 may sense illuminance around the vehicle to determine whether the driving environment of the vehicle is at night.

다만, 본 실시예는 이에 한정되는 것은 아니며, 차량의 주행 환경이 야간인지 판단하기 위한 다양한 방법이 포함될 수 있다. 예를 들어, 기 설정된 시간 이후 차량의 주행 환경이 야간인 것으로 판단할 수 있다.However, the present embodiment is not limited thereto, and various methods for determining whether the driving environment of the vehicle is at night may be included. For example, it may be determined that the driving environment of the vehicle is at night after a preset time.

본 발명의 일 실시예에 따르면, 조도 센서부(300)는 차량의 대시보드에 구비되어, 차량 전방의 조도를 감지할 수 있다. According to an embodiment of the present invention, the illuminance sensor unit 300 may be provided on the dashboard of the vehicle to detect the illuminance in front of the vehicle.

디스플레이부(400)는 차량이 주행 중인 차선을 표시할 수 있다.The display unit 400 may display a lane in which the vehicle is traveling.

본 발명의 실시예에 따르면, 디스플레이부(400)는 HUD(Head Up Display)일 수 있으며, 차량이 주행 중인 차선을 차량의 앞 유리(윈드실드)에 표시하여 차량의 운전자가 현재 주행 중인 차선을 식별할 수 있도록 편의를 제공할 수 있다.According to an embodiment of the present invention, the display unit 400 may be a Head Up Display (HUD), and displays the lane in which the vehicle is driving on the windshield (windshield) of the vehicle to display the lane in which the driver of the vehicle is currently driving. Convenience may be provided for identification.

다른 실시예에 따르면, 디스플레이부(400)는 투명 디스플레이일 수 있으며, 차량의 앞 유리에 구비된 투명 디스플레이를 통해 차량이 주행 중인 차선을 표시할 수 있다.According to another embodiment, the display unit 400 may be a transparent display, and may display the lane in which the vehicle is driving through the transparent display provided on the windshield of the vehicle.

주행 환경 판단부(500)는 빗물 센서부(200) 및 조도 센서부(300)의 감지 결과에 기초하여 차량의 주행 환경이 강우 또는 야간인지 여부를 판단할 수 있다.The driving environment determination unit 500 may determine whether the driving environment of the vehicle is rain or night based on the detection results of the rainwater sensor unit 200 and the illuminance sensor unit 300 .

예를 들어, 주행 환경 판단부(500)는 빗물 센서부(200)를 통해 감지된 빗물의 양과 속도가 기 설정된 기준치 이상이면 차량의 주행 환경이 강우인 것으로 판단할 수 있다. For example, the driving environment determination unit 500 may determine that the driving environment of the vehicle is rain when the amount and speed of rainwater detected through the rainwater sensor unit 200 are equal to or greater than preset reference values.

또한, 주행 환경 판단부(500)는 조도 센서를 통해 감지된 차량의 주변 조도가 기 설정된 기준조도 이하이면 차량의 주행 환경이 야간인 것으로 판단할 수 있다. In addition, the driving environment determination unit 500 may determine that the driving environment of the vehicle is at night when the ambient illuminance of the vehicle sensed through the illuminance sensor is equal to or less than a preset reference illuminance.

가상 차선 생성부(600)는 주행 환경 판단부(500)가 차량의 주행 환경이 강우 또는 야간인 것으로 판단한 경우, 카메라부(100)를 통해 촬영한 차량의 전방 영상에 기초하여 차량이 주행 중인 차선을 식별하고, 식별된 차선에 기초하여 가상 차선을 생성하며, 생성된 가상 차선을 디스플레이부(400)를 통해 표시할 수 있다.When the driving environment determination unit 500 determines that the driving environment of the vehicle is rain or night, the virtual lane generating unit 600 determines the lane in which the vehicle is traveling based on the front image of the vehicle captured by the camera unit 100 . may be identified, a virtual lane may be generated based on the identified lane, and the generated virtual lane may be displayed through the display unit 400 .

예를 들어, 가상 차선 생성부(600)는 주행 환경 판단부(500)가 차량의 주행 환경이 강우 또는 야간인 것으로 판단한 경우, 에지검출필터 등의 필터링 알고리즘을 이용하여 카메라부(100)를 통해 촬영한 차량의 전방 영상에 대한 필터링을 수행하고, 필터링된 차량의 전방 영상에서 차선에 해당하는 특징점을 추출함으로써 차량의 전방 영상으로부터 차선을 식별할 수 있다.For example, when the driving environment determining unit 500 determines that the driving environment of the vehicle is rain or night, the virtual lane generating unit 600 may use a filtering algorithm such as an edge detection filter through the camera unit 100 . A lane may be identified from the image in front of the vehicle by filtering the captured image in front of the vehicle and extracting feature points corresponding to the lane in the filtered image in front of the vehicle.

다만, 본 실시예는 이에 한정되는 것은 아니며, 영상으로부터 차선을 식별하는 다양한 방법이 적용될 수 있다. 예를 들어, SVM(Support Vector Machine), R-CNN(Regions with Convolutional Neural Network) 등의 기계학습기법을 이용하여 영상에서 특정 객체를 추출하는 알고리즘이 영상으로부터 차선을 식별하기 위해 이용될 수 있다. However, the present embodiment is not limited thereto, and various methods for identifying a lane from an image may be applied. For example, an algorithm for extracting a specific object from an image using a machine learning technique such as a Support Vector Machine (SVM) or Regions with Convolutional Neural Network (R-CNN) may be used to identify a lane from the image.

한편, 가상 차선 생성부(600)는 빗물 감지센서를 통해 감지되는 빗물의 양 및 빗물의 속도에 기초하여 디스플레이부(400)를 통해 표시되는 가상 차선의 밝기를 제어할 수 있다.Meanwhile, the virtual lane generating unit 600 may control the brightness of the virtual lane displayed through the display unit 400 based on the amount of rainwater and the speed of rainwater detected through the rainwater sensor.

디스플레이부(400)를 통해 가상 차선을 표시하는 경우, 가상 차선이 표시되는 동안 운전자의 시야 범위 내에 가상 차선이 위치하게 된다. When the virtual lane is displayed through the display unit 400 , the virtual lane is located within the driver's field of view while the virtual lane is displayed.

이때, 가상 차선의 밝기가 강한 경우 가상 차선으로 인하여 운전자의 시야가 방해받거나 운전자의 시선이 가상 차선에 집중되어 운전이 방해받는 경우가 발생할 수 있다.In this case, when the brightness of the virtual lane is strong, the driver's view may be obstructed due to the virtual lane or driving may be disturbed because the driver's gaze is concentrated on the virtual lane.

상기와 같은 문제를 해결하기 위해, 본 발명의 일 실시예는 가상 차선 생성부(600)가 빗물 감지센서를 통해 감지되는 빗물의 양 및 빗물의 속도에 기초하여 디스플레이부(400)를 통해 표시되는 가상 차선의 밝기를 제어할 수 있다.In order to solve the above problems, in one embodiment of the present invention, the virtual lane generating unit 600 is displayed through the display unit 400 based on the amount of rainwater and the speed of rainwater detected through the rainwater sensor. You can control the brightness of the virtual lane.

예를 들어, 빗물 센서부(200)를 통해 감지되는 빗물의 양이 많은 경우 가상 차선의 밝기를 높이고, 빗물 센서부(200)를 통해 감지되는 빗물의 양이 적은 경우 가상 차선의 밝기를 낮춤으로써 빗물 센서부(200)를 통해 감지되는 빗물의 양에 따라 가상 차선의 밝기를 제어할 수 있다.For example, when the amount of rainwater detected through the rainwater sensor unit 200 is large, the brightness of the virtual lane is increased, and when the amount of rainwater detected through the rainwater sensor unit 200 is small, the brightness of the virtual lane is lowered. The brightness of the virtual lane may be controlled according to the amount of rainwater detected through the rainwater sensor unit 200 .

한편, 본 발명의 일 실시예는 조도 센서부(300)를 통해 감지되는 차량 주변의 조도에 기초하여 상기 디스플레이부(400)를 통해 표시되는 상기 가상 차선의 밝기를 제어할 수도 있다.Meanwhile, according to an embodiment of the present invention, the brightness of the virtual lane displayed through the display unit 400 may be controlled based on the illuminance around the vehicle detected through the illuminance sensor unit 300 .

예를 들어, 조도 센서부(300)를 통해 감지되는 차량 주변의 조도가 큰 경우 가상 차선의 밝기를 높이고, 조도 센서부(300)를 통해 감지되는 차량 주변의 조도가 작은 경우 가상 차선의 밝기를 낮춤으로써 조도 센서부(300)를 통해 감지되는 차량 주변의 조도에 따라 가상 차선의 밝기를 제어할 수 있다.For example, when the illuminance around the vehicle detected by the illuminance sensor unit 300 is large, the brightness of the virtual lane is increased, and when the illuminance around the vehicle detected through the illuminance sensor unit 300 is low, the brightness of the virtual lane is increased. By lowering it, the brightness of the virtual lane may be controlled according to the illuminance around the vehicle detected through the illuminance sensor unit 300 .

또한, 본 발명의 일 실시예는 빗물 센서부(200)를 통해 감지되는 빗물의 양 및 빗물의 속도와, 조도 센서부(300)를 통해 감지되는 차량 주변의 조도를 동시에 고려하여 가상 차선의 밝기를 제어할 수도 있다.In addition, an embodiment of the present invention considers the amount of rainwater and the speed of rainwater sensed through the rainwater sensor unit 200 and the illuminance around the vehicle sensed through the illuminance sensor unit 300 at the same time, the brightness of the virtual lane can also be controlled.

한편, 가상 차선 생성부(600)는 차량의 운전자 시야를 통해 인식되는 실제 차선의 위치에 가상 차선을 표시할 수 있다. Meanwhile, the virtual lane generating unit 600 may display the virtual lane at the location of the actual lane recognized through the driver's view of the vehicle.

도 2를 참조하면, 가상 차선 생성부(600)는 디스플레이부(400)를 통해 차량의 운전자 시야를 통해 인식되는 실제 차선의 위치에 가상 차선을 표시하여 강우 또는 야간 주행 시 차선 인식성이 저하되는 문제를 해결하고, 강우 또는 야간 주행하는 운전자의 안정성을 향상시킬 수 있다. Referring to FIG. 2 , the virtual lane generating unit 600 displays the virtual lane at the location of the actual lane recognized through the driver's view of the vehicle through the display unit 400 to reduce lane recognition during rain or night driving. It can solve the problem and improve the safety of drivers driving in the rain or at night.

본 발명의 일 실시예에 따르면, 가상 차선 생성부(600)가 차량의 운전자의 시야를 차량의 내부에 구비된 카메라(미도시)를 통해 감지하고, 감지된 운전자의 시야에 기초하여 디스플레이부(400)를 통해 표시되는 가상 차선의 위치를 보정할 수 있다.According to an embodiment of the present invention, the virtual lane generating unit 600 detects the driver's view of the vehicle through a camera (not shown) provided inside the vehicle, and based on the detected driver's view, the display unit ( 400), the position of the displayed virtual lane may be corrected.

주행 중 운전자의 고개에 움직임이 발생하는 경우, 운전자의 위치가 달라짐에 따라 디스플레이부(400)를 통해 표시되는 가상 차선이 운전자의 시야를 통해 인식되는 실제 차선의 위치와 달라질 수 있다.When a movement occurs in the driver's head while driving, the virtual lane displayed through the display unit 400 may differ from the actual lane position recognized through the driver's field of vision as the driver's position changes.

예를 들어, 운전자가 동승자와 대화를 위해 고개를 움직이거나 물건을 집기 위해 움직이는 경우, 차량 내 운전자의 위치가 달라짐에 따라 운전자의 시야를 통해 인식되는 실제 차선과 디스플레이부(400)를 통해 표시되는 가상 차선 간의 불일치가 발생할 수 있다.For example, when the driver moves his/her head to talk with a passenger or moves to pick up an object, the actual lane recognized through the driver's field of view and displayed through the display unit 400 as the driver's position in the vehicle changes Discrepancies between virtual lanes may occur.

가상 차선 생성부(600)는 차량의 운전자의 시야(예: 운전자의 눈 위치)를 차량의 내부에 구비된 카메라를 통해 지속적으로 감지하고, 감지된 운전자의 시야에 따라 디스플레이부(400)를 통해 표시되는 가상 차선의 위치를 변경시킴으로써 운전자에게 움직임이 발생하는 경우에도 운전자의 시야를 통해 인식되는 실제 차선과 가상 차선이 일치하도록 가상 차선의 위치를 보정할 수 있다. The virtual lane generating unit 600 continuously detects the driver's field of vision (eg, the driver's eye position) of the vehicle through a camera provided inside the vehicle, and uses the display unit 400 according to the detected driver's field of view. By changing the position of the displayed virtual lane, the position of the virtual lane may be corrected so that the actual lane recognized through the driver's field of view matches the virtual lane even when a movement occurs to the driver.

한편, 가상 차선 생성부(600)가 디스플레이부(400)를 통해 가상 차선을 표시하는 경우, 차량의 제원(예: 차량의 앞 유리 경사도, 굴곡), 운전자의 특성(예: 운전자의 앉은 키) 등에 따라 가상 차선이 차량의 앞 유리에 표시되는 위치가 달라지는 경우가 발생할 수 있다. On the other hand, when the virtual lane generating unit 600 displays the virtual lane through the display unit 400 , vehicle specifications (eg, windshield inclination and curvature) and driver characteristics (eg, the driver's sitting height) A location where the virtual lane is displayed on the windshield of the vehicle may be changed depending on the situation.

상기와 같은 문제를 해결하기 위해서, 본 발명의 일 실시예는 본 발명에 따른 장치를 설치하는 경우 또는 사용자가 차량의 시동을 온 시키는 경우 운전자의 시야를 통해 인식되는 실제 차선의 위치와 가상 차선 생성부(600)를 통해 생성하여 디스플레이부(400)에 표시한 가상 차선의 위치가 일치하도록 디스플레이부(400)에 표시되는 가상 차선의 위치를 설정하는 초기 위치 설정부(미도시)를 더 포함할 수 있다.In order to solve the above problems, an embodiment of the present invention creates a virtual lane and the location of an actual lane recognized through the driver's field of vision when the device according to the present invention is installed or when the user turns on the vehicle's ignition It may further include an initial position setting unit (not shown) for setting the position of the virtual lane displayed on the display unit 400 so that the position of the virtual lane generated through the unit 600 and displayed on the display unit 400 matches. can

예를 들어, 초기 위치 설정부는 외부(예: 운전자)로부터 운전자의 신체 정보, 및 차종을 입력받고, 입력받은 운전자의 신체 정보 및 차종을 토대로 가상 차선의 위치를 설정할 수 있다.For example, the initial location setting unit may receive the driver's body information and the vehicle type from the outside (eg, the driver), and set the location of the virtual lane based on the received driver's body information and the vehicle type.

또한, 초기 위치 설정부는 가상 차선 생성 장치에 구비된 버튼(예: 방향 버튼)(미도시)을 이용하여 차량이 정지한 상태에서 디스플레이부(400)에 표시되는 가상 차선의 위치가 운전자의 시야를 통해 인식되는 실제 차선의 위치와 일치되도록 가상 차선의 위치를 조절할 수 있다. In addition, the initial position setting unit uses a button (eg, a direction button) (not shown) provided in the virtual lane generating device to determine the position of the virtual lane displayed on the display unit 400 in a state where the vehicle is stopped so that the driver's field of vision is changed. The position of the virtual lane can be adjusted to match the position of the actual lane recognized through the

도 3은 본 발명의 일 실시예에 따른 가상 차선 생성 방법을 설명하기 위한 순서도이다.3 is a flowchart illustrating a method for generating a virtual lane according to an embodiment of the present invention.

도 3을 참조하면, 본 발명의 일 실시예에 따른 가상 차선 생성 방법은 감지하는 단계(S100), 판단하는 단계(S200) 및 표시하는 단계(S300)를 포함할 수 있다.Referring to FIG. 3 , the method for generating a virtual lane according to an embodiment of the present invention may include a detecting step S100 , a determining step S200 , and a displaying step S300 .

감지하는 단계(S100)에서 주행 환경 판단부(500)는 빗물 센서부(200) 및 조도 센서부(300)를 통해 차량의 주행 환경을 감지할 수 있다.In the sensing step ( S100 ), the driving environment determination unit 500 may detect the driving environment of the vehicle through the rainwater sensor unit 200 and the illuminance sensor unit 300 .

판단하는 단계(S200)에서, 주행 환경 판단부(500)는 차량의 주행 환경을 감지한 결과에 기초하여 차량의 주행 환경이 강우 또는 야간인지 여부를 판단할 수 있다. In the determining step ( S200 ), the driving environment determining unit 500 may determine whether the driving environment of the vehicle is rain or night based on a result of detecting the driving environment of the vehicle.

예를 들어, 주행 환경 판단부(500)는 빗물 센서부(200)를 통해 감지된 빗물의 양과 속도가 기 설정된 기준치 이상이면 차량의 주행 환경이 강우인 것으로 판단할 수 있다. For example, the driving environment determination unit 500 may determine that the driving environment of the vehicle is rain when the amount and speed of rainwater detected through the rainwater sensor unit 200 are equal to or greater than preset reference values.

또한, 주행 환경 판단부(500)는 조도 센서를 통해 감지된 차량의 주변 조도가 기 설정된 기준조도 이하이면 차량의 주행 환경이 야간인 것으로 판단할 수 있다. In addition, the driving environment determination unit 500 may determine that the driving environment of the vehicle is at night when the ambient illuminance of the vehicle sensed through the illuminance sensor is equal to or less than a preset reference illuminance.

표시하는 단계(S300)에서, 차량의 주행 환경이 강우 또는 야간인 것으로 판단된 경우, 가상 차선 생성부(600)는 카메라부(100)를 통해 촬영한 차량의 전방 영상에 기초하여 차량이 주행 중인 차선을 식별하고, 식별된 차선에 기초하여 가상 차선을 생성하며, 생성된 가상 차선을 디스플레이부(400)를 통해 표시할 수 있다. In the displaying step (S300), when it is determined that the driving environment of the vehicle is rain or night, the virtual lane generating unit 600 determines that the vehicle is driving based on the front image of the vehicle captured through the camera unit 100 . A lane may be identified, a virtual lane may be generated based on the identified lane, and the generated virtual lane may be displayed through the display unit 400 .

예를 들어, 가상 차선 생성부(600)는 주행 환경 판단부(500)가 차량의 주행 환경이 강우 또는 야간인 것으로 판단한 경우, 에지검출필터 등의 필터링 알고리즘을 이용하여 카메라부(100)를 통해 촬영한 차량의 전방 영상에 대한 필터링을 수행하고, 필터링된 차량의 전방 영상에서 차선에 해당하는 특징점을 추출함으로써 차량의 전방 영상으로부터 차선을 식별할 수 있다.For example, when the driving environment determining unit 500 determines that the driving environment of the vehicle is rain or night, the virtual lane generating unit 600 may use a filtering algorithm such as an edge detection filter through the camera unit 100 . A lane may be identified from the image in front of the vehicle by filtering the captured image in front of the vehicle and extracting feature points corresponding to the lane in the filtered image in front of the vehicle.

다만, 본 실시예는 이에 한정되는 것은 아니며, 영상으로부터 차선을 식별하는 다양한 방법이 적용될 수 있다. 예를 들어, SVM(Support Vector Machine), R-CNN(Regions with Convolutional Neural Network) 등의 기계학습기법을 이용하여 영상에서 특정 객체를 추출하는 알고리즘이 영상으로부터 차선을 식별하기 위해 이용될 수 있다. However, the present embodiment is not limited thereto, and various methods for identifying a lane from an image may be applied. For example, an algorithm for extracting a specific object from an image using a machine learning technique such as a Support Vector Machine (SVM) or Regions with Convolutional Neural Network (R-CNN) may be used to identify a lane from the image.

본 발명의 일 실시예에 따르면, 외부(예: 운전자)로부터 가상 차선 생성 기능을 활성화시킬지 여부를 입력받고, 가상 차선 생성 기능이 활성화되지 않은 경우에는 주행 환경 판단부(500)가 차량의 주행 환경이 강우 또는 야간으로 판단하더라도 가상 차선을 생성하지 않을 수 있다.According to an embodiment of the present invention, when an input of whether to activate the virtual lane creation function is received from the outside (eg, the driver), and the virtual lane creation function is not activated, the driving environment determination unit 500 determines the driving environment of the vehicle Even if it is judged as rain or night, a virtual lane may not be created.

표시하는 단계(S300)에서, 가상 차선 생성부(600)는 빗물 센서부(200)를 통해 감지되는 빗물의 양 및 빗물의 속도에 기초하여 디스플레이부(400)를 통해 표시되는 가상 차선의 밝기를 제어할 수 있다.In the displaying step ( S300 ), the virtual lane generating unit 600 calculates the brightness of the virtual lane displayed through the display unit 400 based on the amount of rainwater and the speed of rainwater detected through the rainwater sensor unit 200 . can be controlled

표시하는 단계(S300)에서, 가상 차선 생성부(600)는 조도 센서부(300)를 통해 감지되는 차량 주변의 조도에 기초하여 디스플레이부(400)를 통해 표시되는 가상 차선의 밝기를 제어할 수 있다.In the step of displaying ( S300 ), the virtual lane generating unit 600 may control the brightness of the virtual lane displayed through the display unit 400 based on the illuminance around the vehicle detected through the illuminance sensor unit 300 . have.

표시하는 단계(S300)에서, 가상 차선 생성부(600)는 차량의 운전자 시야를 통해 인식되는 실제 차선의 위치에 가상 차선을 표시할 수 있다.In the displaying step ( S300 ), the virtual lane generating unit 600 may display the virtual lane at the location of the actual lane recognized through the driver's view of the vehicle.

본 발명의 일 실시예에 따르면, 표시하는 단계(S300)에서, 가상 차선 생성부(600)는 차량의 운전자의 시야를 차량의 내부에 구비된 카메라를 통해 감지하고, 감지된 운전자의 시야에 기초하여 디스플레이부(400)를 통해 표시되는 가상 차선의 위치를 보정할 수 있다.According to an embodiment of the present invention, in the displaying step ( S300 ), the virtual lane generating unit 600 detects the driver's view of the vehicle through a camera provided inside the vehicle, and based on the detected driver's view Thus, the position of the virtual lane displayed through the display unit 400 may be corrected.

예를 들어, 가상 차선 생성부(600)는 차량의 운전자의 시야(예: 운전자의 눈 위치)를 차량의 내부에 구비된 카메라를 통해 지속적으로 감지하고, 감지된 운전자의 시야에 따라 디스플레이부(400)를 통해 표시되는 가상 차선의 위치를 변경시킴으로써 운전자에게 움직임이 발생하는 경우에도 운전자의 시야를 통해 인식되는 실제 차선과 가상 차선이 일치하도록 가상 차선의 위치를 보정할 수 있다. For example, the virtual lane generating unit 600 continuously detects the driver's field of view (eg, the driver's eye position) of the vehicle through a camera provided inside the vehicle, and according to the detected driver's field of view, the display unit ( 400), the position of the virtual lane may be corrected so that the actual lane recognized through the driver's field of vision matches the virtual lane even when a motion occurs to the driver.

한편, 가상 차선 생성부(600)가 디스플레이부(400)를 통해 가상 차선을 표시하는 경우, 차량의 제원(예: 차량의 앞 유리 경사도, 굴곡), 운전자의 특성(예: 운전자의 앉은 키) 등에 따라 가상 차선이 차량의 앞 유리에 표시되는 위치가 달라지는 경우가 발생할 수 있다. On the other hand, when the virtual lane generating unit 600 displays the virtual lane through the display unit 400 , vehicle specifications (eg, windshield inclination and curvature) and driver characteristics (eg, the driver's sitting height) A location where the virtual lane is displayed on the windshield of the vehicle may be changed depending on the situation.

상기와 같은 문제를 해결하기 위해서, 본 발명의 일 실시예는 초기 위치 설정부가 본 발명에 따른 장치를 설치하는 경우 또는 사용자가 차량의 시동을 온 시키는 경우 운전자의 시야를 통해 인식되는 실제 차선의 위치와 가상 차선 생성부(600)를 통해 생성하여 디스플레이부(400)에 표시한 가상 차선의 위치가 일치하도록 디스플레이부(400)에 표시되는 가상 차선의 위치를 설정하는 단계(S400)를 더 포함할 수 있다.In order to solve the above problems, an embodiment of the present invention provides the location of the actual lane recognized through the driver's field of vision when the initial positioning unit installs the device according to the present invention or when the user turns on the vehicle's ignition. and setting the position of the virtual lane displayed on the display unit 400 so that the position of the virtual lane generated through the virtual lane generating unit 600 and displayed on the display unit 400 matches (S400). can

상술한 바와 같이, 본 발명의 일 실시예에 따른 가상 차선 생성 장치 및 방법은 빗물 감지센서 및 조도 센서부를 통해 감지된 차량의 주행 환경과, 카메라를 통해 식별된 차선 정보에 기초하여 가상 차선을 생성함으로써 운전자의 차선 인식성을 향상시키고, 야간 또는 강우 상황에서 주행 시 운전자의 안전성을 향상시킬 수 있다. As described above, the virtual lane generating apparatus and method according to an embodiment of the present invention creates a virtual lane based on the driving environment of the vehicle detected through the rainwater sensor and the illuminance sensor unit, and lane information identified through the camera. By doing so, it is possible to improve the driver's lane recognition and improve the driver's safety when driving at night or in rainy conditions.

본 명세서에서 설명된 구현은, 예컨대, 방법 또는 프로세스, 장치, 소프트웨어 프로그램, 데이터 스트림 또는 신호로 구현될 수 있다. 단일 형태의 구현의 맥락에서만 논의(예컨대, 방법으로서만 논의)되었더라도, 논의된 특징의 구현은 또한 다른 형태(예컨대, 장치 또는 프로그램)로도 구현될 수 있다. 장치는 적절한 하드웨어, 소프트웨어 및 펌웨어 등으로 구현될 수 있다. 방법은, 예컨대, 컴퓨터, 마이크로프로세서, 집적 회로 또는 프로그래밍가능한 로직 디바이스 등을 포함하는 프로세싱 디바이스를 일반적으로 지칭하는 프로세서 등과 같은 장치에서 구현될 수 있다. 프로세서는 또한 최종-사용자 사이에 정보의 통신을 용이하게 하는 컴퓨터, 셀 폰, 휴대용/개인용 정보 단말기(personal digital assistant: "PDA") 및 다른 디바이스 등과 같은 통신 디바이스를 포함한다.Implementations described herein may be implemented in, for example, a method or process, an apparatus, a software program, a data stream, or a signal. Although discussed only in the context of a single form of implementation (eg, discussed only as a method), implementations of the discussed features may also be implemented in other forms (eg, as an apparatus or a program). The apparatus may be implemented in suitable hardware, software and firmware, and the like. A method may be implemented in an apparatus such as, for example, a processor, which generally refers to a computer, microprocessor, processing device, including an integrated circuit or programmable logic device, or the like. Processors also include communication devices such as computers, cell phones, portable/personal digital assistants ("PDAs") and other devices that facilitate communication of information between end-users.

본 발명은 도면에 도시된 실시예를 참고로 하여 설명되었으나, 이는 예시적인 것에 불과하며 당해 기술이 속하는 기술분야에서 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시예가 가능하다는 점을 이해할 것이다. 따라서, 본 발명의 진정한 기술적 보호범위는 아래의 특허청구범위에 의하여 정해져야 할 것이다.Although the present invention has been described with reference to the embodiment shown in the drawings, this is merely exemplary, and it is understood that various modifications and equivalent other embodiments are possible by those skilled in the art. will understand Accordingly, the true technical protection scope of the present invention should be defined by the following claims.

100: 카메라부
200: 빗물 센서부
300: 조도 센서부
400: 디스플레이부
500: 주행 환경 판단부
600: 가상 차선 생성부
100: camera unit
200: rain water sensor unit
300: illuminance sensor unit
400: display unit
500: driving environment determination unit
600: virtual lane generator

Claims (12)

차량의 전방 영상을 촬영하는 카메라부;
빗물의 양과 속도를 감지하는 빗물 센서부;
상기 차량 주변의 조도를 감지하는 조도 센서부;
상기 차량이 주행 중인 차선을 표시하는 디스플레이부;
상기 빗물 센서부 및 상기 조도 센서부의 감지 결과에 기초하여 상기 차량의 주행 환경이 강우 또는 야간인지 여부를 판단하는 주행 환경 판단부; 및
상기 주행 환경 판단부가 상기 차량의 주행 환경이 강우 또는 야간인 것으로 판단한 경우, 상기 카메라부를 통해 촬영한 상기 차량의 전방 영상에 기초하여 상기 차량이 주행 중인 차선을 식별하고, 상기 식별된 차선에 기초하여 가상 차선을 생성하며, 상기 생성된 가상 차선을 상기 디스플레이부를 통해 표시하는 가상 차선 생성부;를 포함하는 것을 특징으로 하는 가상 차선 생성 장치.
a camera unit for photographing a front image of the vehicle;
Rainwater sensor unit for detecting the amount and speed of rainwater;
an illuminance sensor unit for sensing illuminance around the vehicle;
a display unit for displaying a lane in which the vehicle is traveling;
a driving environment determination unit configured to determine whether the driving environment of the vehicle is rain or night based on the detection results of the rainwater sensor unit and the illuminance sensor unit; and
When the driving environment determining unit determines that the driving environment of the vehicle is rain or night, it identifies a lane in which the vehicle is traveling based on the image in front of the vehicle photographed through the camera unit, and based on the identified lane and a virtual lane generating unit generating a virtual lane and displaying the generated virtual lane through the display unit.
제 1항에 있어서,
상기 디스플레이부는 HUD(Head Up Display)인 것을 특징으로 하는 가상 차선 생성 장치.
The method of claim 1,
The display unit is a virtual lane generating device, characterized in that the HUD (Head Up Display).
제 1항에 있어서,
상기 가상 차선 생성부는, 상기 빗물 센서부를 통해 감지되는 상기 빗물의 양 및 상기 빗물의 속도에 기초하여 상기 디스플레이부를 통해 표시되는 상기 가상 차선의 밝기를 제어하는 것을 특징으로 하는 가상 차선 생성 장치.
The method of claim 1,
The virtual lane generating unit is configured to control the brightness of the virtual lane displayed through the display unit based on the amount of rainwater and the speed of the rainwater detected through the rainwater sensor unit.
제 1항에 있어서,
상기 가상 차선 생성부는, 상기 조도 센서부를 통해 감지되는 상기 차량 주변의 조도에 기초하여 상기 디스플레이부를 통해 표시되는 상기 가상 차선의 밝기를 제어하는 것을 특징으로 하는 가상 차선 생성 장치.
The method of claim 1,
The virtual lane generating unit is configured to control the brightness of the virtual lane displayed through the display unit based on the illuminance around the vehicle detected through the illuminance sensor unit.
제 1항에 있어서,
상기 가상 차선 생성부는, 상기 차량의 운전자 시야를 통해 인식되는 실제 차선의 위치에 상기 가상 차선을 표시하는 것을 특징으로 하는 가상 차선 생성 장치.
The method of claim 1,
The virtual lane generating unit is configured to display the virtual lane at a location of an actual lane recognized through a driver's view of the vehicle.
제 1항에 있어서,
상기 가상 차선 생성부는, 상기 차량의 운전자의 시야를 차량의 내부에 구비된 카메라를 통해 감지하고, 상기 감지된 운전자의 시야에 기초하여 상기 디스플레이부를 통해 표시되는 가상 차선의 위치를 보정하는 것을 특징으로 하는 가상 차선 생성 장치.
The method of claim 1,
The virtual lane generating unit detects the driver's field of view of the vehicle through a camera provided inside the vehicle, and corrects the position of the virtual lane displayed through the display unit based on the detected driver's field of view virtual lane generating device.
주행 환경 판단부가, 빗물 센서부 및 조도 센서부를 통해 차량의 주행 환경을 감지하는 단계;
주행 환경 판단부가, 상기 차량의 주행 환경을 감지한 결과에 기초하여 상기 차량의 주행 환경이 강우 또는 야간인지 여부를 판단하는 단계; 및
상기 차량의 주행 환경이 강우 또는 야간인 것으로 판단된 경우, 가상 차선 생성부가, 카메라부를 통해 촬영한 상기 차량의 전방 영상에 기초하여 상기 차량이 주행 중인 차선을 식별하고, 상기 식별된 차선에 기초하여 가상 차선을 생성하며, 상기 생성된 가상 차선을 디스플레이부를 통해 표시하는 단계;를 포함하는 것을 특징으로 하는 가상 차선 생성 방법.
detecting, by the driving environment determination unit, the driving environment of the vehicle through the rainwater sensor unit and the illuminance sensor unit;
determining, by the driving environment determination unit, whether the driving environment of the vehicle is rain or night based on a result of detecting the driving environment of the vehicle; and
When it is determined that the driving environment of the vehicle is rain or night, the virtual lane generating unit identifies a lane in which the vehicle is traveling based on the image in front of the vehicle captured by the camera unit, and based on the identified lane and generating a virtual lane, and displaying the created virtual lane through a display unit.
제 7항에 있어서,
상기 디스플레이부는 HUD(Head Up Display)인 것을 특징으로 하는 가상 차선 생성 방법.
8. The method of claim 7,
The virtual lane generating method, characterized in that the display unit is a Head Up Display (HUD).
제 7항에 있어서, 상기 표시하는 단계에서,
상기 가상 차선 생성부는, 상기 빗물 센서부를 통해 감지되는 상기 빗물의 양 및 상기 빗물의 속도에 기초하여 상기 디스플레이부를 통해 표시되는 상기 가상 차선의 밝기를 제어하는 것을 특징으로 하는 가상 차선 생성 방법.
The method of claim 7, wherein in the displaying step,
The virtual lane generating unit is configured to control the brightness of the virtual lane displayed through the display unit based on the amount of rainwater and the speed of the rainwater detected through the rainwater sensor unit.
제 7항에 있어서, 상기 표시하는 단계에서,
상기 가상 차선 생성부는, 상기 조도 센서부를 통해 감지되는 상기 차량 주변의 조도에 기초하여 상기 디스플레이부를 통해 표시되는 상기 가상 차선의 밝기를 제어하는 것을 특징으로 하는 가상 차선 생성 방법.
The method of claim 7, wherein in the displaying step,
The virtual lane generating unit is configured to control the brightness of the virtual lane displayed through the display unit based on the illuminance around the vehicle detected through the illuminance sensor unit.
제 7항에 있어서, 상기 표시하는 단계에서,
상기 가상 차선 생성부는, 상기 차량의 운전자 시야를 통해 인식되는 실제 차선의 위치에 상기 가상 차선을 표시하는 것을 특징으로 하는 가상 차선 생성 방법.
The method of claim 7, wherein in the displaying step,
and the virtual lane generating unit displays the virtual lane at a location of an actual lane recognized through a driver's view of the vehicle.
제 7항에 있어서, 상기 표시하는 단계에서,
상기 가상 차선 생성부는, 상기 차량의 운전자의 시야를 차량의 내부에 구비된 카메라를 통해 감지하고, 상기 감지된 운전자의 시야에 기초하여 상기 디스플레이부를 통해 표시되는 가상 차선의 위치를 보정하는 것을 특징으로 하는 가상 차선 생성 방법.
The method of claim 7, wherein in the displaying step,
The virtual lane generating unit detects the driver's field of view of the vehicle through a camera provided inside the vehicle, and corrects the position of the virtual lane displayed through the display unit based on the detected driver's field of view How to create a virtual lane.
KR1020200000248A 2020-01-02 2020-01-02 Apparatus and method for generating virtual lane KR102302285B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200000248A KR102302285B1 (en) 2020-01-02 2020-01-02 Apparatus and method for generating virtual lane

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200000248A KR102302285B1 (en) 2020-01-02 2020-01-02 Apparatus and method for generating virtual lane

Publications (2)

Publication Number Publication Date
KR20210087238A true KR20210087238A (en) 2021-07-12
KR102302285B1 KR102302285B1 (en) 2021-09-14

Family

ID=76859054

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200000248A KR102302285B1 (en) 2020-01-02 2020-01-02 Apparatus and method for generating virtual lane

Country Status (1)

Country Link
KR (1) KR102302285B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102599168B1 (en) 2023-04-21 2023-11-09 주식회사 테크온 Lane Painting Guidance System for Lane Painting Vehicles using HUD

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120075672A (en) * 2010-12-29 2012-07-09 성균관대학교산학협력단 System and method for safe driving induction using detection of gaze direction
KR20170017203A (en) * 2015-08-05 2017-02-15 엘지전자 주식회사 Driver Assistance Apparatus and Vehicle Having The Same
KR20180022374A (en) * 2016-08-24 2018-03-06 주식회사 티노스 Lane markings hud for driver and assistant and same method thereof
KR20180051836A (en) * 2016-11-09 2018-05-17 삼성전자주식회사 Generating method and apparatus of virtual driving lane for driving car
KR20180124401A (en) * 2017-05-11 2018-11-21 엘지전자 주식회사 Vehicle control device mounted on vehicle and method for controlling the vehicle

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120075672A (en) * 2010-12-29 2012-07-09 성균관대학교산학협력단 System and method for safe driving induction using detection of gaze direction
KR20170017203A (en) * 2015-08-05 2017-02-15 엘지전자 주식회사 Driver Assistance Apparatus and Vehicle Having The Same
KR20180022374A (en) * 2016-08-24 2018-03-06 주식회사 티노스 Lane markings hud for driver and assistant and same method thereof
KR20180051836A (en) * 2016-11-09 2018-05-17 삼성전자주식회사 Generating method and apparatus of virtual driving lane for driving car
KR20180124401A (en) * 2017-05-11 2018-11-21 엘지전자 주식회사 Vehicle control device mounted on vehicle and method for controlling the vehicle

Also Published As

Publication number Publication date
KR102302285B1 (en) 2021-09-14

Similar Documents

Publication Publication Date Title
US11503253B2 (en) Vehicular control system with traffic lane detection
EP1683668B1 (en) Variable transmissivity window system
JP3855439B2 (en) Night driving visibility support device
KR20180056867A (en) Display device and operating method thereof
CN109415016B (en) Vision-based interactive control device and method for controlling vehicle rearview mirror
JP2003200755A (en) Displaying device for vehicle
US20160125631A1 (en) Apparatus for dynamically controlling hud (head-up display) information display position
JP4687573B2 (en) Vehicle driving support device
JP4770385B2 (en) Automatic sun visor
JPH0976815A (en) Auxiliary device for driving operation
KR102302285B1 (en) Apparatus and method for generating virtual lane
JP2023133535A (en) Imaging device, control method, program, and storage media
JP5352266B2 (en) Anti-glare device
US20200298677A1 (en) Systems, apparatus, and methods to adjust dimming associated with vehicle sunroofs
US11851003B2 (en) Driving assistance system and method for driver
US11345364B2 (en) Attention calling device and attention calling method
KR20190064223A (en) Apparatus and method for preventing glare when driving
WO2020183652A1 (en) Driving assistance device
JP6354805B2 (en) Visibility control device
KR102096876B1 (en) Method for setting up pattern and controlling of lighting using user terminal
KR20230061606A (en) Lane display apparatus and mehtod
JP2023136362A (en) Image projection device and image projection method
CN118046750A (en) Projection device and method for vehicle
KR20230017404A (en) System and method for controlling vehicle
KR20220036214A (en) Vehicle window control system and method based on artificial intelligence

Legal Events

Date Code Title Description
AMND Amendment
E601 Decision to refuse application
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant