KR102674597B1 - Vehicle and control method thereof - Google Patents

Vehicle and control method thereof Download PDF

Info

Publication number
KR102674597B1
KR102674597B1 KR1020180171215A KR20180171215A KR102674597B1 KR 102674597 B1 KR102674597 B1 KR 102674597B1 KR 1020180171215 A KR1020180171215 A KR 1020180171215A KR 20180171215 A KR20180171215 A KR 20180171215A KR 102674597 B1 KR102674597 B1 KR 102674597B1
Authority
KR
South Korea
Prior art keywords
vehicle
autonomous driving
control unit
reliability
information
Prior art date
Application number
KR1020180171215A
Other languages
Korean (ko)
Other versions
KR20200084955A (en
Inventor
금병직
김현우
이준묵
권우철
Original Assignee
현대자동차주식회사
기아 주식회사
현대오토에버 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 현대자동차주식회사, 기아 주식회사, 현대오토에버 주식회사 filed Critical 현대자동차주식회사
Priority to KR1020180171215A priority Critical patent/KR102674597B1/en
Publication of KR20200084955A publication Critical patent/KR20200084955A/en
Application granted granted Critical
Publication of KR102674597B1 publication Critical patent/KR102674597B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • B60W60/0015Planning or execution of driving tasks specially adapted for safety
    • B60W60/0016Planning or execution of driving tasks specially adapted for safety of the vehicle or its occupants
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • B60R21/01Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents
    • B60R21/013Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting collisions, impending collisions or roll-over
    • B60R21/0134Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting collisions, impending collisions or roll-over responsive to imminent contact with an obstacle, e.g. using radar systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/14Adaptive cruise control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0088Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0238Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/143Alarm means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/146Display means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/45External transmission of data to or from the vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Mechanical Engineering (AREA)
  • Transportation (AREA)
  • Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Human Computer Interaction (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Business, Economics & Management (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Game Theory and Decision Science (AREA)
  • Medical Informatics (AREA)
  • Electromagnetism (AREA)
  • Traffic Control Systems (AREA)

Abstract

본 발명은 자율 주행을 실시하는 차량의 자율 주행 신뢰도를 계산하고, 사용자에게 출력하여 사용자의 불안감을 감소하고 안전성을 향상 시키는 차량 및 그 제어방법을 제공한다.
일 실시예에 따른 차량은 출력부; 차량의 위치 신호를 수신하는 통신부; 차량 주변 정보 및 차량 주행 정보를 획득하는 센서부; 및 상기 차량 주변 정보를 기초로 상기 차량의 주변 물체 인지 상태를 결정하고, 상기 주변 물체와 상기 차량과의 위치 관계를 기초로 상기 차량의 환경 상태를 결정하고, 상기 차량 주행 정보를 기초로 결정된 상기 차량의 예상 경로와 상기 위치 신호의 차이를 기초로 상기 차량이 주행하는 경로 상태를 결정하고, 상기 인지 상태, 상기 환경 상태 및 상기 경로 상태 중 적어도 하나를 기초로 상기 차량의 자율 주행 신뢰도를 결정하여 상기 출력부에 출력하는 제어부;를 포함한다.
The present invention provides a vehicle and its control method that calculates the autonomous driving reliability of an autonomous vehicle and outputs it to the user to reduce user anxiety and improve safety.
A vehicle according to one embodiment includes an output unit; A communication unit that receives a vehicle location signal; A sensor unit that acquires vehicle surrounding information and vehicle driving information; and determining a recognition state of surrounding objects of the vehicle based on information surrounding the vehicle, determining an environmental state of the vehicle based on a positional relationship between the surrounding objects and the vehicle, and determining the environmental state of the vehicle based on the vehicle driving information. Determine the path state on which the vehicle drives based on the difference between the expected path of the vehicle and the location signal, and determine the autonomous driving reliability of the vehicle based on at least one of the cognitive state, the environmental state, and the path state, It includes a control unit that outputs output to the output unit.

Description

차량 및 그 제어방법 {VEHICLE AND CONTROL METHOD THEREOF}Vehicle and its control method {VEHICLE AND CONTROL METHOD THEREOF}

본 기술은 자율 주행을 수행하는 차량 및 그 제어방법에 관련된 기술이다.This technology is related to vehicles that perform autonomous driving and their control methods.

차량의 자율 주행 기술은 운전자가 브레이크, 핸들, 가속 페달 등을 제어하지 않아도 차량이 도로의 상황을 파악해 자동으로 주행하는 기술이다. Autonomous vehicle driving technology is a technology that allows a vehicle to understand road conditions and drive automatically without the driver controlling the brakes, steering wheel, or accelerator pedal.

자율 주행 기술은 스마트 카 구현을 위한 핵심 기술로, 자율 주행은 고속도로 주행 지원 시스템(HDA, 자동차 간 거리를 자동으로 유지해 주는 기술)을 비롯해 후측방 경보 시스템(BSD, 사각지대의 차량을 감지하여 경보를 울리는 기술), 자동 긴급 제동 시스템(AEB, 전방 차량이나 사람과 추돌 위험이 있을 때 제동 장치를 가동하는 기술), 차선 이탈 경보 시스템(LDWS), 차선 유지 지원 시스템(LKAS, 차량이 차선을 벗어나지 않고 차선을 따라서 주행할 수 있도록 보조하는 기술), 어드밴스드 스마트 크루즈 컨트롤(ASCC, 설정된 속도로 차 간 거리를 유지하며 정속 주행하는 기술), 혼잡 구간 주행 지원 시스템(TJA) 등으로 이루어져 있다.Autonomous driving technology is a core technology for realizing smart cars. Autonomous driving includes a highway driving assistance system (HDA, a technology that automatically maintains the distance between cars) and a rear blind spot warning system (BSD, which detects and warns vehicles in blind spots). technology that sounds), Automatic Emergency Braking System (AEB, a technology that activates the brakes when there is a risk of collision with a vehicle or person in front), Lane Departure Warning System (LDWS), and Lane Keeping Assist System (LKAS), which prevents the vehicle from leaving its lane. It consists of advanced smart cruise control (ASCC, a technology that maintains the distance between cars at a set speed and drives at a constant speed), and a congested section driving assistance system (TJA).

다만 현재로서는 차량이 자율주행 모드에 진입해 있을 경우, 현재 시스템에 대한 신뢰도가 충분히 형성되지 않아 운전자가 불안감을 느끼는 문제점이 발생할 수 있다.However, currently, when the vehicle is in autonomous driving mode, the driver may feel anxious because the reliability of the current system is not sufficiently established.

따라서 차량에 마련된 자율 주행 시스템의 신뢰도를 출력하여 사용자에게 인지 시키고, 신뢰도가 낮은 경우 사용자가 제어권을 받을 수 있는 준비를 하도록 가이드 하는 기술이 필요한 실정이다.Therefore, there is a need for a technology that outputs the reliability of the autonomous driving system installed in the vehicle, makes the user aware of it, and guides the user to prepare to take control when the reliability is low.

본 발명은 자율 주행을 실시하는 차량의 자율 주행 신뢰도를 계산하고, 사용자에게 출력하여 사용자의 불안감을 감소하고 안전성을 향상 시키는 차량 및 그 제어방법을 제공한다.The present invention provides a vehicle and its control method that calculates the autonomous driving reliability of an autonomous vehicle and outputs it to the user to reduce user anxiety and improve safety.

일 실시예에 따른 차량은 출력부; 차량의 위치 신호를 수신하는 통신부; 차량 주변 정보 및 차량 주행 정보를 획득하는 센서부; 및 상기 차량 주변 정보를 기초로 상기 차량의 주변 물체 인지 상태를 결정하고, 상기 주변 물체와 상기 차량과의 위치 관계를 기초로 상기 차량의 환경 상태를 결정하고, 상기 차량 주행 정보를 기초로 결정된 상기 차량의 예상 경로와 상기 위치 신호의 차이를 기초로 상기 차량이 주행하는 경로 상태를 결정하고, 상기 인지 상태, 상기 환경 상태 및 상기 경로 상태 중 적어도 하나를 기초로 상기 차량의 자율 주행 신뢰도를 결정하여 상기 출력부에 출력하는 제어부;를 포함한다.A vehicle according to one embodiment includes an output unit; A communication unit that receives a vehicle location signal; A sensor unit that acquires vehicle surrounding information and vehicle driving information; and determining a recognition state of surrounding objects of the vehicle based on information surrounding the vehicle, determining an environmental state of the vehicle based on a positional relationship between the surrounding objects and the vehicle, and determining the environmental state of the vehicle based on the vehicle driving information. Determine the path state on which the vehicle drives based on the difference between the expected path of the vehicle and the location signal, and determine the autonomous driving reliability of the vehicle based on at least one of the cognitive state, the environmental state, and the path state, It includes a control unit that outputs output to the output unit.

상기 센서부는 복수개의 센서 모듈을 포함하고,The sensor unit includes a plurality of sensor modules,

상기 제어부는, 상기 복수개의 센서 모듈 각각이 획득한 상기 주변 물체의 위치 정보 차이에 기초하여 상기 인지 상태를 결정할 수 있다.The control unit may determine the recognition state based on differences in location information of the surrounding objects acquired by each of the plurality of sensor modules.

상기 제어부는, 상기 복수개의 센서 모듈 각각이 획득한 상기 주변 물체의 위치 정보를 기초로 상기 복수개의 센서 모듈 각각의 인지 값 및 기준 인지 값을 결정하고,The control unit determines a recognition value and a reference recognition value of each of the plurality of sensor modules based on the location information of the surrounding object acquired by each of the plurality of sensor modules,

상기 자율 주행 신뢰도가 미리 결정된 값 미만이면, 상기 기준 인지 값 미만에 해당하는 상기 인지 값을 갖는 적어도 하나의 상기 센서 모듈을 상기 출력부에 출력할 수 있다.If the autonomous driving reliability is less than a predetermined value, at least one sensor module having the recognition value corresponding to less than the reference recognition value may be output to the output unit.

상기 제어부는, 상기 기준 인지 값 미만에 해당하는 상기 인지 값을 갖는 적어도 하나의 상기 센서 모듈의 상기 인지 값을 증가 시키도록 사용자를 가이드하는 메시지를 상기 출력부에 출력할 수 있다.The control unit may output, to the output unit, a message guiding the user to increase the perception value of at least one sensor module whose perception value is less than the reference perception value.

상기 제어부는, 상기 자율 주행 신뢰도가 미리 결정된 값 미만이면, 상기 주변 물체와 상기 차량과의 위치 관계를 기초로 상기 주변 물체의 위험도를 결정하여 상기 출력부에 출력할 수 있다.If the autonomous driving reliability is less than a predetermined value, the control unit may determine the degree of risk of the surrounding object based on the positional relationship between the surrounding object and the vehicle and output the determined risk to the output unit.

상기 제어부는, 상기 차량 주행 정보, 상기 차량 주변 정보 및 상기 위치 신호 중 적어도 하나를 기초로 상기 차량이 주행하는 도로 상태를 결정하고, 상기 도로 상태를 기초로 상기 차량의 자율 주행 신뢰도를 결정하여 상기 출력부에 출력할 수 있다.The control unit determines the road condition on which the vehicle is traveling based on at least one of the vehicle driving information, the vehicle surrounding information, and the location signal, and determines the autonomous driving reliability of the vehicle based on the road condition to determine the autonomous driving reliability of the vehicle. It can be output to the output section.

상기 제어부는, 상기 차량이 수행하는 적어도 하나의 자율 주행 기능에 기초하여 상기 차량의 자율 주행 신뢰도를 결정하고,The control unit determines the autonomous driving reliability of the vehicle based on at least one autonomous driving function performed by the vehicle,

상기 적어도 하나의 자율 주행 기능을 포함하는 상기 차량의 자율 주행 신뢰도 결정 지표를 상기 출력부에 출력할 수 있다.An autonomous driving reliability determination index of the vehicle including the at least one autonomous driving function may be output to the output unit.

상기 제어부는, 상기 인지 상태, 상기 환경 상태 및 상기 경로 상태 중 적어도 하나를 포함하는 상기 차량의 자율 주행 신뢰도 결정 지표를 상기 출력부에 출력할 수 있다.The control unit may output an autonomous driving reliability determination index of the vehicle including at least one of the cognitive state, the environmental state, and the path state to the output unit.

일 실시예에 따른 차량 및 그 제어방법은, 자율 주행을 실시하는 차량의 자율 주행 신뢰도를 계산하고, 사용자에게 출력하여 사용자의 불안감을 감소하고 안전성을 향상 시킬 수 있다.A vehicle and its control method according to an embodiment can reduce the user's anxiety and improve safety by calculating the autonomous driving reliability of a vehicle performing autonomous driving and outputting the information to the user.

도1은 일 실시예에 따른 차량의 제어 블록도이다.
도2a 내지 도2c는 일 실시예에 따른 자율 주행 신뢰도를 결정하는 동작을 설명하기 위한 도면이다.
도3은 일 실시예에 따른 기준 인자 값 미만에 해당하는 센서 모듈을 출력하는 동작을 설명하기 위한 도면이다.
도4는 일 실시예에 따른 주변 물체 및 환경 상태를 결정하여 출력하는 동작을 설명하기 위한 도면이다.
도5a 및 도5b는 다른 실시예에 따른 신뢰도를 출력하는 동작을 설명하기 위한 도면이다.
도6은 일 실시예에 따른 순서도이다.
1 is a control block diagram of a vehicle according to one embodiment.
2A to 2C are diagrams for explaining an operation for determining autonomous driving reliability according to an embodiment.
Figure 3 is a diagram for explaining an operation of outputting a sensor module corresponding to less than a reference factor value according to an embodiment.
Figure 4 is a diagram for explaining an operation of determining and outputting surrounding objects and environmental conditions according to an embodiment.
Figures 5A and 5B are diagrams for explaining an operation of outputting reliability according to another embodiment.
Figure 6 is a flow chart according to one embodiment.

명세서 전체에 걸쳐 동일 참조 부호는 동일 구성요소를 지칭한다.본 명세서가 실시예들의 모든 요소들을 설명하는 것은 아니며, 본 발명이 속하는 기술분야에서 일반적인 내용 또는 실시예들 간에 중복되는 내용은 생략한다. 명세서에서 사용되는 '부, 모듈, 부재, 블록'이라는 용어는 소프트웨어 또는 하드웨어로 구현될 수 있으며, 실시예들에 따라 복수의 '부, 모듈, 부재, 블록'이 하나의 구성요소로 구현되거나, 하나의 '부, 모듈, 부재, 블록'이 복수의 구성요소들을 포함하는 것도 가능하다.The same reference numerals refer to the same elements throughout the specification. This specification does not describe all elements of the embodiments, and general content or overlapping content between the embodiments in the technical field to which the present invention pertains is omitted. The term 'part, module, member, block' used in the specification may be implemented as software or hardware, and depending on the embodiment, a plurality of 'part, module, member, block' may be implemented as a single component, or It is also possible for one 'part, module, member, or block' to include multiple components.

명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 직접적으로 연결되어 있는 경우뿐 아니라, 간접적으로 연결되어 있는 경우를 포함하고, 간접적인 연결은 무선 통신망을 통해 연결되는 것을 포함한다.Throughout the specification, when a part is said to be “connected” to another part, this includes not only direct connection but also indirect connection, and indirect connection includes connection through a wireless communication network. do.

또한 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.Additionally, when a part "includes" a certain component, this means that it may further include other components rather than excluding other components, unless specifically stated to the contrary.

명세서 전체에서, 어떤 부재가 다른 부재 "상에" 위치하고 있다고 할 때, 이는 어떤 부재가 다른 부재에 접해 있는 경우뿐 아니라 두 부재 사이에 또 다른 부재가 존재하는 경우도 포함한다. Throughout the specification, when a member is said to be located “on” another member, this includes not only cases where a member is in contact with another member, but also cases where another member exists between the two members.

제1, 제 2 등의 용어는 하나의 구성요소를 다른 구성요소로부터 구별하기 위해 사용되는 것으로, 구성요소가 전술된 용어들에 의해 제한되는 것은 아니다. Terms such as first and second are used to distinguish one component from another component, and the components are not limited by the above-mentioned terms.

단수의 표현은 문맥상 명백하게 예외가 있지 않는 한, 복수의 표현을 포함한다.Singular expressions include plural expressions unless the context clearly makes an exception.

각 단계들에 있어 식별부호는 설명의 편의를 위하여 사용되는 것으로 식별부호는 각 단계들의 순서를 설명하는 것이 아니며, 각 단계들은 문맥상 명백하게 특정 순서를 기재하지 않는 이상 명기된 순서와 다르게 실시될 수 있다.The identification code for each step is used for convenience of explanation. The identification code does not explain the order of each step, and each step may be performed differently from the specified order unless a specific order is clearly stated in the context. there is.

이하 첨부된 도면들을 참고하여 본 발명의 작용 원리 및 실시예들에 대해 설명한다.Hereinafter, the operating principle and embodiments of the present invention will be described with reference to the attached drawings.

도1은 일 실시예에 따른 제어 블록도이다.1 is a control block diagram according to one embodiment.

도1을 참고하면, 차량(1)은 통신부(110), 센서부(120), 제어부(130) 및 출력부(140)를 포함할 수 있다.Referring to Figure 1, the vehicle 1 may include a communication unit 110, a sensor unit 120, a control unit 130, and an output unit 140.

통신부(110)는 차량의 위치 신호를 수신할 수 있다. 또한 통신부(110)는 차량 주변 물체 중 일부인 다른 차량과 통신을 수행할 수 있다.The communication unit 110 may receive a location signal of the vehicle. Additionally, the communication unit 110 may perform communication with another vehicle that is part of the objects surrounding the vehicle.

위치 신호는 GPS(Global Positioning System) 신호로 구성될 수 있다.The location signal may consist of a Global Positioning System (GPS) signal.

위치 신호는 차량의 현재 위치를 포함한 정보 및 차량이 주행하는 주변의 지형 정보를 포함하는 정보를 의미할 수 있다.The location signal may refer to information including the current location of the vehicle and information including topographical information around where the vehicle is driving.

GPS 위성에서 보내는 신호를 수신해 사용자의 현재 위치를 계산하는 위성항법시스템을 의미할 수 있다.It can refer to a satellite navigation system that receives signals sent from GPS satellites and calculates the user's current location.

통신부(110) 근거리 통신 모듈, 유선 통신 모듈 및 무선 통신 모듈 중 적어도 하나를 포함할 수 있다.The communication unit 110 may include at least one of a short-range communication module, a wired communication module, and a wireless communication module.

근거리 통신 모듈은 블루투스 모듈, 적외선 통신 모듈, RFID(Radio Frequency Identification) 통신 모듈, WLAN(Wireless Local Access Network) 통신 모듈, NFC 통신 모듈, 직비(Zigbee) 통신 모듈 등 근거리에서 무선 통신망을 이용하여 신호를 송수신하는 다양한 근거리 통신 모듈을 포함할 수 있다.The short-range communication module transmits signals using a wireless communication network at a short distance, such as a Bluetooth module, infrared communication module, RFID (Radio Frequency Identification) communication module, WLAN (Wireless Local Access Network) communication module, NFC communication module, and Zigbee communication module. It may include various short-range communication modules that transmit and receive.

유선 통신 모듈은 캔(Controller Area Network; CAN) 통신 모듈 , 지역 통신(Local Area Network; LAN) 모듈, 광역 통신(Wide Area Network; WAN) 모듈 또는 부가가치 통신(Value Added Network; VAN) 모듈 등 다양한 유선 통신 모듈뿐만 아니라, USB(Universal Serial Bus), HDMI(High Definition Multimedia Interface), DVI(Digital Visual Interface), RS-232(recommended standard232), 전력선 통신, 또는 POTS(plain old telephone service) 등 다양한 케이블 통신 모듈을 포함할 수 있다. Wired communication modules include a variety of wired communication modules, such as Controller Area Network (CAN) communication modules, Local Area Network (LAN) modules, Wide Area Network (WAN) modules, or Value Added Network (VAN) modules. In addition to communication modules, various cable communications such as USB (Universal Serial Bus), HDMI (High Definition Multimedia Interface), DVI (Digital Visual Interface), RS-232 (recommended standard232), power line communication, or POTS (plain old telephone service) Can contain modules.

무선 통신 모듈은 와이파이(Wifi) 모듈, 와이브로(Wireless broadband) 모듈 외에도, GSM(global System for Mobile Communication), CDMA(Code Division Multiple Access), WCDMA(Wideband Code Division Multiple Access), UMTS(universal mobile telecommunications system), TDMA(Time Division Multiple Access), LTE(Long Term Evolution) 등 다양한 무선 통신 방식을 지원하는 무선 통신 모듈을 포함할 수 있다.In addition to Wi-Fi modules and WiBro (Wireless broadband) modules, wireless communication modules include GSM (global System for Mobile Communication), CDMA (Code Division Multiple Access), WCDMA (Wideband Code Division Multiple Access), and UMTS (universal mobile telecommunications system). ), TDMA (Time Division Multiple Access), and LTE (Long Term Evolution) may include a wireless communication module that supports various wireless communication methods.

센서부(120)는 차량 주변 정보 및 차량 주행 정보를 획득할 수 있다.The sensor unit 120 can obtain vehicle surrounding information and vehicle driving information.

차량 주변 정보는 차량 주변에 위치하는 물체와 차량과의 위치 관계를 기초로 결정되는 정보를 의미할 수 있다. Information around the vehicle may refer to information determined based on the positional relationship between the vehicle and objects located around the vehicle.

차량의 주행 정보는 차량의 주행과 관련된 정보로 차량의 속도, 가속도, 조향 정보 및 요 레이트 정보 등을 포함할 수 있다.The vehicle's driving information is information related to the vehicle's driving and may include the vehicle's speed, acceleration, steering information, and yaw rate information.

한편 센서부(120)는 복수개의 센서 모듈을 포함할 수 있다. 각각의 센서 모듈은 레이더(121), 라이다(122), 가속도 센서(123), 조향 센서(124), 토크 센서(125), 휠 속 센서(126) 및 카메라(127)를 포함할 수 있다.Meanwhile, the sensor unit 120 may include a plurality of sensor modules. Each sensor module may include radar 121, lidar 122, acceleration sensor 123, steering sensor 124, torque sensor 125, wheel sensor 126, and camera 127. .

레이더(121)는 마이크로파(극초단파, 10cm~100cm 파장) 정도의 전자기파를 물체에 발사시켜 그 물체에서 반사되는 전자기파를 수신하여 차량과 물체와의 거리, 방향, 고도 등을 알아내는 센서 모듈로 마련될 수 있다.The radar 121 is a sensor module that detects the distance, direction, altitude, etc. between the vehicle and the object by emitting electromagnetic waves of the order of microwaves (ultraviolet waves, 10 cm to 100 cm wavelength) to an object and receiving electromagnetic waves reflected from the object. You can.

라이다(122)는 레이저 펄스를 발사하고, 그 빛이 주위의 대상 물체에서 반사되어 돌아오는 것을 받아 물체까지의 거리 등을 측정함으로써 주변의 모습을 정밀하게 그려내는 센서 모듈로 마련될 수 있다.LiDAR 122 can be provided as a sensor module that accurately depicts the surroundings by emitting a laser pulse, receiving the light reflected from a surrounding target object, and measuring the distance to the object.

가속도 센서(123)는 3축 센서로 구현될 수 있다. 가속도 센서(123)는 차량이3차원에서 움직일 때 x축, y축, z축 방향의 가속도의 정보를 획득할 수 있도록 구현될 수 있다. 가속도 센서(123)는 자이로 센서로 구현될 수 있다. 센서는 차량의 충격 정보를 계산하는 구성이면 센서의 종류는 한정하지 않는다.The acceleration sensor 123 may be implemented as a 3-axis sensor. The acceleration sensor 123 can be implemented to obtain acceleration information in the x-axis, y-axis, and z-axis directions when the vehicle moves in three dimensions. The acceleration sensor 123 may be implemented as a gyro sensor. The type of sensor is not limited as long as it is configured to calculate vehicle impact information.

조향 센서(124)는 차량의 핸들을 꺾은 각에 대해 실제로 타이어가 회전한 각을 획득할 수 있는 센서를 의미하며, 전동식 조향 장치 시스템 내에 구비될 수 있다.The steering sensor 124 refers to a sensor that can obtain the actual tire rotation angle with respect to the angle at which the vehicle's steering wheel is bent, and may be provided in the electric steering system.

토크 센서(125)는 차량의 전체 토크를 측정하는 센서로 토크를 측정하는 데는 동력전달 축을 제동장치와 결합하여 그 일을 열 또는 전기 에너지의 형태로 방산시켜 그 때의 제동량으로부터 구하는 것과 동력전달축의 비틀림 각이나 변형 등으로부터 측정하는 동작이 구현될 수 있다. The torque sensor 125 is a sensor that measures the total torque of the vehicle. To measure torque, the torque is measured by combining the power transmission shaft with a braking device to dissipate the work in the form of heat or electric energy and obtain it from the amount of braking at that time and power transmission. Measurement operations can be implemented from the twist angle or deformation of the axis.

휠 속 센서(126)는 앞뒤 4바퀴에 각각 설치되어 바퀴의 회전 속도를 톤 휠(tone wheel)과 센서에서의 자력선 변화로 감지할 수 있다. 일 실시예에 따르면 휠 속 센서(126)는 차량자세제어장치(electronic stability control, ESC) 시스템 내에 마련될 수 있다.Sensors 126 in the wheels are installed on each of the front and rear four wheels, and can detect the rotational speed of the wheels through changes in magnetic force lines in the tone wheel and sensor. According to one embodiment, the sensor 126 in the wheel may be provided in an electronic stability control (ESC) system.

카메라(127)는 차량의 전방, 후방 및 측방에 마련되어 영상을 획득할 수 있다.The camera 127 may be provided at the front, rear, and sides of the vehicle to acquire images.

카메라(127)는 CCD(Charge-Coupled Device) 카메라 또는 CMOS 컬러 이미지 센서를 포함할 수 있다. 여기서 CCD 및 CMOS는 모두 카메라의 렌즈를 통해 들어온 빛을 전기 신호로 바꾸어 저장하는 센서를 의미한다. 구체적으로CCD(Charge-Coupled Device) 카메라(127)는 전하 결합 소자를 사용하여 영상을 전기 신호로 변환하는 장치이다. 또한, CIS(CMOS Image Sensor)는 CMOS 구조를 가진 저소비, 저전력형의 촬상소자를 의미하며, 디지털 기기의 전자 필름 역할을 수행한다. 일반적으로 CCD는 CIS보다 감도가 좋아 차량(1)에 많이 쓰이지만, 반드시 이에 한정되는 것은 아니다.The camera 127 may include a charge-coupled device (CCD) camera or a CMOS color image sensor. Here, CCD and CMOS both refer to sensors that convert the light coming through the camera lens into electrical signals and store them. Specifically, the CCD (Charge-Coupled Device) camera 127 is a device that converts images into electrical signals using a charge-coupled device. Additionally, CIS (CMOS Image Sensor) refers to a low-consumption, low-power imaging device with a CMOS structure, and serves as an electronic film for digital devices. In general, CCD has better sensitivity than CIS and is often used in vehicles (1), but it is not necessarily limited to this.

출력부(140)는 후술하는 제어부(130)가 결정한 신뢰도, 특정 센서 모듈, 사용자를 가이드하는 메시지, 주변 물체와 차량과의 위치 관계 등을 출력할 수 있다.The output unit 140 may output reliability determined by the control unit 130, which will be described later, a specific sensor module, a message guiding the user, and a positional relationship between surrounding objects and the vehicle.

제어부(130)는 차량 주변 정보를 기초로 차량의 주변 물체 인지 상태를 결정할 수 있다.The control unit 130 may determine the recognition state of objects around the vehicle based on information around the vehicle.

차량 주변 정보는 센서부(120)가 획득한 차량과 차량 주변 물체와의 위치 관계를 포함하는 정보를 의미할 수 있다.Vehicle surrounding information may refer to information including the positional relationship between the vehicle and objects surrounding the vehicle acquired by the sensor unit 120.

한편 인지 상태는 센서가 획득한 정보 및 센서 퓨전 정보를 바탕으로 차량이 주변 물체를 인지하고, 인지 정보의 신뢰도를 의미할 수 있다.Meanwhile, the recognition state may mean that the vehicle recognizes surrounding objects based on information acquired by sensors and sensor fusion information, and the reliability of the recognition information.

구체적으로 제어부(130)는 차량의 속도와 주행방향을 고려하여 관심영역을 지정한다. 제어부(130)는 센서의 현재 상태를 수치로 변환한다. 예를 들어 상태가 정상이면 1.0, 캘리브레이션 미실시이면 0.5, 고장이면 0으로 상태와 신뢰도 수치를 맵핑할 수 있다.Specifically, the control unit 130 designates the area of interest by considering the speed and driving direction of the vehicle. The control unit 130 converts the current state of the sensor into numerical values. For example, the status and reliability values can be mapped to 1.0 if the status is normal, 0.5 if no calibration has been performed, and 0 if the status is faulty.

제어부(130)가 센서의 신뢰도를 판단하는 데 있어서 0~1로 맵핑하고 모두 곱하여 종합 수치를 생성할 수 있다. 제어부(130)는 센서 퓨전 정보 판단에서는 동일한 객체를 두 개 이상의 센서에서 인식하였을 경우 거리 오차를 수치로 변환할 수 있다. 제어부(130)는 센서의 인식 영역이 같은 두 센서에서 같은 객체에 대해서 양쪽 센서의 인식 유무를 수치로 변환할 수 있다.When the control unit 130 determines the reliability of the sensor, it can map the values from 0 to 1 and multiply them all to generate a comprehensive value. When determining sensor fusion information, the control unit 130 may convert the distance error into a numerical value when the same object is recognized by two or more sensors. The control unit 130 can convert whether or not both sensors recognize the same object in two sensors with the same recognition area into a numerical value.

제어부(130)는 주변 물체와 상기 차량과의 위치 관계를 기초로 상기 차량의 환경 상태를 결정할 수 있다.The control unit 130 may determine the environmental state of the vehicle based on the positional relationship between surrounding objects and the vehicle.

주행 환경은 차량과 주변 물체의 관계를 기초로 결정된 사고 발생 확률을 포함할 수 있다. 구체적으로 제어부(130)는 차량 주변 물체의 위치를 추적할 수 있다. 제어부(130)는 주변 물체가 차량에 너무 근접하여 주행하여 위험한 경우 낮은 수치를 출력할 수 있다. 전방에 위치한 주변 물체, 즉 다른 차량이 급정거를 자주하거나 옆 차량이 근접 끼어들기를 할 경우 그리고 주변 차량의 궤적이 차선을 잘 따라가지 못할 경우 등 주변 물체의 위험도가 높을 경우 낮은 주행 환경 수치를 출력할 수 있다. 주행 환경 판단에서는 차량이 주행하는 노면 상태 그리고 경로 내 위험구간, 공사구간, 사고구간 등의 유무를 수신하여 이를 수치화하여 출력할 수 있다.The driving environment may include the probability of an accident occurring based on the relationship between the vehicle and surrounding objects. Specifically, the control unit 130 can track the location of objects around the vehicle. The control unit 130 may output a low value when a surrounding object is dangerous due to driving too close to the vehicle. A low driving environment value is output when the risk of surrounding objects located in front is high, such as when other vehicles make frequent sudden stops, when the vehicle next to you cuts in close, and when the trajectories of surrounding vehicles do not follow the lane well. can do. In determining the driving environment, the condition of the road surface on which the vehicle is driving and the presence or absence of danger zones, construction zones, and accident zones within the route can be received, quantified, and output.

제어부(130)는 차량 주행 정보를 기초로 결정된 차량의 예상 경로와 위치 신호의 차이를 기초로 상기 차량이 주행하는 경로 상태를 결정할 수 있다.The control unit 130 may determine the path state on which the vehicle is traveling based on the difference between the location signal and the expected path of the vehicle determined based on vehicle driving information.

예상 경로는 차량의 주행 정보 등을 기초로 차량이 이후 시점에서 주행할 것으로 예상되는 경로를 의미할 수 있다.The expected route may refer to the route the vehicle is expected to drive at a later point in time based on the vehicle's driving information, etc.

경로 상태 판단에서 제어부(130)는 예상 경로와 위치 신호를 기초로 결정된 실제 주행 경로의 차이를 신뢰도 수치로 변환할 수 있다. 차량에 외란이 발생하거나 경로 생성에 오류가 발생하면 예상 경로로 주행하지 못할 수 있으며 제어부(130)는 그 차이를 신뢰도로 환산할 수 있다. 경로 변경 빈도 판단에서는 생성한 경로가 얼마나 자주 변경되는지를 신뢰도 수치로 변환할 수 있다.In determining the route status, the control unit 130 may convert the difference between the expected route and the actual driving route determined based on the location signal into a reliability value. If a disturbance occurs in the vehicle or an error occurs in path creation, the vehicle may not be able to drive on the expected path, and the control unit 130 can convert the difference into reliability. In determining the frequency of route changes, how often the created route changes can be converted into a reliability value.

제어부(130)는 인지 상태, 상기 환경 상태 및 상기 경로 상태 중 적어도 하나를 기초로 상기 차량의 자율 주행 신뢰도를 결정하여 출력부(140)에 출력할 수 있다. The control unit 130 may determine the autonomous driving reliability of the vehicle based on at least one of the cognitive state, the environmental state, and the route state and output the determined autonomous driving reliability to the output unit 140.

자율 주행 신뢰도 판단에서는 인지상태 판단, 주행환경 판단, 경로상태 판단에서 생성한 신뢰도 정보를 종합하여 최종 신뢰도를 출력할 수 있다. 제어부(130)는 각 신뢰도마다 가중치를 달리 두고 신뢰도에 가중치 곱을 하여 종합 신뢰도를 계산할 수 있다. In autonomous driving reliability judgment, the final reliability can be output by combining the reliability information generated from cognitive state judgment, driving environment judgment, and route status judgment. The control unit 130 may calculate the overall reliability by setting different weights for each reliability and multiplying the reliability by the weight.

제어부(130)는 복수개의 센서 모듈 각각이 획득한 상기 주변 물체의 위치 정보 차이에 기초하여 인지 상태를 결정할 수 있다. The control unit 130 may determine the recognition state based on the difference in location information of the surrounding objects acquired by each of the plurality of sensor modules.

구체적으로 제어부(130)는 복수개의 센서 모듈 각각이 획득한 상기 주변 물체의 위치 정보를 기초로 복수개의 센서 모듈 각각의 인지 값 및 기준 인지 값을 결정할 수 있다.Specifically, the control unit 130 may determine the recognition value and the reference recognition value of each of the plurality of sensor modules based on the location information of the surrounding objects acquired by each of the plurality of sensor modules.

인지 값은 센서 모듈 각각이 획득한 주변 물체의 위치 정보의 신뢰도를 의미하고, 기준 인지 값은 인지 값의 평균을 의미할 수 있다.The recognition value refers to the reliability of the location information of surrounding objects acquired by each sensor module, and the reference recognition value may refer to the average of the recognition values.

제어부(130)는 자율 주행 신뢰도가 미리 결정된 값 미만이면, 기준 인지 값 미만에 해당하는 인지 값을 갖는 적어도 하나의 상기 센서 모듈을 상기 출력부(140)에 출력할 수 있다. 즉 자율 주행 신뢰도 감소에 기여한 센서 모듈을 출력부(140)에 출력할 수 있는데 이에 관련된 자세한 설명은 후술한다.If the autonomous driving reliability is less than a predetermined value, the control unit 130 may output at least one sensor module having a recognition value that is less than the reference recognition value to the output unit 140. That is, the sensor module that contributed to the decrease in autonomous driving reliability can be output to the output unit 140, and a detailed explanation regarding this will be described later.

제어부(130)는 기준 인지 값 미만에 해당하는 상기 인지 값을 갖는 적어도 하나의 상기 센서 모듈의 상기 인지 값을 증가 시키도록 사용자를 가이드하는 메시지를 출력부(140)에 출력할 수 있다.The control unit 130 may output a message to the output unit 140 to guide the user to increase the perception value of at least one sensor module whose perception value is less than the reference perception value.

예를 들어 조도가 부족하여 센서부(120)의 카메라 신뢰도가 떨어질 경우 "헤드램프를 상향 조정하세요"와 같은 메시지를 출력부(140)에 출력할 수 있다.For example, if the camera reliability of the sensor unit 120 decreases due to insufficient illumination, a message such as “Please adjust the headlamp upward” may be output to the output unit 140.

제어부(130)는 자율 주행 신뢰도가 미리 결정된 값 미만이면, 주변 물체와 차량과의 위치 관계를 기초로 주변 물체의 위험도를 결정하여 출력부(140)에 출력할 수 있다.If the autonomous driving reliability is less than a predetermined value, the control unit 130 may determine the degree of risk of the surrounding objects based on the positional relationship between the surrounding objects and the vehicle and output the determined risk to the output unit 140.

구체적으로 차량 주변 물체가 차량에 근접하여 사고 발생 확률이 높고 이를 기초로 차량의 자율 주행 신뢰도가 감소한 경우 차량은 출력부(140)에 사고 발생 확률이 높아 자율 주행 신뢰도를 감소 시킨 주변 물체를 출력부(140)에 출력할 수 있다.Specifically, when objects around the vehicle are close to the vehicle and the probability of an accident occurring is high, and based on this, the vehicle's autonomous driving reliability is reduced, the vehicle sends the surrounding objects that have a high probability of accident occurrence and reduced autonomous driving reliability to the output unit 140. It can be output at (140).

제어부(130)는 차량 주행 정보, 상기 차량 주변 정보 및 상기 위치 신호 중 적어도 하나를 기초로 상기 차량이 주행하는 도로 상태를 결정하고, 도로 상태를 기초로 차량의 자율 주행 신뢰도를 결정할 수 있다.The control unit 130 may determine the road condition on which the vehicle is traveling based on at least one of vehicle driving information, vehicle surrounding information, and the location signal, and determine autonomous driving reliability of the vehicle based on the road condition.

도로 상태는 센서부(120) 및 통신부(110)를 기초로 결정된 차량이 주행하는 도로의 상태를 의미할 수 있다. 구체적으로 차량은 카메라를 이용하여 도로의 노면 상태를 인식하거나 통신부(110)를 통해 전방 도로의 상태를 수신할 수 있다. 이를 기초로 제어부(130)는 자율주행 제어기는 도로 상태를 결정할 수 있다.The road condition may refer to the condition of the road on which the vehicle is driven, which is determined based on the sensor unit 120 and the communication unit 110. Specifically, the vehicle can recognize the road surface condition using a camera or receive the condition of the road ahead through the communication unit 110. Based on this, the control unit 130 can determine the road condition.

제어부(130)는 차량이 수행하는 적어도 하나의 자율 주행 기능에 기초하여 차량의 자율 주행 신뢰도를 결정하여 출력부(140)에 출력할 수 있다.The control unit 130 may determine the autonomous driving reliability of the vehicle based on at least one autonomous driving function performed by the vehicle and output the determined autonomous driving reliability to the output unit 140.

자율 주행 기능은 차선 유지,차속 유지, 긴급 제동, 회피 및 차선 변경 기능을 포함하는 자율 주행 기능을 의미할 수 있다. 이와 관련된 자세한 내용은 후술한다.Autonomous driving functions may refer to autonomous driving functions including lane keeping, vehicle speed maintenance, emergency braking, evasion, and lane change functions. Details related to this will be described later.

제어부(130)는 차량 내 구성요소들의 동작을 제어하기 위한 알고리즘 또는알고리즘을 재현한 프로그램에 대한 데이터를 저장하는 메모리(미도시), 및 메모리에 저장된 데이터를 이용하여 전술한 동작을 수행하는 프로세서(미도시)로 구현될 수 있다. 이때, 메모리와 프로세서는 각각 별개의 칩으로 구현될 수 있다. 또는, 메모리와 프로세서는 단일 칩으로 구현될 수도 있다.The control unit 130 includes a memory (not shown) that stores data for an algorithm for controlling the operation of components in the vehicle or a program that reproduces the algorithm, and a processor (not shown) that performs the above-described operations using the data stored in the memory. (not shown) may be implemented. At this time, the memory and processor may each be implemented as separate chips. Alternatively, the memory and processor may be implemented as a single chip.

출력부(140)는 상술한 동작을 기초로 제어부(130)에서 출력된 내용을 출력하는 구성으로 마련될 수 있다.The output unit 140 may be configured to output content output from the control unit 130 based on the above-described operation.

출력부(140)는 상술한 고장이 발생한 경우 운전자에게 경고신호를 출력하는 구성이면 족하며 일 실시예에 따르면 AVN디스플레이, 클러스터, 헤드 업 디스플레이(HUD) 및 스피커 등의 출력 형태를 포함할 수 있다. The output unit 140 is sufficient to output a warning signal to the driver when the above-described failure occurs, and according to one embodiment, it may include output types such as AVN display, cluster, head-up display (HUD), and speaker. .

도1에 도시된 차량의 구성 요소들의 성능에 대응하여 적어도 하나의 구성요소가 추가되거나 삭제될 수 있다. 또한, 구성 요소들의 상호 위치는 시스템의 성능 또는 구조에 대응하여 변경될 수 있다는 것은 당해 기술 분야에서 통상의 지식을 가진 자에게 용이하게 이해될 것이다.At least one component may be added or deleted in response to the performance of the components of the vehicle shown in FIG. 1. Additionally, it will be easily understood by those skilled in the art that the mutual positions of the components may be changed in response to the performance or structure of the system.

한편, 도 1에서 도시된 각각의 구성요소는 소프트웨어 및/또는 Field Programmable Gate Array(FPGA) 및 주문형 반도체(ASIC, Application Specific Integrated Circuit)와 같은 하드웨어 구성요소를 의미한다.Meanwhile, each component shown in FIG. 1 refers to software and/or hardware components such as Field Programmable Gate Array (FPGA) and Application Specific Integrated Circuit (ASIC).

도2a 내지 도2c는 일 실시예에 따른 자율 주행 신뢰도를 결정하는 동작을 설명하기 위한 도면이다.2A to 2C are diagrams for explaining an operation for determining autonomous driving reliability according to an embodiment.

도2a를 참고하면, 차량(1)이 주행하고 차량 전방에 주변 물체로 선행 차량(O2a)이 주행하는 것을 나타내고 있다.Referring to Figure 2a, it shows that the vehicle 1 is driving and the preceding vehicle O2a is driving toward surrounding objects in front of the vehicle.

한편, 차량에 마련된 센서부는 전방에 위치한 차량(O2a)과 차량(1)과의 위치 관계 정보를 원활하게 획득할 수 있다. 제어부는 이 경우 센서부의 신뢰도가 높은 것으로 판단할 수 있다.Meanwhile, the sensor unit provided in the vehicle can smoothly obtain positional relationship information between the vehicle O2a and the vehicle 1 located in front. In this case, the control unit may determine that the reliability of the sensor unit is high.

또한 도2a에서는 차량(1)과 전방 차량(O2a)과의 거리가 충분히 확보되고, 전방 차량(O2a)이 안정적으로 주행하고 있는 것으로 주행 환경의 위험도가 낮은 것으로 판단할 수 있다. 제어부는 주행 환경의 위험도가 높은 것으로 판단되면 자율 주행 신뢰도를 감소시키는 것으로 판단할 수 있다.In addition, in Figure 2a, the distance between the vehicle 1 and the vehicle ahead (O2a) is sufficiently secured, and the vehicle ahead (O2a) is driving stably, so it can be determined that the risk of the driving environment is low. If the control unit determines that the driving environment is high in risk, it may determine that autonomous driving reliability is reduced.

한편 제어부는 이 경우 전방에 위치한 차량(O2a)의 위치 관계, 차량의 주행 정보 및 통신부로 수신한 차량의 위치 정보를 기초로 예상 경로와 실제 주행 경로의 차이로 경로 상태를 결정할 수 있다. 도2a에서는 차량(1)과 전방에 위치한 차량(O2a)과의 위치 관계가 원활하게 도출되고, 차량의 위치 정보의 수신을 방해하는 특단의 사정이 발생한 것으로 판단하기 어려우므로 차량의 경로 상태가 자율 주행 신뢰도를 감소시키는 것으로 판단하기 어렵다.Meanwhile, in this case, the control unit may determine the path status as the difference between the expected path and the actual driving path based on the positional relationship of the vehicle O2a located in front, the vehicle's driving information, and the vehicle's location information received from the communication unit. In Figure 2a, the positional relationship between the vehicle 1 and the vehicle O2a located in front is smoothly derived, and it is difficult to determine that special circumstances that prevent the reception of the vehicle's location information have occurred, so the vehicle's path state is autonomous. It is difficult to judge that it reduces driving reliability.

따라서 제어부는 도2a와 같은 상황에서 자율 주행 신뢰도가 높은 것으로 판단하고 자율 주행 신뢰도가 높은 것을 포함하는 메시지를 출력부에 출력할 수 있다.Therefore, the control unit may determine that the autonomous driving reliability is high in a situation as shown in Figure 2a and output a message containing the high autonomous driving reliability to the output unit.

도2b를 참고하면, 차량(1)이 주행하고 차량 전방에 주변 물체로 선행 차량(O2b)이 주행하는 것을 나타내고 있다.Referring to Figure 2b, it shows that the vehicle 1 is driving and the preceding vehicle O2b is driving toward surrounding objects in front of the vehicle.

한편, 도2b에서는 차량(1)에 마련된 센서부는 전방에 위치한 차량(O2b)과 차량(1)과의 위치 관계 정보를 원활하게 획득하지 못하는 경우를 나타내고 있다. 일 실시예에 따르면, 센서부가 원활하게 동작하지 못하거나 시간 및 기후의 영향을 받아 센서부가 주변 물체의 정보를 원활하게 획득하지 못하는 경우에 해당될 수 있다.Meanwhile, Figure 2b shows a case where the sensor unit provided in the vehicle 1 cannot smoothly obtain positional relationship information between the vehicle 1 and the vehicle O2b located in front. According to one embodiment, this may be the case when the sensor unit does not operate smoothly or when the sensor unit cannot smoothly acquire information about surrounding objects due to the influence of time and climate.

제어부는 이 경우 센서부의 신뢰도가 낮은 것으로 판단할 수 있다.In this case, the control unit may determine that the reliability of the sensor unit is low.

따라서 제어부는 도2b와 같은 상황에서 자율 주행 신뢰도가 도2a에 비하여 상대적으로 낮은 것으로 판단하고 자율 주행 신뢰도가 보통인 것을 포함하는 메시지를 출력부에 출력할 수 있다.Accordingly, the control unit may determine that the autonomous driving reliability in a situation such as that of Figure 2b is relatively low compared to Figure 2a and output a message including that the autonomous driving reliability is average to the output unit.

한편 도2b와 같은 경우 제어부는 자율 주행 신뢰도에 영향을 주는 센서 모듈을 출력부에 출력할 수 있는데 이와 관련된 자세한 설명은 후술한다.Meanwhile, in the case shown in Figure 2b, the control unit can output a sensor module that affects autonomous driving reliability to the output unit, and a detailed explanation regarding this will be described later.

도2c를 참고하면, 차량(1)이 주행하고 차량 전방에 주변 물체로 선행 차량(O2c)이 주행하는 것을 나타내고 있다.Referring to Figure 2c, it shows that the vehicle 1 is driving and the preceding vehicle O2c is driving toward surrounding objects in front of the vehicle.

한편, 도2c에서는 도2b와 마찬가지로 차량에 마련된 센서부는 전방에 위치한 차량(O2c)과 차량(1)과의 위치 관계 정보를 원활하게 획득하지 못하는 경우를 나타내고 있다. Meanwhile, Figure 2c shows a case where, like Figure 2b, the sensor unit provided in the vehicle cannot smoothly obtain positional relationship information between the vehicle O2c and the vehicle 1 located in front.

또한 도2c 에서는 차량(1)과 전방 차량(O2c)과의 거리가 충분히 확보되지 못하여 충돌의 가능성이 높은 것을 나타내고 있다. 전방 차량(O2c)이 불안정하게 주행하고 있는 것이며 제어부는 주행 환경의 위험도가 높은 것으로 판단할 수 있다. 제어부는 주행 환경의 위험도가 높은 것으로 판단되면 자율 주행 신뢰도를 감소시키는 것으로 판단할 수 있다.In addition, Figure 2c shows that the distance between the vehicle 1 and the vehicle ahead (O2c) is not sufficiently secured, so the possibility of a collision is high. The vehicle ahead (O2c) is driving unstable, and the control unit can determine that the driving environment is high risk. If the control unit determines that the driving environment is high in risk, it may determine that autonomous driving reliability is reduced.

한편 제어부는 이 경우 전방에 위치한 차량(O2c)의 위치 관계, 차량의 주행 정보 및 통신부로 수신한 차량의 위치 정보를 기초로 예상 경로와 실제 주행 경로의 차이로 경로 상태를 결정할 수 있다. 도2c에서는 차량과 전방에 위치한 차량(O2c)과의 위치 관계가 원활하게 도출되지 못하고, 전방 차량(O2c)과의 관계에서 사고 발생 확률이 높으며, 위치 정보의 수신을 방해하는 특단의 사정이 존재하여 예상 경로와 실제 주행 경로의 차이가 많은 것으로 판단된다면 제어부는 도2c와 같은 상황에서 자율 주행 신뢰도가 낮은 것으로 판단하고 자율 주행 신뢰도가 낮은 것을 포함하는 메시지를 출력부에 출력할 수 있다.Meanwhile, in this case, the control unit can determine the path status as the difference between the expected path and the actual driving path based on the positional relationship of the vehicle O2c located in front, the vehicle's driving information, and the vehicle's location information received from the communication unit. In Figure 2c, the positional relationship between the vehicle and the vehicle in front (O2c) cannot be smoothly derived, the probability of an accident occurring in the relationship with the vehicle in front (O2c) is high, and there are special circumstances that prevent the reception of location information. Therefore, if it is determined that there is a large difference between the expected path and the actual driving path, the control unit may determine that the autonomous driving reliability is low in the situation shown in Figure 2c and output a message including the low autonomous driving reliability to the output unit.

한편 도2a 내지 도2c에서 설명한 동작은 본 발명의 동작을 설명하기 위한 일 실시예에 불과하며 차량의 자율 주행 신뢰도를 결정하는 동작이라면 차량의 동작에는 제한이 없다.Meanwhile, the operation described in FIGS. 2A to 2C is only an example for explaining the operation of the present invention, and there are no restrictions on the operation of the vehicle as long as it is an operation that determines the autonomous driving reliability of the vehicle.

도3은 일 실시예에 따른 기준 인자 값 미만에 해당하는 센서 모듈을 출력하는 동작을 설명하기 위한 도면이다.Figure 3 is a diagram for explaining an operation of outputting a sensor module corresponding to less than a reference factor value according to an embodiment.

도3을 참고하면, 센서부에 마련된 카메라가 원활하게 주변 물체의 위치 정보를 획득하지 못하는 상황(K3) 및 카메라가 인지 값을 증가 시키도록 사용자를 가이드하는 메시지(M32)가 출력부에 출력된 것을 나타내고 있다.Referring to Figure 3, there is a situation (K3) in which the camera provided in the sensor unit does not smoothly acquire location information of surrounding objects, and a message (M32) guiding the user to increase the recognition value by the camera is output to the output unit. It indicates that

제어부는 복수개의 센서 모듈 각각이 획득한 상기 주변 물체의 위치 정보를 기초로 카메라의 주면 물체 인지 값 및 다른 센서 모듈의 인지 값의 평균으로 기준 인지 값을 결정할 수 있다.The control unit may determine the reference recognition value as an average of the main object recognition value of the camera and the recognition values of other sensor modules based on the location information of the surrounding objects acquired by each of the plurality of sensor modules.

제어부는 센서의 인지 상태와 센서 퓨전 정보를 바탕으로 차량이 주변 객체를 잘 인지하고 있는지를 판단하고 신뢰도 수치를 기초로 인지 상태를 결정할 수 있다.The control unit can determine whether the vehicle is well aware of surrounding objects based on the recognition state of the sensor and sensor fusion information and determine the recognition state based on the reliability value.

구체적으로 제어부는 먼저 현재 차속과 주행방향을 고려하여 관심영역을 지정하고 각각의 센서 모듈은 각각의 센서 모듈 상태를 수치로 변환할 수 있다.Specifically, the control unit first designates an area of interest by considering the current vehicle speed and driving direction, and each sensor module can convert the state of each sensor module into a numerical value.

일 실시예에 따르면 제어부는 센서모듈 상태가 정상이면 1.0, 캘리브레이션 미 실시이면 0.5, 고장이면 0으로 상태와 신뢰도 수치를 맵핑할 수 있다.According to one embodiment, the control unit can map the status and reliability value to 1.0 if the sensor module is normal, 0.5 if calibration is not performed, and 0 if the sensor module is malfunctioning.

도3에서는 주행 상황이 어두운 상황으로 센서부 중 카메라가 빛이 부족하여 원활하게 전방 물체의 정보를 획득하지 못하고 있는 것을 나타내고 있다. 이 경우 카메라의 인지 값이 다른 센서 모듈로부터 결정된 기준 인지 값보다 낮을 수 있다. 또한, 도3의 상황에서 카메라는 원활하게 정보를 획득하지 못하여 차량의 자율 주행 신뢰도를 감소시키는 요소로 작용할 수 있다. 따라서 제어부는 카메라의 위치 등 해당 카메라를 식별할 수 있는 요소(K3)를 출력부에 출력할 수 있다. 또한 이 경우 제어부는 카메라의 인지 값을 증가 시키기 위하여 사용자를 가이드하는 메시지(M32)를 출력할 수 있다. Figure 3 shows that the driving situation is dark and the camera in the sensor unit is unable to smoothly acquire information about the object ahead due to lack of light. In this case, the camera's recognition value may be lower than the reference recognition value determined from other sensor modules. Additionally, in the situation shown in Figure 3, the camera may not obtain information smoothly, which may act as a factor in reducing the reliability of autonomous driving of the vehicle. Therefore, the control unit can output elements (K3) that can identify the camera, such as the camera's location, to the output unit. Also, in this case, the control unit can output a message (M32) to guide the user in order to increase the recognition value of the camera.

도4는 일 실시예에 따른 주변 물체 및 환경 상태를 결정하여 출력하는 동작을 설명하기 위한 도면이다.Figure 4 is a diagram for explaining an operation of determining and outputting surrounding objects and environmental conditions according to an embodiment.

도4를 참고하면, 차량에 전방에 위치한 대향 차량(D4)이 차량에 접근하는 것을 나타내고 있다. Referring to Figure 4, it shows that an opposing vehicle D4 located in front of the vehicle is approaching the vehicle.

제어부는 자율 주행 신뢰도가 미리 결정된 값 미만이면 주변 물체와 상기 차량과의 위치 관계를 기초로 상기 주변 물체의 위험도(M42)를 결정하여 출력부(140)에 출력할 수 있다.If the autonomous driving reliability is less than a predetermined value, the control unit may determine the risk level (M42) of the surrounding object based on the positional relationship between the surrounding object and the vehicle and output it to the output unit 140.

제어부가 주변 물체와 상기 차량과의 위치 관계를 기초로 결정한 위험도는 차량의 자율 주행 신뢰도(M41)를 결정하는데 이용될 수 있다.The risk determined by the control unit based on the positional relationship between surrounding objects and the vehicle can be used to determine the autonomous driving reliability (M41) of the vehicle.

즉, 제어부는 차량과 충돌 위험이 높은 경우 자율 주행을 신뢰하기 어려운 상황으로 판단하고 자율 주행 신뢰도를 낮게 결정할 수 있다. 일 실시예에 따르면 주변 차량 위험도가 높을 경우 해당 차량을 표시(D4)할 수 있으며, 출력부에 경고 메시지(M42)를 출력할 수 있다.In other words, when the risk of collision with a vehicle is high, the control unit may determine that autonomous driving is unreliable and determine autonomous driving reliability to be low. According to one embodiment, if the risk of surrounding vehicles is high, the relevant vehicle can be displayed (D4) and a warning message (M42) can be output to the output unit.

도3및 도4에서는 디스플레이 형태의 출력부에 자율 주행 신뢰도, 자율 주행 신뢰도를 감소시키는 센서 모듈, 환경 상태 및 가이드 메시지를 출력하는 것을 나타냈으나 출력부의 형태에는 제한이 없다.3 and 4 show that autonomous driving reliability, a sensor module that reduces autonomous driving reliability, environmental conditions, and a guide message are output to the output unit in the form of a display, but there is no limit to the form of the output unit.

일 실시예에 따르면 차량은 증강현실 HUD로 마련된 출력부에 자율주행 신뢰도를 출력하고 자율주행 상태를 표시하는데 신뢰도가 낮은 경우 자율 주행 신뢰도를 감소 시키는 요인을 함께 출력할 수 있다.According to one embodiment, the vehicle outputs autonomous driving reliability to an output unit provided as an augmented reality HUD and displays the autonomous driving status. If the reliability is low, factors that reduce autonomous driving reliability may also be output.

일 실시예에 따르면 제어부는 자율주행 신뢰도를 계산하고 현재 신뢰도를 정보전달 장치로 전송할 수 있다.According to one embodiment, the control unit may calculate autonomous driving reliability and transmit the current reliability to an information transmission device.

제어부는 신뢰도가 낮은 경우 신뢰도를 낮추는데 가장 큰 요인을 함께 전송할 수 있다. 증강현실 HUD는 자율주행 신뢰도를 수신하고 자율주행 상태를 표시할 수 있다. 증강현실 HUD는 자율 주행 신뢰도가 낮은 경우 신뢰도를 감소 시키는 요인을 함께 출력할 수 있다.If reliability is low, the control unit can transmit the biggest factor in lowering reliability. The augmented reality HUD can receive autonomous driving reliability and display autonomous driving status. When autonomous driving reliability is low, the augmented reality HUD can output factors that reduce reliability.

예를 들어 센서 인식 정확도가 떨어져서 자율주행 신뢰도가 낮을 경우 센서의 인식 현황을 증강현실로 표시할 수 있다. 또한 HUD는 주변 차량 위험도가 높을 경우 해당 차량에 경고 마크를 표시할 수 있다.For example, if autonomous driving reliability is low due to low sensor recognition accuracy, the sensor recognition status can be displayed in augmented reality. Additionally, HUD can display a warning mark on the vehicle if the risk of surrounding vehicles is high.

상술한 동작을 기초로 제어부는 자율주행 신뢰도를 증강현실 HUD에 그 원인과 함께 표시하여 운전자가 자율주행 신뢰도가 낮은 원인을 쉽게 파악하고 제어권을 이양 받거나, 원인을 주시할 수 있도록 가이드 할 수 있다.Based on the above-described operation, the control unit displays the autonomous driving reliability along with the cause on the augmented reality HUD, so that the driver can easily identify the cause of low autonomous driving reliability and transfer control or guide the driver to keep an eye on the cause.

한편 도3및 도4각각은 본 발명이 센서부에 포함된 일부 센서 모듈 및 주변 차량을 출력하는 일 실시예를 설명하기 위한 것이며, 출력되는 센서 모듈의 종류, 가이드 메시지, 자율 주행 신뢰도의 출력 형태 및 출력부의 종류의 제한은 없다.Meanwhile, Figures 3 and 4 are for explaining an embodiment in which the present invention outputs some sensor modules included in the sensor unit and surrounding vehicles, and shows the type of sensor module output, guide message, and output form of autonomous driving reliability. There is no limitation on the type of output unit.

제어부는 상술한 동작을 기초로 자율주행 신뢰도를 출력부에 그 원인과 함께 표시하여 사용자가 자율주행 신뢰도가 낮은 원인을 쉽게 인지하고 미리 제어권을 전달 받거나 원인을 파악하여 안전성을 확보할 수 있도록 할 수 있다.Based on the above-described operations, the control unit displays the autonomous driving reliability along with the cause on the output unit, allowing the user to easily recognize the cause of low autonomous driving reliability and secure safety by receiving control in advance or identifying the cause. there is.

도5a 및 도5b는 다른 실시예에 따른 신뢰도를 출력하는 동작을 설명하기 위한 도면이다.Figures 5A and 5B are diagrams for explaining an operation of outputting reliability according to another embodiment.

자율 주행 신뢰도는 상술한 바와 같이 높음, 보통 및 낮음으로 분류하여 출력될 수 있고, 인지 상태, 상기 환경 상태 및 상기 경로 상태 중 적어도 하나를 기초로 수치화 하여 출력할 수도 있다.As described above, autonomous driving reliability can be classified and output as high, normal, and low, and can also be output in numerical form based on at least one of the cognitive state, the environmental state, and the route state.

도5a를 참고하면, 제어부가 자율 주행 신뢰도를 지표로 출력하는 동작을 나타내고 있다.Referring to Figure 5a, the control unit outputs autonomous driving reliability as an indicator.

제어부는 자율 주행 신뢰도를 결정하는 5가지 지표로 나누어 출력하여 사용자가 현재 자율주행 시스템에서 부족한 부분을 한눈에 파악할 수 있도록 출력부(140)에 출력 할 수 있다.The control unit can output the output by dividing it into five indicators that determine autonomous driving reliability and output them to the output unit 140 so that the user can see at a glance what is lacking in the current autonomous driving system.

일 실시예에 따르면 5가지 지표는 인지, 경로 생성, 주행 환경, 도로 환경, 제어로 구성할 수 있다.According to one embodiment, the five indicators may consist of perception, route creation, driving environment, road environment, and control.

도5a은 비나 눈이 온 후 차량이 주행하는 도면이 빙판길인 경우 자율 주행 신뢰도를 나타낸 것이다. 차량은 카메라를 이용하여 도로의 노면 상태를 인식하거나 V2X 제어기를 통해 전방 도로의 상태를 수신할 수 있다. 제어부는 상술한 정보를 기초로 도로 환경 지표를 계산할 수 있다. 차량은 빙판길로 인해 슬립(slip)이 많이 발생할 수 있고 센서부에 마련된 휠 속 센서 등은 차량의 슬립 상태로 주행하는 것을 검출하고 제어부는 이를 기초로 제어 지표를 계산할 수 있다. 또한 제어부는 상술한 방법을 기초로 인지 상태, 경로 생성, 주행 환경 지표를 계산할 수 있다. 이러한 방법으로 자율 주행 신뢰도가 낮은 상황을 사용자에게 출력하여 차량이 자율주행 주행으로 운행될지라도 사용자의 안전을 확보할 수 있다.Figure 5a shows autonomous driving reliability when the vehicle is driving on an icy road after rain or snow. The vehicle can recognize the road surface condition using a camera or receive the condition of the road ahead through a V2X controller. The control unit may calculate road environment indicators based on the above-described information. Vehicles can often slip due to icy roads, and sensors in the wheels provided in the sensor unit detect that the vehicle is driving in a slip state, and the control unit can calculate control indicators based on this. Additionally, the control unit may calculate cognitive state, path creation, and driving environment indicators based on the above-described method. In this way, a situation with low autonomous driving reliability can be output to the user to ensure user safety even if the vehicle is driven in autonomous driving mode.

도5b를 참고하면, 제어부가 수행하는 적어도 하나의 자율 주행 기능에 기초하여 자율 주행 신뢰도를 지표로 출력하는 동작을 나타내고 있다.Referring to Figure 5b, an operation of outputting autonomous driving reliability as an indicator based on at least one autonomous driving function performed by the control unit is shown.

제어부는 차량이 수행하는 적어도 하나의 자율 주행 기능에 기초하여 차량의 자율 주행 신뢰도를 결정하여 출력부(140)에 출력할 수 있다.The control unit may determine the autonomous driving reliability of the vehicle based on at least one autonomous driving function performed by the vehicle and output the determined reliability to the output unit 140.

제어부가 수행하는 자율주행 기능은 차선 유지, 차속 유지, 긴급 제동, 회피, 차선 변경을 포함할 수 있다.Autonomous driving functions performed by the control unit may include lane maintenance, vehicle speed maintenance, emergency braking, avoidance, and lane change.

제어부는 각 기능별 신뢰도를 도출할 수 있다.The control unit can derive reliability for each function.

차선 유지 기능을 위해서는 카메라로 차선인식을 하고 조향 제어를 하여 차량이 차선을 따라가도록 하는 기능이다. 제어부는 카메라로 차선 인식이 불가하면 차선 유지 신뢰도를 감소시킬 수 있다. 제어부는 차선 인식이 가능하더라도 조향 제어에 문제가 발생하여 차선을 유지하기 힘들 경우 신뢰도를 감소 시킬 수 있다.The lane maintenance function uses a camera to recognize lanes and controls steering to allow the vehicle to follow the lane. The control unit can reduce lane-keeping reliability if lane recognition is not possible with a camera. Even if lane recognition is possible, the control unit may reduce reliability if a steering control problem occurs and it is difficult to maintain the lane.

차속 유지 기능은 사용자가 설정한 차 속을 유지하고 제한 속도에 맞게 속도를 조절하는 기능이다. 제어부는 센서나 엑츄에이터의 이상 혹은 네비게이션을 통한 속도 정보 미수신 등의 이유로 속도 조절을 하기 힘든 경우 신뢰도를 감소 시킬 수 있다.The vehicle speed maintenance function maintains the vehicle speed set by the user and adjusts the speed to match the speed limit. The control unit may reduce reliability when it is difficult to control speed due to a sensor or actuator error or failure to receive speed information through navigation.

긴급 제동의 경우 카메라, 레이더, 라이다 등의 센서로부터 물체를 인식하고 위험을 감지할 경우 긴급 제동하는 기능이다. 제어부는 센서에 이상이 발생하거나 노면이 빙판길이어서 긴급 제동이 힘든 경우 자율 주행 신뢰도를 감소 시킬 수 있다.In the case of emergency braking, it is a function that recognizes objects from sensors such as cameras, radars, and lidar and performs emergency braking when danger is detected. The control unit can reduce the reliability of autonomous driving when an error occurs in a sensor or when emergency braking is difficult because the road surface is icy.

회피는 본 차선에 고정 사물이 있거나 주변 차량 및 보행자가 근접할 경우 차선 내에서 편향 주행하거나 차선을 변경하는 기능이다. 제어부는 근접 사물을 인지하는 센서에 이상이 발생하거나 도로 폭이 좁아서 편향 주행하기 힘든 경우 자율 주행 신뢰도를 감소 시킬 수 있다.Avoidance is a function that deviates from the lane or changes lanes when there is a stationary object in the lane or surrounding vehicles and pedestrians are close. The control unit can reduce the reliability of autonomous driving when a problem occurs in the sensor that recognizes nearby objects or when the road width is narrow and it is difficult to drive deviantly.

차선 변경의 경우 차량이 알아서 목적지에 도달하기 위해 차선을 변경하거나 운전자의 요청으로 차선을 자동 변경하는 기능이다. 제어부는 차선 변경을 위해 후 측방 감지 센서 이상이 발생할 경우나 편도 1차로에서 차선 변경을 위해 중앙선을 넘어야 하는 경우라면 자율 주행 신뢰도를 감소 시킬 수 있다.In the case of lane change, the vehicle automatically changes lanes to reach the destination or automatically changes lanes at the driver's request. The control unit can reduce autonomous driving reliability when an error occurs in the rear side sensor to change lanes or when the driver must cross the center line to change lanes on a one-way lane.

한편 상술한 동작으로 기초로 자율 주행 기능별 신뢰도를 표시하면 특정 기능의 자율 주행 신뢰도가 감소 할 경우 사용자는 해당 기능을 집중하여 주의하거나 제어권을 이양 받을 수 있다. 또 다른 실시예예 의하면 해당 기능의 신뢰도와 대응되도록 사용자에게 행동을 제안할 수 있다. 예를 들어 차선 유지 기능의 신뢰도가 특정 값 이하로 떨어지면 제어부는 "차선 인식 불가로 인해 보조 기능으로 차선을 유지합니다. 핸들에 손을 올리고 전방을 주시하세요." 와 같은 가이드 메시지를 출력할 수 있다. 또한 신뢰도가 특정 값 이하로 더 떨어지면 제어부는 "차선 유지 보조 기능을 수행할 수 없습니다. 핸들을 잡고 직접 조향하세요"와 같은 메시지를 출력할 수 있다.Meanwhile, if the reliability of each autonomous driving function is displayed based on the above-described operation, if the autonomous driving reliability of a specific function decreases, the user can focus attention on the function or transfer control. According to another embodiment, an action may be suggested to the user to correspond to the reliability of the function. For example, if the reliability of the lane-keeping function falls below a certain value, the control unit will say, "Due to the loss of lane recognition, the assist function will keep you in your lane. Keep your hands on the steering wheel and look ahead." A guide message such as can be output. Additionally, if reliability falls further below a certain value, the control unit may output a message such as "The lane keeping assist function cannot be performed. Hold the steering wheel and steer yourself."

도6은 일 실시예에 따른 순서도이다.Figure 6 is a flow chart according to one embodiment.

도6 참고하면, 센서부는 차량의 차량 주변 정보 및 차량 주행 정보를 획득할 수 있다(1001).Referring to Figure 6, the sensor unit can obtain vehicle surrounding information and vehicle driving information (1001).

제어부는 상기 획득한 정보를 기초로 상술한 바와 같이 인지 상태, 환경 상태 및 경로 상태를 결정할 수 있다(1002, 1003, 1004).The control unit may determine the cognitive state, environmental state, and path state as described above based on the obtained information (1002, 1003, 1004).

한편, 인지 상태를 결정하는 것은 관심 영역 지정, 센서 상태 정보 판단, 센서 신뢰도 정보 판단 및 센서 퓨전 정보 판단하는 동작을 포함할 수 있다(1002).Meanwhile, determining the cognitive state may include the operations of specifying a region of interest, determining sensor state information, determining sensor reliability information, and determining sensor fusion information (1002).

환경 상태를 결정하는 것은 주변 차량 위험도를 판단하는 동작 및 경로 위험도를 판단하는 동작을 포함할 수 있다(1003).Determining the environmental state may include determining the risk of surrounding vehicles and determining the risk of the path (1003).

경로 상태를 결정하는 것은 경로 정확도를 판단하는 동작 및 경로 빈도를 판단하는 동작을 포함할 수 있다(1004).Determining the route status may include determining route accuracy and determining route frequency (1004).

한편 제어부는 상술한 동작으로 도출된 정보를 기초로 자율 주행 신뢰도를 결정하고, 결정된 자율 주행 신뢰도를 출력할 수 있다(1005).Meanwhile, the control unit may determine autonomous driving reliability based on information derived from the above-described operation and output the determined autonomous driving reliability (1005).

한편, 개시된 실시예들은 컴퓨터에 의해 실행 가능한 명령어를 저장하는 기록매체의 형태로 구현될 수 있다. 명령어는 프로그램 코드의 형태로 저장될 수 있으며, 프로세서에 의해 실행되었을 때, 프로그램 모듈을 생성하여 개시된 실시예들의 동작을 수행할 수 있다. 기록매체는 컴퓨터로 읽을 수 있는 기록매체로 구현될 수 있다.Meanwhile, the disclosed embodiments may be implemented in the form of a recording medium that stores instructions executable by a computer. Instructions may be stored in the form of program code and, when executed by a processor, may create program modules to perform operations of the disclosed embodiments. The recording medium may be implemented as a computer-readable recording medium.

컴퓨터가 읽을 수 있는 기록매체로는 컴퓨터에 의하여 해독될 수 있는 명령어가 저장된 모든 종류의 기록 매체를 포함한다. 예를 들어, ROM(Read Only Memory), RAM(Random Access Memory), 플래쉬 메모리, 광 데이터 저장장치 등이 있을 수 있다. Computer-readable recording media include all types of recording media storing instructions that can be decoded by a computer. For example, there may be read only memory (ROM), random access memory (RAM), flash memory, optical data storage, etc.

이상에서와 같이 첨부된 도면을 참조하여 개시된 실시예들을 설명하였다.본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고도, 개시된 실시예들과 다른 형태로 본 발명이 실시될 수 있음을 이해할 것이다. 개시된 실시예들은 예시적인 것이며, 한정적으로 해석되어서는 안 된다.As described above, the disclosed embodiments have been described with reference to the accompanying drawings. Those skilled in the art will understand that the present invention may be formed in a form different from the disclosed embodiments without changing the technical idea or essential features of the present invention. It will be understood that the present invention can be practiced. The disclosed embodiments are illustrative and should not be construed as limiting.

1 : 차량
110 : 통신부
120 : 센서부
130 : 제어부
140 : 출력부
1: vehicle
110: Department of Communications
120: sensor unit
130: control unit
140: output unit

Claims (8)

출력부;
차량의 위치 신호를 수신하는 통신부;
차량 주변 정보 및 차량 주행 정보를 획득하는 센서부; 및
상기 차량 주변 정보를 기초로 상기 차량의 주변 물체 인지 상태를 결정하고,
상기 주변 물체와 상기 차량과의 위치 관계를 기초로 상기 차량의 환경 상태를 결정하고,
상기 차량 주행 정보를 기초로 결정된 상기 차량의 예상 경로와 상기 위치 신호의 차이를 기초로 상기 차량이 주행하는 경로 상태를 결정하고,
상기 인지 상태, 상기 환경 상태 및 상기 경로 상태 중 적어도 하나를 기초로 상기 차량의 자율 주행 신뢰도를 결정하여 상기 출력부에 출력하는 제어부;를 포함하고,
상기 경로 상태는 경로 정확도 및 경로 변경 빈도를 포함하는 차량.
output unit;
A communication unit that receives a vehicle location signal;
A sensor unit that acquires vehicle surrounding information and vehicle driving information; and
Determine the recognition state of surrounding objects of the vehicle based on the information surrounding the vehicle,
Determine the environmental state of the vehicle based on the positional relationship between the surrounding objects and the vehicle,
Determining the path state on which the vehicle is traveling based on the difference between the location signal and the expected path of the vehicle determined based on the vehicle driving information,
A control unit that determines the autonomous driving reliability of the vehicle based on at least one of the cognitive state, the environmental state, and the path state and outputs the determined autonomous driving reliability to the output unit,
A vehicle wherein the route status includes route accuracy and route change frequency.
제1항에 있어서,
상기 센서부는 복수개의 센서 모듈을 포함하고,
상기 제어부는,
상기 복수개의 센서 모듈 각각이 획득한 상기 주변 물체의 위치 정보 차이에 기초하여 상기 인지 상태를 결정하는 차량.
According to paragraph 1,
The sensor unit includes a plurality of sensor modules,
The control unit,
A vehicle that determines the recognition state based on differences in location information of surrounding objects acquired by each of the plurality of sensor modules.
제2항에 있어서,
상기 제어부는,
상기 복수개의 센서 모듈 각각이 획득한 상기 주변 물체의 위치 정보를 기초로 상기 복수개의 센서 모듈 각각의 인지 값 및 기준 인지 값을 결정하고,
상기 자율 주행 신뢰도가 미리 결정된 값 미만이면,
상기 기준 인지 값 미만에 해당하는 상기 인지 값을 갖는 적어도 하나의 상기 센서 모듈을 상기 출력부에 출력하는 차량.
According to paragraph 2,
The control unit,
Determining a recognition value and a reference recognition value of each of the plurality of sensor modules based on the location information of the surrounding objects acquired by each of the plurality of sensor modules,
If the autonomous driving reliability is less than a predetermined value,
A vehicle that outputs at least one sensor module having the perception value that is less than the reference perception value to the output unit.
제3항에 있어서,
상기 제어부는,
상기 기준 인지 값 미만에 해당하는 상기 인지 값을 갖는 적어도 하나의 상기 센서 모듈의 상기 인지 값을 증가 시키도록 사용자를 가이드하는 메시지를 상기 출력부에 출력하는 차량.
According to paragraph 3,
The control unit,
A vehicle that outputs, to the output unit, a message guiding a user to increase the perception value of at least one sensor module having the perception value corresponding to less than the reference perception value.
제1항에 있어서,
상기 제어부는,
상기 자율 주행 신뢰도가 미리 결정된 값 미만이면,
상기 주변 물체와 상기 차량과의 위치 관계를 기초로 상기 주변 물체의 위험도를 결정하여 상기 출력부에 출력하는 차량.
According to paragraph 1,
The control unit,
If the autonomous driving reliability is less than a predetermined value,
A vehicle that determines the degree of risk of the surrounding objects based on the positional relationship between the surrounding objects and the vehicle and outputs the risk to the output unit.
제1항에 있어서,
상기 제어부는,
상기 차량 주행 정보, 상기 차량 주변 정보 및 상기 위치 신호 중 적어도 하나를 기초로 상기 차량이 주행하는 도로 상태를 결정하고,
상기 도로 상태를 기초로 상기 차량의 자율 주행 신뢰도를 결정하여 상기 출력부에 출력하는 차량.
According to paragraph 1,
The control unit,
Determining a road condition on which the vehicle is traveling based on at least one of the vehicle driving information, vehicle surrounding information, and the location signal,
A vehicle that determines the autonomous driving reliability of the vehicle based on the road conditions and outputs it to the output unit.
제1항에 있어서,
상기 제어부는,
상기 차량이 수행하는 적어도 하나의 자율 주행 기능에 기초하여 상기 차량의 자율 주행 신뢰도를 결정하고,
상기 적어도 하나의 자율 주행 기능을 포함하는 상기 차량의 자율 주행 신뢰도 결정 지표를 상기 출력부에 출력하는 차량.
According to paragraph 1,
The control unit,
Determine the autonomous driving reliability of the vehicle based on at least one autonomous driving function performed by the vehicle,
A vehicle that outputs an autonomous driving reliability determination index of the vehicle including the at least one autonomous driving function to the output unit.
제1항에 있어서,
상기 제어부는,
상기 인지 상태, 상기 환경 상태 및 상기 경로 상태 중 적어도 하나를 포함하는 상기 차량의 자율 주행 신뢰도 결정 지표를 상기 출력부에 출력하는 차량.
According to paragraph 1,
The control unit,
A vehicle that outputs an autonomous driving reliability determination index of the vehicle including at least one of the cognitive state, the environmental state, and the path state to the output unit.
KR1020180171215A 2018-12-27 2018-12-27 Vehicle and control method thereof KR102674597B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180171215A KR102674597B1 (en) 2018-12-27 2018-12-27 Vehicle and control method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180171215A KR102674597B1 (en) 2018-12-27 2018-12-27 Vehicle and control method thereof

Publications (2)

Publication Number Publication Date
KR20200084955A KR20200084955A (en) 2020-07-14
KR102674597B1 true KR102674597B1 (en) 2024-06-14

Family

ID=71526807

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180171215A KR102674597B1 (en) 2018-12-27 2018-12-27 Vehicle and control method thereof

Country Status (1)

Country Link
KR (1) KR102674597B1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111824182B (en) * 2020-07-30 2022-03-22 吉林大学 Three-axis heavy vehicle self-adaptive cruise control algorithm based on deep reinforcement learning
CN114228742A (en) * 2021-11-30 2022-03-25 国汽智控(北京)科技有限公司 Method, device and equipment for outputting reliability of automatic driving system and storage medium

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007001333A (en) 2005-06-21 2007-01-11 Alpine Electronics Inc Vehicle peripheral information providing device
JP2010202030A (en) * 2009-03-03 2010-09-16 Nissan Motor Co Ltd Driving support device and driving support method for vehicle
JP2016030513A (en) * 2014-07-29 2016-03-07 日産自動車株式会社 Vehicle control device
JP2018176879A (en) * 2017-04-06 2018-11-15 トヨタ自動車株式会社 Course setting device and course setting method
JP6430087B1 (en) 2018-03-23 2018-11-28 三菱電機株式会社 Route generating apparatus and vehicle control system

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007001333A (en) 2005-06-21 2007-01-11 Alpine Electronics Inc Vehicle peripheral information providing device
JP2010202030A (en) * 2009-03-03 2010-09-16 Nissan Motor Co Ltd Driving support device and driving support method for vehicle
JP2016030513A (en) * 2014-07-29 2016-03-07 日産自動車株式会社 Vehicle control device
JP2018176879A (en) * 2017-04-06 2018-11-15 トヨタ自動車株式会社 Course setting device and course setting method
JP6430087B1 (en) 2018-03-23 2018-11-28 三菱電機株式会社 Route generating apparatus and vehicle control system

Also Published As

Publication number Publication date
KR20200084955A (en) 2020-07-14

Similar Documents

Publication Publication Date Title
US11194057B2 (en) ASIL-classification by cooperative positioning
KR102622169B1 (en) Method, apparatus, electronic device, computer program and computer readable recording medium for measuring a distance between front vehicle and rear vehicle
US20190071091A1 (en) Driver intention-based lane assistant system for autonomous driving vehicles
US11915452B2 (en) Information processing device and information processing method
WO2018128946A1 (en) Method for providing vulnerable road user warnings in a blind spot of a parked vehicle
KR20210130324A (en) Advanced Driver Assistance System, Vehicle having the same and method for controlling the vehicle
KR102306644B1 (en) Detection of non-V2V vehicles
US20220017093A1 (en) Vehicle control device, vehicle control method, program, and vehicle
US11508161B2 (en) Driving support system and server device
US20190129434A1 (en) Vehicle control device
US20200393571A1 (en) Advanced driver assistance system, vehicle having the same, and method of controlling vehicle
KR102674597B1 (en) Vehicle and control method thereof
KR20210152602A (en) driver assistance apparatus and method of thereof
US11222540B2 (en) Vehicle and method of controlling the same
US11318933B2 (en) Vehicle and method for controlling thereof
KR20210033592A (en) Apparatus for controlling a lane keeping of vehicle with trailer, system having the same and method thereof
EP4381490A1 (en) Vulnerable road user (vru) collision avoidance system
KR102185743B1 (en) Method and apparatus for determining the existence of object located in front of a vehicle
KR20210124586A (en) Advanced Driver Assistance System, and Vehicle
CN112440996A (en) Lane keeping for autonomous vehicles
US11417023B2 (en) Image processing device, image processing method, and program
US20240242606A1 (en) Vehicle blind zone detection method
US20240157972A1 (en) Apparatus and Method for Controlling Vehicle
US20240192360A1 (en) Driving assistance system and driving assistance method
US20240182072A1 (en) Autonomous driving apparatus and autonomous driving control method

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right