KR20230111782A - 자율 주행으로 동작하는 차량 및 그 제어 방법 - Google Patents

자율 주행으로 동작하는 차량 및 그 제어 방법 Download PDF

Info

Publication number
KR20230111782A
KR20230111782A KR1020220007663A KR20220007663A KR20230111782A KR 20230111782 A KR20230111782 A KR 20230111782A KR 1020220007663 A KR1020220007663 A KR 1020220007663A KR 20220007663 A KR20220007663 A KR 20220007663A KR 20230111782 A KR20230111782 A KR 20230111782A
Authority
KR
South Korea
Prior art keywords
vehicle
lane
tunnel
condition
information
Prior art date
Application number
KR1020220007663A
Other languages
English (en)
Inventor
송경중
Original Assignee
현대모비스 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 현대모비스 주식회사 filed Critical 현대모비스 주식회사
Priority to KR1020220007663A priority Critical patent/KR20230111782A/ko
Publication of KR20230111782A publication Critical patent/KR20230111782A/ko

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/10Path keeping
    • B60W30/12Lane keeping
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • B60W60/0015Planning or execution of driving tasks specially adapted for safety
    • B60W60/0016Planning or execution of driving tasks specially adapted for safety of the vehicle or its occupants
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/584Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of vehicle lights or traffic lights
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • B60W2420/42

Landscapes

  • Engineering & Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Human Computer Interaction (AREA)
  • Traffic Control Systems (AREA)

Abstract

본 발명은 자율 주행 챠량에 대한 것으로서, 본 발명의 일실시예에 의한 차량의 제어 방법은, GPS 정보를 기초로 터널로 진입할지 여부를 1차 판단하는 단계와, 전방 카메라를 이용하여 상기 터널내 차선을 1차 인식하는 단계와, 상기 터널내 차선 인식률이 기설정된 범위인 경우, 상기 전방 카메라를 이용하여 상기 터널내 램프를 2차 인식하는 단계와, 상기 인식된 램프를 기초로 생성된 가상의 보조 차선이 유효한 레벨인지 여부를 2차 판단하는 단계와, 그리고 유효한 레벨인 경우, 상기 차량과 동일한 차선에서 주행하는 선행차에 대한 정보 및 상기 가상의 보조 차선에 기초하여 주행이 이루어 지도록 제어하는 단계를 포함한다.

Description

자율 주행으로 동작하는 차량 및 그 제어 방법 {VEHICLE FOR AUTONOMOUS DRIVING AND METHOD THEREOF}
본 실시예들은 모든 분야의 차량(vehicle)에 적용 가능하며, 보다 구체적으로 예를 들면, 특정 구간(예를 들어, 터널 등)에서 자율 주행의 성능을 제고할 수 있는 다양한 시스템에 적용될 수도 있다.
자율 주행 차량이 차선 유지를 위해, 다양한 실시간 차선 인식 알고리즘들이 제시되고 있다. 자율 주행 자동차를 위한 첨단 운전자 보조 장치(ADAS, Advanced Driver Assistance Systems)은 사람이 탑승하고 있는 상태에서 주행시, 레이다(RADAR), 라이다(LIDAR), 카메라, 초음파 등의 센서를 이용하여 차량의 충돌과 같은 사고를 방지하고, 운전자의 조작 없이 차량의 주행을 돕는 기능을 수행한다. 보다 완벽한 ADAS 를 구현하기 위한 전제로서, 카메라에 의해 획득 되어지는 영상 정보의 정확도가 매우 중요하다.
종래 기술에서도, 차량에 부착된 전방 카메라를 이용하여 차선을 인식하고 이를 기반으로 자율 주행이 이루어 진다.
그러나, 종래 기술의 문제점은 특히 자율 주행 차량이나 ADAS 기능이 탑재된 차량이 터널에 진입한 경우에 발생하고 있다.
터널 내부는 기본적으로 자연광이 없는 상태이기 때문에, 차선 미인식, 오인식의 확률이 높고, 이로 인하여 차선 제어 성능 저하가 발생할 가능성이 일반 도로에 비해 현저히 높다.
나아가, 비나 눈이 온 후, 터널 진출입로는 노면에 젖은 상태이기 때문에, 차량에 설치된 카메라가 차선을 정확하게 디텍트 하는 것이 용이하지 않다. 이로 인하여, 차선 제어 성능 열화가 발생한다.
또한, 낙후된 지역의 터널은, 내부 차선 역시 노후화 되어, 차량에 설치된 카메라가 차선을 인지하는 것이 사실상 불가능 경우가 대부분이다.
한편, 종래 기술에 의하면, 선행차 추종 제어 모드도 논의되고 있으나, 짧은 교차로 등의 한정된 조건에서만 동작하는 한계가 있다.
상술한 바와 같은 문제점 등을 해결하기 위해 본 발명의 일실시예는, 터널 주행시 전방 카메라에서 인식하는 양차선 정보 뿐만 아니라, 터널 상단에 설치된 램프 정보를 인식하여, 차선 제어의 보조 지표로 활용하고자 한다.
나아가, 본 발명의 다른 일실시예는, 전술한 램프 정보 뿐만 아니라, 터널내에서 차선 변경이 금지된다는 점을 고려하여, 선행차 추종 제어 모드를 추가적으로 고려하여, ADAS 적용 범위를 확대하고자 한다.
본 발명에서 해결하고자 하는 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급하지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
상술한 바와 같은 과제를 해결하기 위한 본 발명의 일실시예들 중 어느 하나에 의한 자율 주행으로 동작하는 차량의 제어 방법은, GPS 정보를 기초로 터널로 진입할지 여부를 1차 판단하는 단계와, 전방 카메라를 이용하여 상기 터널내 차선을 1차 인식하는 단계와, 상기 터널내 차선 인식률이 기설정된 범위인 경우, 상기 전방 카메라를 이용하여 상기 터널내 램프를 2차 인식하는 단계와, 상기 인식된 램프를 기초로 생성된 가상의 보조 차선이 유효한 레벨인지 여부를 2차 판단하는 단계와, 그리고 유효한 레벨인 경우, 상기 차량과 동일한 차선에서 주행하는 선행차에 대한 정보 및 상기 가상의 보조 차선에 기초하여 주행이 이루어 지도록 제어하는 단계를 포함한다.
본 발명의 일실시예들 중 어느 하나에 의한 자율 주행으로 동작하는 차량은, 터널내 차선을 인식하는 전방 카메라와, 그리고 상기 터널내 차선 인식률이 기설정된 범위인 경우, 상기 전방 카메라를 이용하여 상기 터널내 램프를 인식하고, 상기 인식된 램프를 기초로 생성된 가상의 보조 차선이 유효한 레벨인지 여부를 판단하고, 유효한 레벨인 경우, 상기 차량과 동일한 차선에서 주행하는 선행차에 대한 정보 및 상기 가상의 보조 차선에 기초하여 주행이 이루어 지도록 제어하는 컨트롤러를 포함한다.
본 발명의 실시예들 중 어느 하나에 의하면, 차선 정보를 정확하게 센싱하는 것이 어려운 특정 환경(예를 들어, 터널)에서 램프 정보와 선행차 조건만으로, 터널에서도 끊김 없는 ADAS 횡방향 제어 및 종방향 제어가 모두 가능한 기술적 효과가 있다.
본 발명에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
도 1은 본 발명의 일실시예들 중 어느 하나에 의한 자율 주행 장치가 적용될 수 있는 자율 주행 제어 시스템의 전체 블록구성도이다.
도 2는 본 발명의 일실시예들 중 어느 하나에 의한 자율 주행 장치가 차량에 적용되는 예시를 보인 예시도이다.
도 3은 터널내에서 인식률이 높은 차선과 인식률이 낮은 차선을 대비하여 예시하고 있는 도면이다.
도 4는 본 발명의 일실시예들 중 어느 하나에 따라, 자율 주행에 사용하는 터널내 램프 정보 및 선행차 정보를 도시하고 있다.
도 5는 본 발명의 일실시예들 중 어느 하나에 의한 자율 주행 차량의 제어 방법을 도시한 플로우 차트이다.
도 6은 도 5에 도시된 S540 단계를 보다 상세히 도시한 플로우 차트이다.
그리고, 도 7은 본 발명의 일실시예들 중 어느 하나에 의한 자율 주행 차량의 주요 구성요소들을 도시한 블록도 이다.
이하에서는 첨부한 도면을 참고로 하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.
명세서 전체에서, 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.
도 1은 본 발명의 일실시예들 중 어느 하나에 의한 자율 주행 장치가 적용될 수 있는 자율 주행 제어 시스템의 전체 블록구성도이다. 도 2는 본 발명의 일실시예들 중 어느 하나에 의한 자율 주행 장치가 차량에 적용되는 예시를 보인 예시도이다.
우선, 도 1 및 도 2를 참조하여 본 실시예들에 따른 자율 주행 장치가 적용될 수 있는 자율 주행 제어 시스템(예를 들어, 자율 주행 차량)의 구조 및 기능에 대하여 설명한다.
도 1에 도시된 바와 같이, 자율 주행 차량(1000)은, 운전 정보 입력 인터페이스(101), 주행 정보 입력 인터페이스(201), 탑승자 출력 인터페이스(301) 및 차량 제어 출력 인터페이스(401)를 통해 차량의 자율 주행 제어에 필요한 데이터를 송수신하는 자율 주행 통합 제어부(600)를 중심으로 구현될 수 있다. 다만, 자율 주행 통합 제어부(600)를, 당해 명세서 상에서 컨트롤러, 프로세서 또는 간단히 제어부로 지칭할 수도 있다.
자율 주행 통합 제어부(600)는 차량의 자율 주행 모드 또는 수동 주행 모드에서 사용자 입력부(100)에 대한 탑승자의 조작에 따른 운전 정보를 운전 정보 입력 인터페이스(101)를 통해 획득할 수 있다. 사용자 입력부(100)는 도 1에 도시된 바와 같이, 주행 모드 스위치(110) 및 컨트롤 패널(120)(예를 들어, 차량에 장착된 네비게이션 단말, 탑승자가 소지한 스마트폰 또는 태블릿 PC 등등)을 포함할 수 있으며, 이에 따라 운전 정보는 차량의 주행 모드 정보 및 항법 정보를 포함할 수 있다.
예를 들어, 주행 모드 스위치(110)에 대한 탑승자의 조작에 따라 결정되는 차량의 주행 모드(즉, 자율 주행 모드/수동 주행 모드 또는 스포츠 모드(Sports Mode)/에코 모드(Eco Mode)/안전 모드(Safe Mode)/일반 모드(Normal Mode))가 상기한 운정 정보로서 운전 정보 입력 인터페이스(101)를 통해 자율 주행 통합 제어부(600)로 전달될 수 있다.
또한, 탑승자가 컨트롤 패널(120)을 통해 입력하는 탑승자의 목적지, 목적지까지의 경로(목적지까지의 후보 경로 중 탑승자가 선택한 최단 경로 또는 선호 경로 등)와 같은 항법 정보가 상기한 운전 정보로서 운전 정보 입력 인터페이스(101)를 통해 자율 주행 통합 제어부(600)로 전달될 수 있다.
한편, 컨트롤 패널(120)은 차량의 자율 주행 제어를 위한 정보를 운전자가 입력하거나 수정하기 위한 UI (User Interface)를 제공하는 터치 스크린 패널로 구현될 수도 있으며, 이 경우 전술한 주행 모드 스위치(110)는 컨트롤 패널(120) 상의 터치 버튼으로 구현될 수도 있다.
또한, 자율 주행 통합 제어부(600)는 차량의 주행 상태를 나타내는 주행 정보를 주행 정보 입력 인터페이스(201)를 통해 획득할 수 있다. 주행 정보는 탑승자가 조향휠을 조작함에 따라 형성되는 조향각과, 가속 페달 또는 브레이크 페달을 답입함에 따라 형성되는 가속 페달 스트로크 또는 브레이크 페달의 스트로크와, 차량에 형성되는 거동으로서 차속, 가속도, 요, 피치 및 롤 등 차량의 주행 상태 및 거동을 나타내는 다양한 정보를 포함할 수 있으며, 상기 각 주행 정보는 도 1에 도시된 바와 같이, 조향각 센서(210), APS(Accel Position Sensor)/PTS(Pedal Travel Sensor)(220), 차속 센서(230), 가속도 센서(240), 요/피치/롤 센서(250)를 포함하는 주행 정보 검출부(200)에 의해 검출될 수 있다.
나아가, 차량의 주행 정보는 차량의 위치 정보를 포함할 수도 있으며, 차량의 위치 정보는 차량에 적용된 GPS(Global Positioning System) 수신기(260)를 통해 획득될 수 있다. 이러한 주행 정보는 주행 정보 입력 인터페이스(201)를 통해 자율 주행 통합 제어부(600)로 전달되어 차량의 자율 주행 모드 또는 수동 주행 모드에서 차량의 주행을 제어하기 위해 활용될 수 있다.
또한, 자율 주행 통합 제어부(600)는 차량의 자율 주행 모드 또는 수동 주행 모드에서 탑승자에게 제공되는 주행 상태 정보를 탑승자 출력 인터페이스(301)를 통해 출력부(300)로 전달할 수 있다. 즉, 자율 주행 통합 제어부(600)는 차량의 주행 상태 정보를 출력부(300)로 전달함으로써, 출력부(300)를 통해 출력되는 주행 상태 정보를 기반으로 탑승자가 차량의 자율 주행 상태 또는 수동 주행 상태를 확인하도록 할 수 있으며, 상기 주행 상태 정보는 이를테면 현재 차량의 주행 모드, 변속 레인지, 차속 등 차량의 주행 상태를 나타내는 다양한 정보를 포함할 수 있다.
또한, 자율 주행 통합 제어부(600)는 상기한 주행 상태 정보와 함께 차량의 자율 주행 모드 또는 수동 주행 모드에서 운전자에게 경고가 필요한 것으로 판단된 경우, 탑승자 출력 인터페이스(301)를 통해 경고 정보를 출력부(300)로 전달하여 출력부(300)가 운전자에게 경고를 출력하도록 할 수 있다. 이러한 주행 상태 정보 및 경고 정보를 청각적 및 시각적으로 출력하기 위해 출력부(300)는 도 1에 도시된 바와 같이 스피커(310) 및 디스플레이 장치(320)를 포함할 수 있다. 이때, 디스플레이 장치(320)는 전술한 컨트롤 패널(120)과 동일한 장치로 구현될 수도 있고, 분리된 독립적인 장치로 구현될 수도 있다.
또한, 자율 주행 통합 제어부(600)는 차량의 자율 주행 모드 또는 수동 주행 모드에서 차량의 주행 제어를 위한 제어 정보를 차량 제어 출력 인터페이스(401)를 통해 차량에 적용된 하위 제어 시스템(400)으로 전달할 수 있다. 차량의 주행 제어를 위한 하위 제어 시스템(400)은 도 1에 도시된 바와 같이 엔진 제어 시스템(410), 제동 제어 시스템(420) 및 조향 제어 시스템(430)을 포함할 수 있으며, 자율 주행 통합 제어부(600)는 상기 제어 정보로서 엔진 제어 정보, 제동 제어 정보 및 조향 제어 정보를 차량 제어 출력 인터페이스(401)를 통해 각 하위 제어 시스템(410, 420, 430)으로 전달할 수 있다. 이에 따라, 엔진 제어 시스템(410)은 엔진에 공급되는 연료를 증가 또는 감소시켜 차량의 차속 및 가속도를 제어할 수 있고, 제동 제어 시스템(420)은 차량의 제동력을 조절하여 차량의 제동을 제어할 수 있으며, 조향 제어 시스템(430)은 차량에 적용된 조향 장치(예: MDPS(Motor Driven Power Steering) 시스템)를 통해 차량의 조향을 제어할 수 있다.
상기한 것과 같이 본 실시예의 자율 주행 통합 제어부(600)는 운전 정보 입력 인터페이스(101) 및 주행 정보 입력 인터페이스(201)를 통해 운전자의 조작에 따른 운전 정보 및 차량의 주행 상태를 나타내는 주행 정보를 각각 획득하고, 자율 주행 알고리즘에 따라 생성되는 주행 상태 정보 및 경고 정보를 탑승자 출력 인터페이스(301)를 통해 출력부(300)로 전달할 수 있으며, 또한 자율 주행 알고리즘에 따라 생성되는 제어 정보를 차량 제어 출력 인터페이스(401)를 통해 하위 제어 시스템(400)으로 전달하여 차량의 주행 제어가 이루어지도록 동작할 수 있다.
한편, 차량의 안정적인 자율 주행을 보장하기 위해서는 차량의 주행 환경을 정확하게 계측함으로써 주행 상태를 지속적으로 모니터링하고 계측된 주행 환경에 맞추어 주행을 제어해야 할 필요가 있으며, 이를 위해 본 실시예의 자율 주행 장치는 도 1에 도시된 바와 같이 주변 차량, 보행자, 도로 또는 고정 시설물(예: 신호등, 이정표, 교통 표지판, 공사 펜스 등) 등 차량의 주변 객체를 검출하기 위한 센서부(500)를 포함할 수 있다.
센서부(500)는 도 1에 도시된 바와 같이 차량 외부의 주변 객체를 검출하기 위해 라이다 센서(510), 레이더 센서(520) 및 카메라 센서(530) 중 하나 이상을 포함할 수 있다.
라이다 센서(510)는 차량 주변으로 레이저 신호를 송신하고 해당 객체에 반사되어 되돌아오는 신호를 수신함으로써, 차량 외부의 주변 객체를 검출할 수 있으며, 그 사양에 따라 미리 정의되어 있는 설정 거리, 설정 수직 화각(Vertical Field Of View) 및 설정 수평 화각 범위(Vertical Field Of View) 이내에 위치한 주변 객체를 검출할 수 있다. 라이다 센서(510)는 차량의 전면, 상부 및 후면에 각각 설치되는 전방 라이다 센서(511), 상부 라이다 센서(512) 및 후방 라이다 센서(513)를 포함할 수 있으나, 그 설치 위치 및 설치 수는 특정 실시예로 제한되지 않는다. 해당 객체에 반사되어 되돌아오는 레이저 신호의 유효성을 판단하기 위한 임계값은 자율 주행 통합 제어부(600)의 메모리(미도시)에 미리 저장되어 있을 수 있으며, 자율 주행 통합 제어부(600)는 라이다 센서(510)를 통해 송신된 레이저 신호가 해당 객체에 반사되어 되돌아오는 시간을 측정하는 방식을 통해 해당 객체의 위치(해당 객체까지의 거리를 포함한다), 속도 및 이동 방향을 판단할 수 있다.
레이더 센서(520)는 차량 주변으로 전자파를 방사하고 해당 객체에 반사되어 되돌아오는 신호를 수신함으로써, 차량 외부의 주변 객체를 검출할 수 있으며, 그 사양에 따라 미리 정의되어 있는 설정 거리, 설정 수직 화각 및 설정 수평 화각 범위 이내에 위치한 주변 객체를 검출할 수 있다. 레이더 센서(520)는 차량의 전면, 좌측면, 우측면 및 후면에 각각 설치되는 전방 레이더 센서(521), 좌측 레이더 센서(521), 우측 레이더 센서(522) 및 후방 레이더 센서(523)를 포함할 수 있으나, 그 설치 위치 및 설치 수는 특정 실시예로 제한되지 않는다. 자율 주행 통합 제어부(600)는 레이더 센서(520)를 통해 송수신된 전자파의 파워(Power)를 분석하는 방식을 통해 해당 객체의 위치(해당 객체까지의 거리를 포함한다), 속도 및 이동 방향을 판단할 수 있다.
카메라 센서(530)는 차량 주변을 촬상하여 차량 외부의 주변 객체를 검출할 수 있으며, 그 사양에 따라 미리 정의되어 있는 설정 거리, 설정 수직 화각 및 설정 수평 화각 범위 이내에 위치한 주변 객체를 검출할 수 있다.
카메라 센서(530)는 차량의 전면, 좌측면, 우측면 및 후면에 각각 설치되는 전방 카메라 센서(531), 좌측 카메라 센서(532), 우측 카메라 센서(533) 및 후방 카메라 센서(534)를 포함할 수 있으나, 그 설치 위치 및 설치 수는 특정 실시예로 제한되지 않는다. 자율 주행 통합 제어부는 카메라 센서(530)를 통해 촬상된 이미지에 대하여 미리 정의된 영상 처리 프로세싱을 적용함으로써 해당 객체의 위치(해당 객체까지의 거리를 포함한다), 속도 및 이동 방향 등을 판단할 수가 있다.
또한, 차량 내부를 촬상하기 위한 내부 카메라 센서(535)가 차량의 내부의 소정 위치(예: 리어뷰 미러)에 장착되어 있을 수 있으며, 자율 주행 통합 제어부(600)는 내부 카메라 센서(535)를 통해 획득된 이미지를 기반으로 탑승자의 거동 및 상태를 모니터링하여 전술한 출력부(300)를 통해 탑승자에게 안내 또는 경고를 출력할 수도 있다.
라이다 센서(510), 레이더 센서(520) 및 카메라 센서(530) 뿐만 아니라, 센서부(500)는 도 1에 도시된 바와 같이 초음파 센서(540)를 더 포함할 수도 있으며, 이와 함께 차량의 주변 객체를 검출하기 위한 다양한 형태의 센서가 센서부(500)에 더 채용될 수도 있다.
도 2는 본 실시예의 이해를 돕기 위해 전방 라이다 센서(511) 또는 전방 레이더 센서(521)가 차량의 전면에 설치되고, 후방 라이다 센서(513) 또는 후방 레이더 센서(524)가 차량의 후면에 설치되며, 전방 카메라 센서(531), 좌측 카메라 센서(532), 우측 카메라 센서(533) 및 후방 카메라 센서(534)가 각각 차량의 전면, 좌측면, 우측면 및 후면에 설치된 예시를 도시하고 있으나, 전술한 것과 같이 각 센서의 설치 위치 및 설치 수는 특정 실시예로 제한되지 않는다.
나아가, 센서부(500)는 차량에 탑승한 탑승자의 상태 판단을 위해, 탑승자의 생체 신호(예: 심박수, 심전도, 호흡, 혈압, 체온, 뇌파, 혈류(맥파) 및 혈당 등)를 검출하기 위한 생체 센서를 더 포함할 수도 있으며, 생체 센서로는 심박수 센서, 심전도(Electrocardiogram) 센서, 호흡 센서, 혈압 센서, 체온 센서, 뇌파(Electroencephalogram) 센서, 혈류(Photoplethysmography) 센서 및 혈당 센서 등이 있을 수 있다.
마지막으로, 센서부(500)는 마이크(550)를 추가적으로 부가하고 있으며, 내부 마이크(551) 및 외부 마이크(552)는 각각 다른 용도를 위해 사용된다.
내부 마이크(551)는, 예를 들어 자율 주행 차량(1000)에 탑승한 탑승자의 음성을 AI 등에 기반하여 분석하거나 또는 직접적인 음성 명령에 즉각적으로 반응하기 위해 사용될 수 있다.
반면, 외부 마이크(552)는, 예를 들어 자율 주행 차량(1000)의 외부에서 발생하는 다양한 소리를 딥러닝등 다양한 분석툴로 분석하여 안전 운행 등에 적절히 대응하기 위한 용도로 사용될 수가 있다.
참고로, 도 2에 도시된 부호는 도 1에 도시된 부호와 동일 또는 유사한 기능을 수행할 수 있으며, 도 2는 도 1과 비교하여 각 구성요소들의 상대적 위치관계(자율 주행 차량(1000) 내부를 기준으로)를 보다 상세히 예시하였다.
도 3은 터널내에서 인식률이 높은 차선과 인식률이 낮은 차선을 대비하여 예시하고 있는 도면이다.
도 3의 (a)에 도시된 바와 같이, 터널내 양차선(310)이 모두 인식 가능한 경우, 본 발명의 일실시예에 의한 차량은 차선 인식 기반 자율 주행 내지는 ADAS 기능에 따라 운행이 이루어 진다.
반면, 도 3의 (b)에 도시된 바와 같이, 터널내 양차선(320)이 모두 인식되지 않거나 또는 인식률의 퀄리티(quality)가 70% 미만인 경우는, 차선 인식 기반으로 자율 주행이 불가능해 지는 문제가 있다. 이 경우, ADAS 기능도 정상적으로 동작할 수 없게 되는데, 본 발명은 도 3의 (b)에 도시된 터널 환경의 문제점을 해결하고자 도출되었다.
도 4는 본 발명의 일실시예들 중 어느 하나에 따라, 자율 주행에 사용하는 터널내 램프 정보 및 선행차 정보를 도시하고 있다.
본 발명의 일실시예에 의한 차량은, 터널내 양차선이 모두 인식되지 않거나, 인식률의 퀄리티가 70% 미만인 경우, 도 4에 도시된 터널내 상단에 설치된 램프 정보(410) 및 동일 차선에서 주행하고 있는 선행차(420) 정보를 추가적으로 이용하도록 설계된다.
보다 구체적인 실시예들은, 이하 도 5 및 도 6에서 보다 상세히 후술하도록 하겠다.
도 5는 본 발명의 일실시예들 중 어느 하나에 의한 자율 주행 차량의 제어 방법을 도시한 플로우 차트이다.
우선, 본 발명의 일실시예에 의한 차량은, GPS 정보를 기초로 터널로 진입할지 여부를 1차 판단한다(S510). 이와 같이 설계하면, 터널이 아닌 경우, 램프 정보를 획득하기 위해 카메라를 조절할 필요가 없는 기술적 효과가 있다.
터널에 진입하였거나 또는 현재의 차량 속도를 고려하여 터널에 기설정된 시간(예를 들어, 3-5초 등) 이내에 진입할 것으로 추정되는 경우, 본 발명의 일실시예에 의한 차량은, 차량에 설치된 전방 카메라를 이용하여 터널내 차선을 1차 인식하고 터널내 램프를 2차 인식한다(S520).
특히, 터널내 차선 인식률이 기설정된 범위인 경우(S530), 전방 카메라를 이용하여 상기 터널내 램프를 2차 인식하도록 설계한다. 여기서, 기설정된 범위는, 예를 들어, 본 발명의 일실시예에 의한 차량이 주행하는 좌측 차선 및 우측 차선이 모두 인식되고, 또한 인식률이 70% 이상인 경우 등을 포함한다.
본 발명의 일실시예에 의한 차량의 전방 카메라를 통해 터널내 차선 인식에 문제가 없는 경우, 차선 인식 기반의 자율 주행 내지는 ADAS 기능을 유지하도록 설계한다(S580).
반면, 본 발명의 일실시예에 의한 차량의 전방 카메라를 통해 터널내 차선 인식에 문제가 있는 경우, 차량은 터널내 인식된 램프를 기초로 생성된 가상의 보조 차선이 유효한 레벨인지 여부를 2차 판단한다(S540).
나아가, 본 발명의 일실시예에 의한 차량은, 터널내 램프 정보만을 이용하는 것이 아니고, 동일한 차선에서 주행하는 선행차 정보까지 이용하여 자율 주행 및 ADAS 의 성능을 높이도록 설계한다.
예를 들어, 상기 2차 판단 결과(S540) 유효한 레벨인 경우, 본 발명의 일실시예에 의한 차량의 전방 80m 이하에서 선행차(동일 차선)가 존재하고, 차량의 속도가 100km/h 이하인지 여부를 판단한다(S550). 이와 같이 설계하는 이유는, S550 조건을 만족하지 않는 경우에도 선행차 기반 추종 제어가 이루어 지면, 에러가 발생할 확률이 높기 때문이다.
그리고, 상기 S550 조건을 만족하는 경우, 본 발명의 일실시예에 의한 차량과 선행차 사이의 횡거리가 특정값 이하인지 여부를 판단한다(S560). 이와 같이 설계하는 이유는, S560 조건을 만족하지 않는 경우에도 선행차 기반 추종 제어가 이루어 지면, 에러가 발생할 확률이 높기 때문이다.
마지막으로, 상기 S560 조건까지 모두 만족하는 경우, 본 발명의 일실시예에 의한 차량은, 동일한 차선에서 주행하는 선행차에 대한 정보 및 터널내 램프 정보로 획득한 가상의 보조 차선 정보에 기초하여 횡/종방향 제어가 이루어 지도록 설계한다(S570).
한편, 본 발명의 또 다른 특징은, 카메라에 의해 인식된 터널내 램프 정보를 보조 차선으로 사용할 수준인지 필터링 한다는 점이다. 이와 관련해서는, 이하 도 6을 참조하여 보다 상세히 후술하도록 하겠다.
도 6은 도 5에 도시된 S540 단계를 보다 상세히 도시한 플로우 차트이다.
차량의 카메라에 의해 촬영된 터널내 램프 정보가 보조 차선으로 사용할 레벨인 경우에만, 자율 주행 및 ADAS 기능으로 사용하도록 설계하는 것이 매우 중요하다. 도 6은 이와 관련된 실시예이다.
우선, 도 6에 도시된 바와 같이, 본 발명의 일실시예에 의한 차량은, 터널내 램프 정보에 기초한 가상의 보조 차선의 뷰 레인지가 인식된 터널내 차선의 뷰 레인지 보다 크거나 같은 제1조건을 만족하는지 여부를 판단한다(S541).
여기서 뷰 레인지라 함은, 예를 들어, 복수개의 램프를 이어서 하나의 연속하는 직선 내지 곡선으로 추정할 수 있는 길이를 의미할 수 있다.
상기 판단 결과(S541), 제1조건을 만족하지 못하는 경우, 터널내 램프 정보를 보조 차선으로 사용하지 않는다.
반면, 상기 판단 결과(S541), 제1조건을 만족하는 경우, 본 발명의 일실시예에 의한 차량은, 터널내 램프 정보에 기초한 가상의 보조 차선과 상기 인식된 터널내 차선의 곡률 차이가 기설정된 값(예를 들어, 200R) 미만인 제2조건을 만족하는지 여부를 판단한다(S542). 이를 고려하는 이유는, 실제 차선과 램프 정보에 기초한 보조 차선의 곡률 오차가 큰 경우, 램프 정보를 보조 차선 정보로 사용하기에 부적합하기 때문에 추가한 판단 단계이다.
따라서, 상기 판단 결과(S542), 제2조건을 만족하지 못하는 경우에도, 터널내 램프 정보를 보조 차선으로 이용하지 않는다.
반면, 상기 판단 결과(S542), 제2조건도 만족하는 경우, 본 발명의 일실시예에 의한 차량은, 터널내 램프 정보에 기초한 가상의 보조 차선의 위치가 차량 기준으로 일정 거리 이내인 제3조건을 만족하는지 여부를 판단한다(S543).
상기 판단 결과(S543) 제3조건도 만족하는 경우에 한하여, 도 5에 도시된 S550 단계를 수행한다. 물론, 당업자의 필요에 따라, S550 단계로 넘어가지 않고, 즉 선행차 정보를 고려하지 않고, 램프 정보에 기초한 가상의 보조 차선으로 ADAS를 구현하는 것도 가능하다.
그리고, 도 7은 본 발명의 일실시예들 중 어느 하나에 의한 자율 주행 차량의 주요 구성요소들을 도시한 블록도 이다.
본 발명의 일실시예와 관련된 주요 구성요소들을, 도 7에 도시하였다. 다만, 당업자는 이전 도 1 또는 도 2를 참조하여 보충 해석 가능하다.
우선, 도 7에 도시된 바와 같이, 본 발명의 일실시예에 의한 차량(700)은, 센서(710), 인식부(720), CAN 통신부(730) 및 컨트롤러(740) 등을 포함하여 이루어 진다.
센서(710)는, 예를 들어, 전술한 바와 같이, 차량의 전방 카메라 등으로 구현 가능하다.
인식부(720)는, 센서(710) 등을 통해 촬영된 터널내 차선 정보, 터널내 램프 정보 등을 인식한다. 즉, 횡방향 차선 제어 수행에 필요한 다양한 정보들을, 센서(710)에 의해 획득된 비디오 이미지 등을 통해 인식한다.
CAN 통신부(730)는, 상기 인식부(720)에서 인식된 정보를 CAN 시그널로 변환한다.
컨트롤러(740)는, 차선 및 터널 램프 신호 기반 차선 보조 지표와 선행차 기반 추종 제어 기술을 융합한 횡/종방향 차선 제어를 수행한다.
보다 구체적으로 예를 들면, 터널 램프를 기반으로 한 시그널이 차선 보조 지표로 사용될 수 있는지 유효성을 검사하고(이와 관련된 실시예는, 이전 도 6에서 상세히 설명함), 유효한 시그널로 판단되면 실제 횡방향 차선 제어에 활용한다.
따라서, 선행차 기반 추종 제어 기술과 터널 램프 기반 차선 보조 지표를 함께 사용함으로써, 터널 내에서 끊김 없고 신뢰성 있는 횡/종방향 ADAS 제어를 수행할 수 있는 기술적 효과가 있다.
즉, 다시 요약 정리하여 설명하면, 센서(710)는, 터널내 차선을 인식하도록 설계된다. 다만, 카메라에 의해 촬영된 차선의 신뢰성을, 인식부(720)에서 추가적으로 검증하도록 설계할 수도 있다.
컨트롤러(740)는, 터널내 차선 인식률이 기설정된 범위인 경우, 센서(710)(예를 들어, 전방 카메라) 등을 이용하여 터널내 램프를 추가적으로 인식한다.
나아가, 컨트롤러(740)는, 인식된 램프를 기초로 생성된 가상의 보조 차선이 유효한 레벨인지 여부를 판단하고, 유효한 레벨인 경우, 차량과 동일한 차선에서 주행하는 선행차에 대한 정보 및 가상의 보조 차선에 기초하여 주행이 이루어 지도록 제어한다.
본 발명의 또 다른 양태(aspect)로서, 앞서 설명한 제안 또는 발명의 동작이 “컴퓨터”(시스템 온 칩(system on chip; SoC) 또는 마이크로 프로세서 등을 포함하는 포괄적인 개념)에 의해 구현, 실시 또는 실행될 수 있는 코드 또는 상기 코드를 저장 또는 포함한 어플리케이션, 컴퓨터-판독 가능한 저장 매체 또는 컴퓨터 프로그램 제품(product) 등으로도 제공될 수 있으며, 이 또한 본 발명의 권리범위에 속한다.
상술한 바와 같이 개시된 본 발명의 바람직한 실시예들에 대한 상세한 설명은 당업자가 본 발명을 구현하고 실시할 수 있도록 제공되었다. 상기에서는 본 발명의 바람직한 실시예들을 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 본 발명의 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다. 예를 들어, 당업자는 상술한 실시예들에 기재된 각 구성을 서로 조합하는 방식으로 이용할 수 있다.
따라서, 본 발명은 여기에 나타난 실시예들에 제한되려는 것이 아니라, 여기서 개시된 원리들 및 신규한 특징들과 일치하는 최광의 범위를 부여하려는 것이다.
100: 사용자 입력부
101: 운전 정보 입력 인터페이스
200: 주행 정보 검출부
201: 주행 정보 입력 인터페이스
300: 출력부
301: 탑승자 출력 인터페이스
400: 하위 제어 시스템
401: 차량 제어 출력 인터페이스
500: 센서부
600: 자율 주행 통합 제어부
700: 서버
1000: 자율 주행 차량

Claims (10)

  1. 자율 주행으로 동작하는 차량의 제어 방법에 있어서,
    GPS 정보를 기초로 터널로 진입할지 여부를 1차 판단하는 단계;
    전방 카메라를 이용하여 상기 터널내 차선을 1차 인식하는 단계;
    상기 터널내 차선 인식률이 기설정된 범위인 경우, 상기 전방 카메라를 이용하여 상기 터널내 램프를 2차 인식하는 단계;
    상기 인식된 램프를 기초로 생성된 가상의 보조 차선이 유효한 레벨인지 여부를 2차 판단하는 단계;
    유효한 레벨인 경우, 상기 차량과 동일한 차선에서 주행하는 선행차에 대한 정보 및 상기 가상의 보조 차선에 기초하여 주행이 이루어 지도록 제어하는 단계
    를 포함하는 것을 특징으로 하는 차량의 제어 방법.
  2. 제1항에 있어서,
    상기 기설정된 범위는,
    상기 차량이 주행하는 좌측 차선 및 우측 차선이 모두 인식되는 것을 포함하는 것을 특징으로 하는 차량의 제어 방법.
  3. 제1항에 있어서,
    상기 2차 판단하는 단계는,
    상기 가상의 보조 차선의 뷰 레인지가 상기 인식된 터널내 차선의 뷰 레인지 보다 크거나 같은 제1조건을 만족하는 경우, 유효한 레벨로 간주하는 것을 특징으로 하는 차량의 제어 방법.
  4. 제3항에 있어서,
    상기 2차 판단하는 단계는,
    상기 제1조건 및 상기 가상의 보조 차선과 상기 인식된 터널내 차선의 곡률 차이가 기설정된 값 미만인 제2조건을 모두 만족하는 경우, 유효한 레벨로 간주하는 것을 특징으로 하는 차량의 제어 방법.
  5. 제4항에 있어서,
    상기 2차 판단하는 단계는,
    상기 제1조건, 상기 제2조건 및 상기 가상의 보조 차선의 위치가 상기 차량 기준으로 일정 거리 이내인 제3조건을 모두 만족하는 경우, 유효한 레벨로 간주하는 것을 특징으로 하는 차량의 제어 방법.
  6. 자율 주행으로 동작하는 차량에 있어서,
    터널내 차선을 인식하는 전방 카메라; 그리고
    상기 터널내 차선 인식률이 기설정된 범위인 경우, 상기 전방 카메라를 이용하여 상기 터널내 램프를 인식하고,
    상기 인식된 램프를 기초로 생성된 가상의 보조 차선이 유효한 레벨인지 여부를 판단하고,
    유효한 레벨인 경우, 상기 차량과 동일한 차선에서 주행하는 선행차에 대한 정보 및 상기 가상의 보조 차선에 기초하여 주행이 이루어 지도록 제어하는 컨트롤러
    를 포함하는 것을 특징으로 하는 차량.
  7. 제6항에 있어서,
    상기 기설정된 범위는,
    상기 차량이 주행하는 좌측 차선 및 우측 차선이 모두 인식되는 것을 포함하는 것을 특징으로 하는 차량.
  8. 제6항에 있어서,
    상기 컨트롤러는,
    상기 가상의 보조 차선의 뷰 레인지가 상기 인식된 터널내 차선의 뷰 레인지 보다 크거나 같은 제1조건을 만족하는 경우, 유효한 레벨로 간주하는 것을 특징으로 하는 차량.
  9. 제8항에 있어서,
    상기 컨트롤러는,
    상기 제1조건 및 상기 가상의 보조 차선과 상기 인식된 터널내 차선의 곡률 차이가 기설정된 값 미만인 제2조건을 모두 만족하는 경우, 유효한 레벨로 간주하는 것을 특징으로 하는 차량.
  10. 제9항에 있어서,
    상기 컨트롤러는,
    상기 제1조건, 상기 제2조건 및 상기 가상의 보조 차선의 위치가 상기 차량 기준으로 일정 거리 이내인 제3조건을 모두 만족하는 경우, 유효한 레벨로 간주하는 것을 특징으로 하는 차량.
KR1020220007663A 2022-01-19 2022-01-19 자율 주행으로 동작하는 차량 및 그 제어 방법 KR20230111782A (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220007663A KR20230111782A (ko) 2022-01-19 2022-01-19 자율 주행으로 동작하는 차량 및 그 제어 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220007663A KR20230111782A (ko) 2022-01-19 2022-01-19 자율 주행으로 동작하는 차량 및 그 제어 방법

Publications (1)

Publication Number Publication Date
KR20230111782A true KR20230111782A (ko) 2023-07-26

Family

ID=87427739

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220007663A KR20230111782A (ko) 2022-01-19 2022-01-19 자율 주행으로 동작하는 차량 및 그 제어 방법

Country Status (1)

Country Link
KR (1) KR20230111782A (ko)

Similar Documents

Publication Publication Date Title
EP3663155B1 (en) Autonomous driving system
US9091558B2 (en) Autonomous driver assistance system and autonomous driving method thereof
US8620571B2 (en) Driving assistance apparatus, driving assistance method, and driving assistance program
JP4765566B2 (ja) 運転行動評価装置
JP5146243B2 (ja) 車線逸脱抑制装置
KR20210083220A (ko) 운전자 보조 시스템, 그를 가지는 차량 및 그 제어 방법
KR101417522B1 (ko) 고속도로 자율주행 시스템 및 방법
JP4983564B2 (ja) 車両用追従装置
JP2017151703A (ja) 自動運転装置
KR20160029456A (ko) 운전 보조 영상 표시 방법
WO2019155778A1 (ja) 衝突回避支援装置、プログラム、衝突回避支援方法
JP4235090B2 (ja) 車両走行支援装置
CN112721806A (zh) 用于坡度路段的盲区辅助的方法和装置
US20230182722A1 (en) Collision avoidance method and apparatus
US12033403B2 (en) Vehicle control device, vehicle control method, and storage medium
US20220306150A1 (en) Control device, control method, and storage medium
JP2017151704A (ja) 自動運転装置
KR20230116122A (ko) 차량, 차량 충돌방지 시스템 및 충돌방지 방지 방법
KR20230111782A (ko) 자율 주행으로 동작하는 차량 및 그 제어 방법
JP2019172168A (ja) 自動運転システムおよび自動運転プログラム
KR102616971B1 (ko) 자율 주행 장치 및 방법
KR20230110395A (ko) 특정 타입의 버스를 추월하는 차량 및 그 제어 방법
KR20230133994A (ko) 표지판 정보를 인식하는 차량 및 그 제어 방법
KR20230171068A (ko) 경로 재탐색 장치 및 방법
US20230278547A1 (en) Method and apparatus for avoiding collision based on occupant position