KR20210005759A - Object selection navigation system for autonomous vehicle, autonomous vehicle apparatus thereof - Google Patents

Object selection navigation system for autonomous vehicle, autonomous vehicle apparatus thereof Download PDF

Info

Publication number
KR20210005759A
KR20210005759A KR1020190080901A KR20190080901A KR20210005759A KR 20210005759 A KR20210005759 A KR 20210005759A KR 1020190080901 A KR1020190080901 A KR 1020190080901A KR 20190080901 A KR20190080901 A KR 20190080901A KR 20210005759 A KR20210005759 A KR 20210005759A
Authority
KR
South Korea
Prior art keywords
autonomous
autonomous vehicle
destination
information
route information
Prior art date
Application number
KR1020190080901A
Other languages
Korean (ko)
Other versions
KR102303419B1 (en
Inventor
천지민
윤혜원
정혜정
이혜림
박수조
Original Assignee
한양대학교 에리카산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한양대학교 에리카산학협력단 filed Critical 한양대학교 에리카산학협력단
Priority to KR1020190080901A priority Critical patent/KR102303419B1/en
Publication of KR20210005759A publication Critical patent/KR20210005759A/en
Application granted granted Critical
Publication of KR102303419B1 publication Critical patent/KR102303419B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/10Input arrangements, i.e. from user to vehicle, associated with vehicle functions or specially adapted therefor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W10/00Conjoint control of vehicle sub-units of different type or different function
    • B60W10/20Conjoint control of vehicle sub-units of different type or different function including control of steering systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/14Adaptive cruise control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3605Destination input or retrieval
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0088Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/146Display means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/10Accelerator pedal position
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/12Brake pedal position
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2555/00Input parameters relating to exterior conditions, not covered by groups B60W2552/00, B60W2554/00
    • B60W2555/60Traffic rules, e.g. speed limits or right of way
    • B60W2555/80Country specific, e.g. driver age limits or right hand drive
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/45External transmission of data to or from the vehicle
    • B60W2556/50External transmission of data to or from the vehicle of positioning data, e.g. GPS [Global Positioning System] data

Landscapes

  • Engineering & Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Mechanical Engineering (AREA)
  • Transportation (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Business, Economics & Management (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Game Theory and Decision Science (AREA)
  • Medical Informatics (AREA)
  • Navigation (AREA)

Abstract

The present invention relates to an object selection navigation providing system of an autonomous vehicle and an autonomous vehicle apparatus for the same. According to the present invention, the autonomous vehicle apparatus comprises: an autonomous driving module (171) to receive destination route information meaning a route to reach a destination by the shortest time or the shortest distance in accordance with traffic situation information and avoidance driving route information for vehicle avoidance returned from an autonomous driving guide server (400) by accessing the autonomous driving guide server via a network (200), and use the avoidance driving route information and the destination route information to generate autonomous driving control information for a steering wheel which is a steering device making up a driving unit to face a preset destination and an accelerator pedal and a brake pedal to control autonomous driving of an autonomous vehicle (10); and a designation object adoption module (174) to control a transceiving unit (160) to transmit a pointing-based destination route information request for generated pointing coordination information to the autonomous driving guide server (400) when the pointing coordinate information is generated through preset pointing designation for an object for one from scenes spread onto a front glass window (110) to receive the destination route information from the autonomous driving guide server (400). Accordingly, a vehicle passenger sharing an autonomous vehicle can input a destination by selecting a visible object instead of inputting a destination by a voice or text in an ordinary navigation system.

Description

자율주행차량의 객체 선택 네비게이션 제공 시스템, 그리고 이를 위한 자율주행차량 장치{OBJECT SELECTION NAVIGATION SYSTEM FOR AUTONOMOUS VEHICLE, AUTONOMOUS VEHICLE APPARATUS THEREOF}Object selection navigation system for autonomous vehicles, and autonomous vehicle devices for this {OBJECT SELECTION NAVIGATION SYSTEM FOR AUTONOMOUS VEHICLE, AUTONOMOUS VEHICLE APPARATUS THEREOF}

본 발명은 자율주행차량의 객체 선택 네비게이션 제공 시스템, 그리고 이를 위한 자율주행차량 장치에 관한 것으로, 보다 구체적으로는, 자율주행차량을 공유하는 차량 탑승자가 일반적인 네비게이션 시스템에서는 텍스트나 음성으로 목적지를 입력하는 것이 아닌 보이는 객체를 선택하여 목적지를 입력하도록 하기 위한 자율주행차량의 객체 선택 네비게이션 제공 시스템, 그리고 이를 위한 자율주행차량 장치에 관한 것이다. The present invention relates to a system for providing object selection navigation for an autonomous vehicle, and an autonomous vehicle device therefor. More specifically, a vehicle occupant sharing an autonomous vehicle enters a destination by text or voice in a general navigation system. The present invention relates to a system for providing an object selection navigation system for an autonomous vehicle to select a visible object and input a destination, and an autonomous vehicle device for this.

자율주행차량은 각종 주행 수단에 내장되어 주행 위치 탐색을 통해 자율 주행을 수행하는 자율주행장치에 해당하는 차량 단말이 포함되어 있으며, 이러한 자율주행장치는 주로 선박, 항공기 등에 적용되다가, 최근 들어 도로를 주행하는 차량에도 적용되어 예를 들면, 주행 경로, 도로 혼잡도 등과 같은 다양한 정보를 모니터를 통해 사용자에게 알려주거나, 스스로 차량을 운전하거나 주행 상태를 제어한다.Autonomous vehicles are embedded in various driving means and include vehicle terminals corresponding to autonomous driving devices that perform autonomous driving through navigational location search.These autonomous driving devices are mainly applied to ships, aircraft, etc. It is also applied to a driving vehicle, and informs a user of various information such as a driving route and a road congestion degree through a monitor, or drives a vehicle by itself or controls a driving state.

이러한 자율주행차량은 고속으로 움직이는 이동체의 경우, 주행 환경(예를 들면, 전방 차량 인식, 장애물 검출 등)을 실시간으로 인식하여 운전자에게 알려주거나, 주행 환경을 실시간으로 판단하여 스스로 그에 대응하는 각각의 응급 기능을 수행해야 하며, 이를 위해서 많은 데이터량을 실시간으로 처리할 수 있다.In the case of a moving object moving at a high speed, such an autonomous vehicle recognizes the driving environment (for example, front vehicle recognition, obstacle detection, etc.) in real time and informs the driver, or determines the driving environment in real time and responds by itself. Emergency functions must be performed, and for this, a large amount of data can be processed in real time.

한편, 기존의 자율주행차량에서는 자율주행차량을 공유하는 차량 탑승자가 네비게이션 시스템상에서 텍스트나 음성으로 목적지를 입력하는데, 이러한 방식은 종래의 입력 방식은 자율주행차량의 차량 탑승자에게 불편을 초래할 뿐만 아니라, 입력 과정이 불푠하여 완전 자율주행의 개념에도 맞지 않은 한계점이 있다.On the other hand, in the existing autonomous vehicle, vehicle occupants sharing the autonomous vehicle enter a destination by text or voice on the navigation system. This method not only causes inconvenience to vehicle occupants of the autonomous vehicle, but also Since the input process is uneven, there is a limitation that does not fit the concept of fully autonomous driving.

대한민국 특허출원 출원번호 제10-2018-0004940호 "자율주행차량을 이용한 가상 계좌 연계 인공지능 통합 서비스 제공 시스템 및 방법(SYSTEM AND METHOD FOR PROVIDING INTEGRATED ARTIFICIAL INTELLIGENCE SERVICE INTERWORKING VIRTUAL ACCOUNT USING SELF-DRIVING VEHICLE)"Republic of Korea Patent Application No. 10-2018-0004940 "SYSTEM AND METHOD FOR PROVIDING INTEGRATED ARTIFICIAL INTELLIGENCE SERVICE INTERWORKING VIRTUAL ACCOUNT USING SELF-DRIVING VEHICLE"

본 발명은 상기의 문제점을 해결하기 위한 것으로, 자율주행차량을 공유하는 차량 탑승자가 일반적인 네비게이션 시스템에서는 텍스트나 음성으로 목적지를 입력하는 것이 아닌 보이는 객체를 선택하여 목적지를 입력하도록 하기 위한 자율주행차량의 객체 선택 네비게이션 제공 시스템, 그리고 이를 위한 자율주행차량 장치를 제공하기 위한 것이다.The present invention is to solve the above problem, and in a general navigation system, a vehicle occupant of an autonomous vehicle is used to select a visible object and input a destination instead of entering a destination by text or voice. It is to provide a system for providing object selection navigation and an autonomous vehicle device for this.

또한, 본 발명은 자율주행차량을 공유하는 차량 탑승자가 목적지 근처에 도달하였으나, 교차로 등의 복잡한 도로 상황에서 정확하게 가는 경로를 모를 수 있는 경우 차량의 유리창에서 목적지에 대한 설정을 통해 신속한 목적지 경로정보를 제공받을 수 있도록 하기 위한 자율주행차량의 객체 선택 네비게이션 제공 시스템, 그리고 이를 위한 자율주행차량 장치를 제공하기 위한 것이다.In addition, in the present invention, when a vehicle occupant sharing an autonomous vehicle reaches a destination near the destination, but it is possible to know the exact route in a complicated road situation such as an intersection, the destination route information is quickly set through the window of the vehicle. It is to provide an object selection navigation system for autonomous vehicles to be provided, and an autonomous vehicle device for this.

또한, 본 발명은 한번 지정된 포인팅 좌표가 복수의 객체를 지정 가능한 경우, 확대된 영상이미지를 제공하고 제공된 영상이미지를 기반으로 목적지에 대해서 다시 설정이 가능하도록 하기 위한 자율주행차량의 객체 인식 시스템, 그리고 자율주행차량 장치를 제공하기 위한 것이다.In addition, the present invention provides an enlarged image image when a plurality of objects can be designated by the pointing coordinates once designated, and an object recognition system for an autonomous vehicle to enable reconfiguration of a destination based on the provided image image, and It is to provide an autonomous vehicle device.

그러나 본 발명의 목적들은 상기에 언급된 목적으로 제한되지 않으며, 언급되지 않은 또 다른 목적들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.However, the objects of the present invention are not limited to the above-mentioned objects, and other objects that are not mentioned will be clearly understood by those skilled in the art from the following description.

상기의 목적을 달성하기 위해 본 발명의 실시예에 따른 자율주행차량 장치는, 네트워크(200)를 통해 자율주행 안내서버(400)로 액세스하여 자율주행 안내서버(400)로부터 반환된 차량 회피를 위한 회피주행 경로정보, 교통상황정보에 따라 최단시간 또는 최단거리에 의해 목적지로 가려는 경로를 의미하는 목적지 경로정보를 제공받고, 회피주행 경로정보 및 목적지 경로정보를 활용하여 미리 설정된 목적지로 향하도록 구동부를 구성하는 조향장치인 조향 핸들, 그리고 가속 페달 및 제동 페달에 대한 자율주행 제어 정보를 생성하여 자율주행차량(10)의 자율주행을 제어하는 자율주행 모듈(171); 및 전면 유리창(110)으로 펼쳐진 풍경에서 하나에 대한 객체에 대한 미리 설정된 포인팅 방식의 지정을 통해 포인팅 좌표정보가 생성되면, 생성된 포인팅 좌표정보에 대한 포인팅 기반 목적지 경로정보 요청을 자율주행 안내서버(400)로 전송하여, 주율주행 안내서버(400)로부터 목적지 경로정보를 수신하도록 송수신부(160)를 제어하는 지정 객체 채택 모듈(174); 을 포함하는 것을 특징으로 한다.In order to achieve the above object, the autonomous driving vehicle device according to an embodiment of the present invention provides access to the autonomous driving guide server 400 through the network 200 to avoid the vehicle returned from the autonomous driving guide server 400. Depending on the avoidance driving route information and traffic condition information, the driving unit is provided with destination route information, which means the route to the destination by the shortest time or the shortest distance, and uses the evasive driving route information and destination route information to head to a preset destination. An autonomous driving module 171 for controlling autonomous driving of the autonomous driving vehicle 10 by generating autonomous driving control information for a steering wheel, which is a configured steering device, and an accelerator pedal and a braking pedal; And when pointing coordinate information is generated through designation of a preset pointing method for an object in the landscape unfolded by the front windshield 110, a request for pointing-based destination route information for the generated pointing coordinate information is sent to the autonomous driving guide server ( A designated object adopting module 174 that transmits to 400 and controls the transmission/reception unit 160 to receive destination route information from the driving guide server 400; It characterized in that it comprises a.

이때, 본 발명은, 전면 유리창(110)을 중심으로 차량 내부에 덧대는 형태로 형성되는 투명 전면 터치스크린(120); 을 더 포함하는 것을 특징으로 한다.At this time, the present invention, a transparent front touch screen 120 formed in a form of padding inside the vehicle centering on the front windshield 110; It characterized in that it further comprises.

또한, 본 발명은, 투명 전면 터치스크린(120)으로 대상 객체에 대한 지정을 위한 터치 입력을 수신하는 경우 터치 입력된 포인팅 좌표정보를 생성하는 지정 객체 입력 모듈(172); 을 더 포함하는 것을 특징으로 한다.In addition, the present invention, when receiving a touch input for designation of a target object through the transparent front touch screen 120, a designated object input module 172 for generating the touch input pointing coordinate information; It characterized in that it further comprises.

또한, 본 발명은, 지정 객체 입력 모듈(172)은, 자율주행차량(10)의 루프의 하부면에서 운전자석의 후단영역에 형성된 센서모듈(130)을 구성하는 내부 카메라(132)에 의해 전면 유리창(110)을 향하는 자율주행차량(10)의 차량 탑승자에 의한 손가락 포인팅 지정에 대한 인식을 수행하는 경우 인식된 포인팅 좌표정보를 생성하는 것을 특징으로 한다.In addition, in the present invention, the designated object input module 172 is front by an internal camera 132 constituting the sensor module 130 formed in the rear end area of the driver's seat from the lower surface of the roof of the autonomous vehicle 10 When the recognition of the finger pointing designation by the vehicle occupant of the autonomous vehicle 10 facing the window 110 is performed, the recognized pointing coordinate information is generated.

또한, 본 발명은, 내부 디스플레이(140) 또는 투명 전면 스크린(120)에 현재 출력되는 내비게이션 목적지 경로정보에서 지정된 객체를 추출하기 위한 맵 객체 정보를 저장부(150)로부터 추출하는 지정 객체 출력 모듈(173); 을 더 포함하는 것을 특징으로 한다. In addition, the present invention is a designated object output module that extracts map object information for extracting a designated object from the navigation destination route information currently output on the internal display 140 or the transparent front screen 120 from the storage unit 150 ( 173); It characterized in that it further comprises.

본 발명의 실시예에 따른 자율주행차량의 객체 선택 네비게이션 제공 시스템, 그리고 이를 위한 자율주행차량 장치는, 자율주행차량을 공유하는 차량 탑승자가 일반적인 네비게이션 시스템에서는 텍스트나 음성으로 목적지를 입력하는 것이 아닌 보이는 객체를 선택하여 목적지를 입력할 수 있는 효과를 제공한다. The object selection navigation providing system for an autonomous vehicle according to an embodiment of the present invention, and an autonomous vehicle device for this, are visible in which vehicle occupants sharing the autonomous vehicle do not enter a destination by text or voice in a general navigation system. It provides the effect of selecting an object and entering a destination.

또한, 본 발명의 다른 실시예에 따른 자율주행차량의 객체 선택 네비게이션 제공 시스템, 그리고 이를 위한 자율주행차량 장치는, 자율주행차량을 공유하는 차량 탑승자가 목적지 근처에 도달하였으나, 교차로 등의 복잡한 도로 상황에서 정확하게 가는 경로를 모를 수 있는 경우 차량의 유리창에서 목적지에 대한 설정을 통해 신속한 목적지 경로정보를 제공받을 수 있는 효과를 제공한다. In addition, the object selection navigation providing system of an autonomous vehicle according to another embodiment of the present invention, and an autonomous vehicle device for this, include a vehicle occupant sharing an autonomous vehicle reaching a destination near a destination, but complex road conditions such as an intersection If you can not know the exact route in the vehicle, it provides the effect of receiving prompt destination route information by setting the destination on the vehicle's windshield.

뿐만 아니라, 본 발명의 다른 실시예에 따른 자율주행차량의 객체 선택 네비게이션 제공 시스템, 그리고 이를 위한 자율주행차량 장치는, 한번 지정된 포인팅 좌표가 복수의 객체를 지정 가능한 경우, 확대된 영상이미지를 제공하고 제공된 영상이미지를 기반으로 목적지에 대해서 다시 설정이 가능한 효과를 제공한다.In addition, the object selection navigation providing system of an autonomous vehicle according to another embodiment of the present invention, and an autonomous vehicle device for this, provides an enlarged image image when a plurality of objects can be designated by a pointing coordinate once designated. It provides an effect that can be set again for the destination based on the provided video image.

도 1은 본 발명의 실시예에 따른 자율주행차량의 객체 선택 네비게이션 제공 시스템(1)을 나타내는 도면이다.
도 2는 본 발명의 실시예에 따른 자율주행차량의 객체 선택 네비게이션 제공 시스템(1) 중 자율주행차량 장치(100)의 구성요소를 나타내는 블록도이다.
도 3 및 도 4는 본 발명의 실시예에 따른 자율주행차량의 객체 선택 네비게이션 제공 시스템(1)에 의한 지정된 대상 객체로의 경로 안내 과정을 설명하기 위한 도면이다.
1 is a diagram showing an object selection navigation providing system 1 of an autonomous vehicle according to an embodiment of the present invention.
2 is a block diagram showing the components of the autonomous vehicle apparatus 100 in the object selection navigation providing system 1 of the autonomous vehicle according to an embodiment of the present invention.
3 and 4 are views for explaining a process of guiding a route to a designated target object by the object selection navigation providing system 1 of an autonomous vehicle according to an embodiment of the present invention.

이하, 본 발명의 바람직한 실시예의 상세한 설명은 첨부된 도면들을 참조하여 설명할 것이다. 하기에서 본 발명을 설명함에 있어서, 관련된 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이다.Hereinafter, a detailed description of a preferred embodiment of the present invention will be described with reference to the accompanying drawings. In the following description of the present invention, if it is determined that a detailed description of a related known function or configuration may unnecessarily obscure the subject matter of the present invention, a detailed description thereof will be omitted.

본 명세서에 있어서는 어느 하나의 구성요소가 다른 구성요소로 데이터 또는 신호를 '전송'하는 경우에는 구성요소는 다른 구성요소로 직접 상기 데이터 또는 신호를 전송할 수 있고, 적어도 하나의 또 다른 구성요소를 통하여 데이터 또는 신호를 다른 구성요소로 전송할 수 있음을 의미한다.In the present specification, when one component'transmits' data or a signal to another component, the component can directly transmit the data or signal to another component, and through at least one other component It means that data or signals can be transmitted to other components.

도 1은 본 발명의 실시예에 따른 자율주행차량의 객체 선택 네비게이션 제공 시스템(1)을 나타내는 도면이다. 도 1을 참조하면, 자율주행차량의 객체 선택 네비게이션 제공 시스템(1)은 자율주행차량(10)에 설치된 자율주행차량 장치(100), 네트워크(200), 객체 인식 서비스 제공 서버(300), 자율주행 안내서버(400)를 포함함으로써, 자율주행차량(10)에서 차창으로 보이는 대상 객체(건물, 경관, 표지물 등)을 보면서 전면 유리창을 터치하면 그 대상 객체의 정보를 출력할 뿐만 아니라, 대상 객체에 대한 목적지 입력을 통해 경로 정보를 제공할 수 있다.1 is a diagram showing an object selection navigation providing system 1 of an autonomous vehicle according to an embodiment of the present invention. Referring to FIG. 1, the object selection navigation providing system 1 of an autonomous vehicle is an autonomous vehicle device 100 installed in an autonomous vehicle 10, a network 200, an object recognition service providing server 300, and an autonomous vehicle. By including the driving guide server 400, when a target object (building, landscape, sign, etc.) is viewed from the autonomous vehicle 10 and the front windshield is touched, information of the target object is output as well as the target object. Route information can be provided by entering a destination for.

여기서, 네트워크(200)는 대용량, 장거리 음성 및 데이터 서비스가 가능한 대형 통신망의 고속 기간 망인 통신망이며, 인터넷(Internet) 또는 고속의 멀티미디어 서비스를 제공하기 위한 차세대 유선 및 무선 망일 수 있다. 네트워크(200)가 이동통신망일 경우 동기식 이동 통신망일 수도 있고, 비동기식 이동 통신망일 수도 있다. 비동기식 이동 통신망의 일 실시 예로서, WCDMA(Wideband Code Division Multiple Access) 방식의 통신망을 들 수 있다. 이 경우 도면에 도시되진 않았지만, 네트워크(200)는 RNC(Radio Network Controller)을 포함할 수 있다. 한편, WCDMA망을 일 예로 들었지만, 3G LTE망, 4G망 등 차세대 통신망, 그 밖의 IP를 기반으로 한 IP망일 수 있다. 네트워크(200)는 자율주행차량 장치(100), 네트워크(200), 객체 인식 서비스 제공 서버(300), 자율주행 안내서버(400), 그 밖의 시스템 상호 간의 신호 및 데이터를 상호 전달하는 역할을 한다. Here, the network 200 is a communication network, which is a high-speed basic network of a large communication network capable of large-capacity, long-distance voice and data services, and may be a next-generation wired or wireless network for providing Internet or high-speed multimedia services. When the network 200 is a mobile communication network, it may be a synchronous mobile communication network or an asynchronous mobile communication network. As an embodiment of the asynchronous mobile communication network, there may be a communication network of a wideband code division multiple access (WCDMA) type. In this case, although not shown in the drawing, the network 200 may include a Radio Network Controller (RNC). On the other hand, although the WCDMA network was taken as an example, it may be a next-generation communication network such as a 3G LTE network or a 4G network, or an IP network based on other IPs. The network 200 serves to mutually transmit signals and data between the autonomous vehicle device 100, the network 200, the object recognition service providing server 300, the autonomous driving guide server 400, and other systems. .

도 2는 본 발명의 실시예에 따른 자율주행차량의 객체 선택 네비게이션 제공 시스템(1) 중 자율주행차량 장치(100)의 구성요소를 나타내는 블록도이다. 도 3 및 도 4는 본 발명의 실시예에 따른 자율주행차량의 객체 선택 네비게이션 제공 시스템(1)에 의한 지정된 대상 객체로의 경로 안내 과정을 설명하기 위한 도면이다. 도 2를 참조하면, 자율주행차량 장치(100)는 전면 유리창(110), 투명 전면 터치스크린(120), 센서모듈(130), 내부 디스플레이(140), 저장부(150), 송수신부(160) 및 제어부(170)를 포함할 수 있다. 센서모듈(130)은 외부 카메라(131), 내부 카메라(132), 거리감지센서(133), GPS 센서(134)를 포함할 수 있으며, 거리감지센서(133)는 라이다(Light Detection And Ranging, LiDAR), 레이더, 초음파 센서 중 적어도 하나 이상의 복합센서로 형성됨으로써, 충분한 중첩을 통해 중복을 증가시켜 안전을 개선하도록 형성될 수 있다. 라이다는 종종 LADAR(Laser Detection And Ranging)나 ToF(Time of Flight), 레이저 스캐너, 레이저 레이더 등으로 불리기도 하는 이것은 물체를 감지해 거리를 맵핑하는 센싱 방식에 해당하며, 광학 펄스로 목표물을 비춘 후 반사된 반송 신호의 특징을 측정하고, 광학-펄스의 폭은 몇 나노초부터 몇 마이크로초까지 변동할 수 있다. 2 is a block diagram showing the components of the autonomous vehicle apparatus 100 in the object selection navigation providing system 1 of the autonomous vehicle according to an embodiment of the present invention. 3 and 4 are views for explaining a process of guiding a route to a designated target object by the object selection navigation providing system 1 of an autonomous vehicle according to an embodiment of the present invention. Referring to FIG. 2, the autonomous vehicle device 100 includes a front window 110, a transparent front touch screen 120, a sensor module 130, an internal display 140, a storage unit 150, and a transmission/reception unit 160. ) And a control unit 170 may be included. The sensor module 130 may include an external camera 131, an internal camera 132, a distance detection sensor 133, and a GPS sensor 134, and the distance detection sensor 133 is a lidar (Light Detection And Ranging). , LiDAR), radar, and ultrasonic sensors by forming at least one or more composite sensors, it can be formed to improve safety by increasing the redundancy through sufficient overlap. Lida, often referred to as LADAR (Laser Detection And Ranging), ToF (Time of Flight), laser scanner, laser radar, etc., corresponds to a sensing method that detects an object and maps the distance, illuminating the target with optical pulses. After measuring the characteristics of the reflected carrier signal, the width of the optical-pulse can vary from a few nanoseconds to several microseconds.

제어부(170)는 자율주행 모듈(171), 지정 객체 입력 모듈(172), 지정 객체 출력 모듈(173), 지정 객체 채택 모듈(174) 및 지정 객체 경로 제공 모듈(175)을 포함할 수 있다. The control unit 170 may include an autonomous driving module 171, a designated object input module 172, a designated object output module 173, a designated object adopting module 174, and a designated object path providing module 175.

그리고 본 명세서에서 모듈이라 함은, 본 발명의 기술적 사상을 수행하기 위한 하드웨어 및 상기 하드웨어를 구동하기 위한 소프트웨어의 기능적, 구조적 결합을 의미할 수 있다. 예컨대, 상기 모듈은 소정의 코드와 상기 소정의 코드가 수행되기 위한 하드웨어 리소스의 논리적인 단위를 의미할 수 있으며, 반드시 물리적으로 연결된 코드를 의미하거나, 한 종류의 하드웨어를 의미하는 것은 아님은 본 발명의 기술분야의 평균적 전문가에게는 용이하게 추론될 수 있다.In addition, in the present specification, a module may mean a functional and structural combination of hardware for performing the technical idea of the present invention and software for driving the hardware. For example, the module may mean a predetermined code and a logical unit of hardware resources for executing the predetermined code, and does not necessarily mean a physically connected code or a single type of hardware. It can be easily inferred from the average expert in the technical field of

자율주행 모듈(171)은 네트워크(200)를 통해 자율주행 안내서버(400)로 액세스하여 센서모듈(130)에 포함된 전, 후, 좌, 우 4방향에 설치된 외부 카메라(131)에 의해 촬영되어 획득된 영상정보, 거리감지센서(133)에 의해 획득된 감지센서 범위 내에 있는 차량간의 거리정보를 제공하고, 자율주행 안내서버(400)로부터 반환된 차량 회피를 위한 회피주행 경로정보, 교통상황정보에 따라 최단시간 또는 최단거리에 의해 목적지로 가려는 경로를 의미하는 목적지 경로정보를 제공받고, 회피주행 경로정보 및 목적지 경로정보를 활용하여 미리 설정된 목적지로 향하도록 구동부를 구성하는 조향장치인 조향 핸들, 그리고 가속 페달 및 제동 페달에 대한 자율주행 제어 정보를 생성하여 자율주행차량(10)의 자율주행을 제어할 수 있다.The autonomous driving module 171 accesses the autonomous driving guide server 400 through the network 200 and is photographed by an external camera 131 installed in the front, rear, left, and right directions included in the sensor module 130. Provides information on the distance between vehicles within the range of the detection sensor acquired by the image information acquired by the distance detection sensor 133, and evasive driving route information for vehicle avoidance returned from the autonomous driving guide server 400, and traffic conditions Depending on the information, the steering wheel, which is a steering device, is a steering device that configures the driving unit to head to a preset destination by receiving destination route information, which means the route to the destination by the shortest time or the shortest distance. And, by generating autonomous driving control information for the accelerator pedal and the braking pedal, the autonomous driving of the autonomous vehicle 10 may be controlled.

지정 객체 입력 모듈(172)은 도 3과 같이 전면 유리창(110)을 중심으로 차량 내부에 덧대는 형태로 형성되는 투명 전면 터치스크린(120)으로 대상 객체에 대한 지정을 위한 터치 입력을 수행하거나, 자율주행차량(10)의 루프의 하부면에서 운전자석의 후단영역에 형성된 센서모듈(130)을 구성하는 내부 카메라(132)에 의해 전면 유리창(110)을 향하는 자율주행차량(10)의 차량 탑승자에 의한 손가락 포인팅 지정에 대한 인식을 수행함으로써, 터치 입력되거나 인식된 포인팅 좌표정보를 생성할 수 있다. The designated object input module 172 performs a touch input for designating a target object with a transparent front touch screen 120 formed in a form of being padded inside the vehicle centering on the front windshield 110 as shown in FIG. 3, or Vehicle occupants of the autonomous vehicle 10 facing the front windshield 110 by the internal camera 132 constituting the sensor module 130 formed in the rear end area of the driver's seat on the lower surface of the roof of the autonomous vehicle 10 By performing recognition on the finger pointing designation by, touch input or recognized pointing coordinate information may be generated.

지정 객체 출력 모듈(173)은 내부 디스플레이(140) 또는 투명 전면 스크린(120)에 현재 출력되는 내비게이션 목적지 경로정보에서 지정된 객체를 추출하기 위한 맵 객체 정보를 저장부(150)로부터 추출할 수 있다. 여기서 맵 객체 정보는 내비게이션 목적지 경로정보 파일에서 경로정보의 지리좌표의 메타데이터로 지정된 모든 객체를 의미할 수 있으며, 저장부(150)는 비휘발성 메모리(Non-volatile memory, NVM)로써 전원이 공급되지 않아도 저장된 데이터를 계속 유지하며 삭제되지 않으며, 플래시 메모리(Flash Memory), MRAM(Magnetic Random Access Memory), PRAM(Phase-change Random Access memory: 상변화 램), FRAM(Ferroelectric RAM: 강유전체 램) 등으로 구성될 수 있다.The designated object output module 173 may extract map object information for extracting a designated object from the navigation destination route information currently output on the internal display 140 or the transparent front screen 120 from the storage unit 150. Here, the map object information may refer to all objects designated as metadata of the geographic coordinates of the route information in the navigation destination route information file, and the storage unit 150 is powered by a non-volatile memory (NVM). Even if it is not, the stored data is retained and is not deleted. It can be composed of.

이후, 지정 객체 출력 모듈(173)은 추출된 맵 정보 객체에서 포인팅 좌표정보에 해당하는 지정 객체에 대한 센서모듈(130)에 의해 촬영된 영상이미지에 대한 영상인식을 통해 각 맵 정보 객체의 패턴이미지와의 비교를 통해 지정 객체의 명칭을 저장부(150)로부터 추출하거나 네트워크(200)를 통해 자율주행 안내서버(400)에 대한 지정 객체의 명칭을 요청하여 반환받도록 송수신부(160)를 제어할 수 있다.Thereafter, the designated object output module 173 is a pattern image of each map information object through image recognition of the image image captured by the sensor module 130 for the designated object corresponding to the pointing coordinate information from the extracted map information object. Control the transmission/reception unit 160 to extract the name of the designated object from the storage unit 150 through comparison with or to request and return the name of the designated object to the autonomous driving guide server 400 through the network 200. I can.

즉, 지정 객체 출력 모듈(173)은 촬영된 영상이미지와, 자율주행 안내서버(400)에서 제공된 각 맵 정보 객체의 패턴이미지 간의 비교를 위해 저장부(150)에 저장되거나 자율주행 안내서버(400)의 데이터베이스에 저장된 각 맵 정보 객체의 패턴 이미지를 활용할 수 있다. 지정 객체 출력 모듈(173)은 패턴 이미지로 각 맵 정보 객체의 수평면상의 패턴 이미지, 미리 설정된 각도로 기울어진 것 등과 촬영된 영상이미지 간의 비교를 통해서 매칭되는 맵 정보 객체를 지정 객체로 추출할 수 있다. That is, the designated object output module 173 is stored in the storage unit 150 or stored in the autonomous driving guide server 400 for comparison between the captured image image and the pattern image of each map information object provided by the autonomous driving guide server 400. ), the pattern image of each map information object stored in the database can be used. The designated object output module 173 may extract a matching map information object as a designated object through a comparison between a pattern image on a horizontal plane of each map information object as a pattern image, an inclined at a preset angle, and a captured image image. .

지정 객체 출력 모듈(173)은 지정 객체의 명칭이 추출되면, 투명 전면 터치스크린(130)에서 지정 객체를 위한 설명 영역에 대해서 지정 객체의 명칭을 출력하기 위한 설명을 위한 화소에 대해서 전원(ON)을 통해 지정 객체의 명칭을 출력함으로써, 차량 탑승객의 시야를 최소화하면서도 지정 객체에 대한 명칭을 제공받을 수 있다.When the name of the designated object is extracted, the designated object output module 173 powers (ON) a pixel for description for outputting the name of the designated object to the description area for the designated object on the transparent front touch screen 130. By outputting the name of the designated object through, the name of the designated object can be provided while minimizing the view of the vehicle occupant.

지정 객체 채택 모듈(174)은 인식된 지정 객체에 대해서 도 3과 같이 전면 유리창(110)을 중심으로 차량 내부에 덧대는 형태로 형성되는 투명 전면 터치스크린(120)으로 목적지 지정을 위한 다시 한 번의 터치 입력을 수행하거나, 자율주행차량(10)의 루프의 하부면에서 운전자석의 후단영역에 형성된 센서모듈(130)을 구성하는 내부 카메라(132)에 의해 전면 유리창(110)을 향하는 자율주행차량(10)의 차량 탑승자에 의한 손가락 포인팅 지정에 대한 다시 한번 인식을 수행함으로써, 한번 더 터치 입력되거나 인식된 목적지로 설정된 지정 객체에 대한 명칭 정보를 포함하는 포인팅 기반 목적지 경로정보 요청을 자율주행 안내서버(400)로 전송하여, 주율주행 안내서버(400)로부터 목적지 경로정보를 수신하도록 송수신부(160)를 제어할 수 있다.The designated object adopting module 174 is a transparent front touch screen 120 formed in the form of a padding inside the vehicle centering on the front windshield 110 for the recognized designated object. An autonomous vehicle that performs a touch input or faces the front windshield 110 by an internal camera 132 constituting the sensor module 130 formed in the rear end area of the driver's seat on the lower surface of the roof of the autonomous vehicle 10 By performing the recognition of the finger pointing designation by the vehicle occupant of (10) once again, the autonomous driving guide server sends a request for pointing-based destination route information including the name information on the designated object set as a touch input or recognized destination once again. By transmitting to the 400, it is possible to control the transmission and reception unit 160 to receive destination route information from the driving guide server 400.

보다 구체적으로, 지정 객체 채택 모듈(174)은 도 4와 같이 전면 유리창(110)을 중심으로 차량 내부에 덧대는 형태로 형성되는 투명 전면 터치스크린(120)의 상단뷰(view) 형태로 지정 객체로 향하는 목적지 경로정보를 출력하도록 제어할 수 있다. More specifically, the designated object adopting module 174 is a designated object in the form of a top view of the transparent front touch screen 120 formed in a form of being padded inside the vehicle with the front windshield 110 as the center as shown in FIG. 4. It can be controlled to output destination route information to.

본 발명의 다른 실시예로, 지정 객체 채택 모듈(174)은 센서모듈(130) 중 거리감지센서(133)에 의해 획득된 감지센서 범위 내에 있는 회피를 위한 차량간의 거리정보와 GPS 센서(134)에 의해 제공된 위치 및 방위 정보를 활용할 수 있다. 보다 구체적으로, 지정 객체 채택 모듈(174)은 위치 및 방위 정보를 활용하여 지정 객체로 향하는 목적지 경로정보의 이탈 여부를 분석하되, 거리감지센서(133)에 의해 획득된 감지센서 범위 내에 있는 차량간의 거리정보에 따라 자율주행차량(10)에 의한 객체의 회피에 따른 경로의 이탈인 경우, 이탈된 위치 및 방위에 따른 경로 보정요청을 네트워크(200)를 통해 자율주행 안내서버(400)로 전송하도록 송수신부(160)를 제어한 뒤, 자율주행 안내서버(400)로부터 보정된 목적지 경로정보를 수신하여 자율주행 모듈(171)로 제공하는 방식으로 자율주행이 수행되도록 할 수 있다.In another embodiment of the present invention, the designated object adopting module 174 includes distance information between vehicles and a GPS sensor 134 for avoidance within the range of the detection sensor obtained by the distance detection sensor 133 among the sensor modules 130. The location and orientation information provided by can be utilized. More specifically, the designated object adopting module 174 analyzes whether the destination route information to the designated object is deviated by using the location and orientation information, but between vehicles within the range of the detection sensor acquired by the distance detection sensor 133 In case of deviation of the path due to the avoidance of the object by the autonomous vehicle 10 according to the distance information, a request for correcting the path according to the departure location and orientation is transmitted to the autonomous driving guide server 400 through the network 200. After controlling the transmission/reception unit 160, the corrected destination route information is received from the autonomous driving guide server 400 and provided to the autonomous driving module 171 so that autonomous driving can be performed.

본 발명의 다른 실시예로, 지정 객체 채택 모듈(174)은 지정 객체 입력 모듈(172)에 의한 전면 유리창(110)의 내부에 덧대는 형태로 형성되는 투명 전면 터치스크린(120)으로 대상 객체에 대한 지정을 위한 한 번의 터치 입력을 인식하거나, 자율주행차량(10)의 루프의 하부면에서 운전자석의 후단영역에 형성된 센서모듈(130)에 의해 전면 유리창(110)을 향하는 자율주행차량(10)의 차량 탑승자에 의한 손가락 포인팅 지정에 대한 한 번의 방향 인식을 수행하여 터치 입력되거나 인식된 포인팅 좌표정보를 생성시, 생성된 포인팅 좌표정보에 복수의 대상 객체가 저장부(150)로부터 추출되는 경우, 복수의 대상 객체에 대한 재선택을 위해 투명 전면 터치스크린(120)의 전체 또는 투명 전면 터치스크린(130)에서 복수의 대상 객체를 포함하는 전체 영역을 중심으로 미리 설정된 배수에 해당하는 만큼 확대 영상을 투명 전면 터치스크린(120)으로 출력할 수 있다. 즉, 투명 전면 터치스크린(120)은 투명 유리로 전면 유리창(120)에 대한 보강 기능을 하지만, 확대 영상을 출력시 디스플레이의 기능을 수행하는 것이다.In another embodiment of the present invention, the designated object adopting module 174 is a transparent front touch screen 120 formed in a form that is padded inside the front windshield 110 by the designated object input module 172 to the target object. Recognizing a single touch input for designation of the autonomous vehicle 10, or the autonomous vehicle 10 facing the windshield 110 by a sensor module 130 formed in the rear end area of the driver's seat on the lower surface of the roof of the autonomous vehicle 10 ) When a touch input or recognized pointing coordinate information is generated by performing a single direction recognition for the finger pointing designation by the vehicle occupant, a plurality of target objects are extracted from the storage unit 150 in the generated pointing coordinate information , In order to reselect a plurality of target objects, an enlarged image corresponding to a preset multiple centered on the entire area of the transparent front touch screen 120 or the entire area including the plurality of target objects on the transparent front touch screen 130 May be output to the transparent front touch screen 120. That is, the transparent front touch screen 120 is a transparent glass that reinforces the front windshield 120, but performs a display function when outputting an enlarged image.

이후, 지정 객체 채택 모듈(174)은 확대된 영상이 출력된 투명 전면 터치스크린(120)으로의 대상 객체에 대한 지정을 위한 터치 입력 인식을 수행하거나, 자율주행차량(10)의 루프의 하부면에서 운전자석의 후단영역에 형성된 센서모듈(130)에 의해 전면 유리창(110)을 향하는 자율주행차량(10)의 차량 탑승자에 의한 손가락 포인팅 지정에 대한 인식을 다시 수행함으로써, 터치 입력되거나 인식된 포인팅 좌표정보를 생성하며, 지정된 포인팅 좌표정보를 지정 객체 출력 모듈(173)로 제공함으로써, 상술한 방식에 의해 지정 객체 출력 모듈(173)에 의해 저장부(150)에서 맵 정보 객체에서 포인팅 좌표정보에 해당하는 대상 객체에 대한 센서모듈(130) 중 내부 카메라(132)에 의해 촬영된 영상이미지에 대한 영상인식을 통해 각 맵 정보 객체의 패턴이미지와의 비교를 통해 지정 객체의 명칭을 저장부(150)로부터 추출하여 투명 전면 터치스크린(120)을 활용하여 출력하도록 할 수 있다. Thereafter, the designated object adopting module 174 performs touch input recognition for designation of the target object to the transparent front touch screen 120 on which the enlarged image is output, or the lower surface of the roof of the autonomous vehicle 10 By re-recognizing the finger pointing designation by the vehicle occupant of the autonomous vehicle 10 facing the front windshield 110 by the sensor module 130 formed in the rear end area of the driver's seat, touch input or recognized pointing By generating coordinate information and providing the designated pointing coordinate information to the designated object output module 173, the storage unit 150 from the map information object to the pointing coordinate information by the designated object output module 173 according to the above-described method. The storage unit 150 stores the name of the designated object through comparison with the pattern image of each map information object through image recognition of the image image captured by the internal camera 132 among the sensor modules 130 for the corresponding target object. ) And output using the transparent front touch screen 120.

이후, 지정 객체 채택 모듈(174)은 터치 입력되거나 인식된 재선택된 지정 객체에 대한 지정 객체의 명칭 정보와 함께 포인팅 기반 목적지 경로정보 요청을 자율주행 안내서버(400)로 전송하여, 주율주행 안내서버(400)로부터 목적지 경로정보를 수신하도록 송수신부(160)를 제어하여, 목적지 경로정보를 수신하여 투명 전면 터치스크린(120)에 출력하거나, 내부 디스플레이(140)에 출력하도록 제어할 수 있다.Thereafter, the designated object adopting module 174 transmits a pointing-based destination route information request together with the name information of the designated object for the touch input or recognized reselected designated object to the autonomous driving guide server 400, By controlling the transmission/reception unit 160 to receive destination route information from 400, the destination route information may be received and output on the transparent front touch screen 120 or the internal display 140 may be controlled.

본 발명은 또한 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록 장치를 포함한다.The present invention can also be implemented as a computer-readable code on a computer-readable recording medium. The computer-readable recording medium includes all types of recording devices that store data that can be read by a computer system.

컴퓨터가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD-ROM, 자기테이프, 플로피 디스크, 광 데이터 저장장치 등이 있으며, 또한 캐리어 웨이브(예를 들어, 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. Examples of computer-readable recording media include ROM, RAM, CD-ROM, magnetic tape, floppy disk, and optical data storage devices, and are implemented in the form of carrier waves (for example, transmission through the Internet). Also includes.

또한 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다. 그리고 본 발명을 구현하기 위한 기능적인(functional) 프로그램, 코드 및 코드 세그먼트들은 본 발명이 속하는 기술 분야의 프로그래머들에 의해 용이하게 추론될 수 있다.In addition, the computer-readable recording medium is distributed over a computer system connected through a network, so that computer-readable codes can be stored and executed in a distributed manner. In addition, functional programs, codes, and code segments for implementing the present invention can be easily inferred by programmers in the technical field to which the present invention belongs.

이상과 같이, 본 명세서와 도면에는 본 발명의 바람직한 실시예에 대하여 개시하였으며, 비록 특정 용어들이 사용되었으나, 이는 단지 본 발명의 기술 내용을 쉽게 설명하고 발명의 이해를 돕기 위한 일반적인 의미에서 사용된 것이지, 본 발명의 범위를 한정하고자 하는 것은 아니다. 여기에 개시된 실시예 외에도 본 발명의 기술적 사상에 바탕을 둔 다른 변형 예들이 실시 가능하다는 것은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 자명한 것이다.As described above, in the present specification and drawings, a preferred embodiment of the present invention has been disclosed, and although specific terms are used, this is only used in a general meaning to easily explain the technical content of the present invention and to aid understanding of the invention. , It is not intended to limit the scope of the present invention. In addition to the embodiments disclosed herein, it is apparent to those of ordinary skill in the art that other modified examples based on the technical idea of the present invention may be implemented.

1 : 자율주행차량의 객체 선택 네비게이션 제공 시스템
10 : 자율주행차량
100 : 자율주행차량 장치
110 : 전면 유리창
120 : 투명 전면 터치스크린
130 : 센서모듈
131 : 외부 카메라
132 : 내부 카메라
133 : 거리감지센서
134 : GPS 센서
140 : 내부 디스플레이
150 : 저장부
160 : 송수신부
170 : 제어부
200 : 네트워크
300 : 객체 인식 서비스 제공 서버
400 : 자율주행 안내서버
1: Object selection navigation system for autonomous vehicles
10: autonomous vehicle
100: autonomous vehicle device
110: front windshield
120: transparent front touch screen
130: sensor module
131: external camera
132: internal camera
133: distance sensor
134: GPS sensor
140: internal display
150: storage unit
160: transceiver
170: control unit
200: network
300: Object recognition service providing server
400: autonomous driving guide button

Claims (5)

네트워크(200)를 통해 자율주행 안내서버(400)로 액세스하여 자율주행 안내서버(400)로부터 반환된 차량 회피를 위한 회피주행 경로정보, 교통상황정보에 따라 최단시간 또는 최단거리에 의해 목적지로 가려는 경로를 의미하는 목적지 경로정보를 제공받고, 회피주행 경로정보 및 목적지 경로정보를 활용하여 미리 설정된 목적지로 향하도록 구동부를 구성하는 조향장치인 조향 핸들, 그리고 가속 페달 및 제동 페달에 대한 자율주행 제어 정보를 생성하여 자율주행차량(10)의 자율주행을 제어하는 자율주행 모듈(171); 및
전면 유리창(110)으로 펼쳐진 풍경에서 하나에 대한 객체에 대한 미리 설정된 포인팅 방식의 지정을 통해 포인팅 좌표정보가 생성되면, 생성된 포인팅 좌표정보에 대한 포인팅 기반 목적지 경로정보 요청을 자율주행 안내서버(400)로 전송하여, 주율주행 안내서버(400)로부터 목적지 경로정보를 수신하도록 송수신부(160)를 제어하는 지정 객체 채택 모듈(174); 을 포함하는 것을 특징으로 하는 자율주행차량 장치.
By accessing the autonomous driving guide server 400 through the network 200, it is intended to go to the destination by the shortest time or the shortest distance according to the evasive driving route information for evading the vehicle returned from the autonomous driving guide server 400, and traffic situation information. The steering wheel, which is a steering device that configures the driving unit to head to a preset destination by receiving destination route information indicating a route, and using the evasive driving route information and destination route information, and autonomous driving control information for the accelerator and brake pedals An autonomous driving module 171 that generates and controls autonomous driving of the autonomous driving vehicle 10; And
When pointing coordinate information is generated through designation of a preset pointing method for an object in the landscape unfolded by the front windshield 110, the autonomous driving guide server 400 requests a pointing-based destination route information for the generated pointing coordinate information. ), and a designated object adopting module 174 that controls the transmission/reception unit 160 to receive destination route information from the main rate driving guide server 400; An autonomous vehicle device comprising a.
청구항 1에 있어서,
전면 유리창(110)을 중심으로 차량 내부에 덧대는 형태로 형성되는 투명 전면 터치스크린(120); 을 더 포함하는 것을 특징으로 하는 자율주행차량 장치.
The method according to claim 1,
A transparent front touch screen 120 formed in a form of being padded inside the vehicle with the front windshield 110 as the center; An autonomous vehicle device, characterized in that it further comprises.
청구항 2에 있어서,
투명 전면 터치스크린(120)으로 대상 객체에 대한 지정을 위한 터치 입력을 수신하는 경우 터치 입력된 포인팅 좌표정보를 생성하는 지정 객체 입력 모듈(172); 을 더 포함하는 것을 특징으로 하는 자율주행차량 장치.
The method according to claim 2,
A designation object input module 172 for generating touch input pointing coordinate information when receiving a touch input for designation of a target object through the transparent front touch screen 120; An autonomous vehicle device, characterized in that it further comprises.
청구항 3에 있어서, 지정 객체 입력 모듈(172)은,
자율주행차량(10)의 루프의 하부면에서 운전자석의 후단영역에 형성된 센서모듈(130)을 구성하는 내부 카메라(132)에 의해 전면 유리창(110)을 향하는 자율주행차량(10)의 차량 탑승자에 의한 손가락 포인팅 지정에 대한 인식을 수행하는 경우 인식된 포인팅 좌표정보를 생성하는 것을 특징으로 하는 자율주행차량 장치.
The method of claim 3, wherein the designated object input module 172,
Vehicle occupants of the autonomous vehicle 10 facing the front windshield 110 by the internal camera 132 constituting the sensor module 130 formed in the rear end area of the driver's seat on the lower surface of the roof of the autonomous vehicle 10 An autonomous vehicle device comprising generating recognized pointing coordinate information when performing recognition of a finger pointing designation by.
청구항 4에 있어서,
내부 디스플레이(140) 또는 투명 전면 스크린(120)에 현재 출력되는 내비게이션 목적지 경로정보에서 지정된 객체를 추출하기 위한 맵 객체 정보를 저장부(150)로부터 추출하는 지정 객체 출력 모듈(173); 을 더 포함하는 것을 특징으로 하는 자율주행차량 장치.
The method of claim 4,
A designated object output module 173 for extracting map object information for extracting a designated object from the navigation destination route information currently output on the internal display 140 or the transparent front screen 120 from the storage unit 150; An autonomous vehicle device, characterized in that it further comprises.
KR1020190080901A 2019-07-04 2019-07-04 Autonomous vehicle apparatus KR102303419B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190080901A KR102303419B1 (en) 2019-07-04 2019-07-04 Autonomous vehicle apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190080901A KR102303419B1 (en) 2019-07-04 2019-07-04 Autonomous vehicle apparatus

Publications (2)

Publication Number Publication Date
KR20210005759A true KR20210005759A (en) 2021-01-15
KR102303419B1 KR102303419B1 (en) 2021-09-27

Family

ID=74127182

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190080901A KR102303419B1 (en) 2019-07-04 2019-07-04 Autonomous vehicle apparatus

Country Status (1)

Country Link
KR (1) KR102303419B1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101588184B1 (en) * 2014-10-22 2016-01-25 현대자동차주식회사 Control apparatus for vechicle, vehicle, and controlling method for vehicle
KR20180060602A (en) * 2016-11-29 2018-06-07 엘지전자 주식회사 Autonomous Vehicle
JP2019020129A (en) * 2017-07-11 2019-02-07 日産自動車株式会社 Method for generating travel route of driving assisted vehicle and travel route generator

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101588184B1 (en) * 2014-10-22 2016-01-25 현대자동차주식회사 Control apparatus for vechicle, vehicle, and controlling method for vehicle
KR20180060602A (en) * 2016-11-29 2018-06-07 엘지전자 주식회사 Autonomous Vehicle
JP2019020129A (en) * 2017-07-11 2019-02-07 日産自動車株式会社 Method for generating travel route of driving assisted vehicle and travel route generator

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
대한민국 특허출원 출원번호 제10-2018-0004940호 "자율주행차량을 이용한 가상 계좌 연계 인공지능 통합 서비스 제공 시스템 및 방법(SYSTEM AND METHOD FOR PROVIDING INTEGRATED ARTIFICIAL INTELLIGENCE SERVICE INTERWORKING VIRTUAL ACCOUNT USING SELF-DRIVING VEHICLE)"

Also Published As

Publication number Publication date
KR102303419B1 (en) 2021-09-27

Similar Documents

Publication Publication Date Title
US10976413B2 (en) LIDAR system with synchronized MEMS mirrors
US11758111B2 (en) 3D lidar system using a dichroic mirror for autonomous driving vehicles
US11951975B1 (en) Handling sensor occlusions for autonomous vehicles
US10943485B2 (en) Perception assistant for autonomous driving vehicles (ADVs)
US20210389768A1 (en) Trajectory Assistance for Autonomous Vehicles
US10262234B2 (en) Automatically collecting training data for object recognition with 3D lidar and localization
US11255952B2 (en) Image sensor processing using a combined image and range measurement system
US10394245B2 (en) Method and system to predict vehicle traffic behavior for autonomous vehicles to make driving decisions
US11155268B2 (en) Utilizing passenger attention data captured in vehicles for localization and location-based services
US20200004251A1 (en) Planning driven perception system for autonomous driving vehicles
US8849494B1 (en) Data selection by an autonomous vehicle for trajectory modification
US8996224B1 (en) Detecting that an autonomous vehicle is in a stuck condition
US10877134B2 (en) LIDAR peak detection using splines for autonomous driving vehicles
US11372090B2 (en) Light detection and range (LIDAR) device with SPAD and APD sensors for autonomous driving vehicles
US11604260B2 (en) LIDAR device with polygon-shape mirror and prism for autonomous driving vehicles
US11372100B2 (en) Radar object classification and communication using smart targets
US20200285044A1 (en) Display device, display control method, and storage medium
US20220364874A1 (en) Method of providing image by vehicle navigation device
US20200133270A1 (en) Lidar device with cylindrical lens for autonomous driving vehicles
KR20210005417A (en) Accident information providing system of autonomous vehicle, and autonomous vehicle apparatus thereof
KR102303419B1 (en) Autonomous vehicle apparatus
KR20210005758A (en) Object recognition system for autonomous vehicle, autonomous vehicle apparatus thereof
KR20240063281A (en) Method And Apparatus for Providing Driving Data of Autonomous Vehicle
KR20240102060A (en) Sensor fusion system, driving assistance system and sensor fusion method

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant