KR102297202B1 - 차량용 표시 장치 - Google Patents

차량용 표시 장치 Download PDF

Info

Publication number
KR102297202B1
KR102297202B1 KR1020190089174A KR20190089174A KR102297202B1 KR 102297202 B1 KR102297202 B1 KR 102297202B1 KR 1020190089174 A KR1020190089174 A KR 1020190089174A KR 20190089174 A KR20190089174 A KR 20190089174A KR 102297202 B1 KR102297202 B1 KR 102297202B1
Authority
KR
South Korea
Prior art keywords
touch
vehicle
gui
user
area
Prior art date
Application number
KR1020190089174A
Other languages
English (en)
Other versions
KR20210011816A (ko
Inventor
이철희
김현규
송기봉
정상경
정준영
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR1020190089174A priority Critical patent/KR102297202B1/ko
Priority to US16/557,923 priority patent/US10871856B2/en
Publication of KR20210011816A publication Critical patent/KR20210011816A/ko
Application granted granted Critical
Publication of KR102297202B1 publication Critical patent/KR102297202B1/ko

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/10Input arrangements, i.e. from user to vehicle, associated with vehicle functions or specially adapted therefor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/21Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using visual output, e.g. blinking lights or matrix displays
    • B60K35/22Display screens
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/29Instruments characterised by the way in which information is handled, e.g. showing information on plural displays or prioritising information according to driving conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/60Instruments characterised by their location or relative disposition in or on vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R11/00Arrangements for holding or mounting articles, not otherwise provided for
    • B60R11/04Mounting of cameras operative during drive; Arrangement of controls thereof relative to the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • B60R21/01Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents
    • B60R21/015Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting the presence or position of passengers, passenger seats or child seats, and the related safety parameters therefor, e.g. speed or timing of airbag inflation in relation to occupant position or seat belt use
    • B60R21/01512Passenger detection systems
    • B60R21/01516Passenger detection systems using force or pressure sensing means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • G06F3/0418Control or interface arrangements specially adapted for digitisers for error correction or compensation, e.g. based on parallax, calibration or alignment
    • G06F3/04186Touch location disambiguation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/11Instrument graphical user interfaces or menu aspects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/143Touch sensitive instrument input devices
    • B60K2360/1438Touch screens
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/18Information management
    • B60K2360/199Information management for avoiding maloperation
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/20Optical features of instruments
    • B60K2360/21Optical features of instruments using cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/20Optical features of instruments
    • B60K2360/33Illumination features
    • B60K2360/347Optical elements for superposition of display information
    • B60K2370/11
    • B60K2370/143
    • B60K2370/152
    • B60K2370/21
    • B60K2370/347

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Transportation (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Automation & Control Theory (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

본 발명은 차량의 움직임에 따라 디스플레이 모듈을 통해 표시되는 GUI의 터치 영역을 변경하는 차량용 표시 장치에 관한 것이다. 본 발명의 일 실시예에 따른 차량용 표시 장치는 차량 내부에 구비되어 GUI(Graphical User Interface)를 표시하는 디스플레이 모듈 및 상기 차량의 움직임에 따라 상기 GUI에 대응하는 터치 영역을 변경시키는 프로세서를 포함하는 것을 특징으로 한다.
본 발명이 적용되는 차량은 사용자의 조작 없이 스스로 목적지까지 운행할 수 있는 자율주행 차량(autonomous vehicle)일 수 있다. 이 경우, 자율주행 차량은 임의의 인공지능(Artificial Intelligence; AI) 모듈, 드론(drone), 무인항공기(Unmmaned Aerial Vehicle), 로봇, 증강현실(Augmented Reality; AR) 모듈, 가상현실(Virtual reality; VR) 모듈, 5G(5th Generation) 이동통신 장치 등과 연계될 수 있다.

Description

차량용 표시 장치{DISPLAY DEVICE FOR VEHICLE}
본 발명은 차량의 움직임에 따라 디스플레이 모듈을 통해 표시되는 GUI의 터치 영역을 변경하는 차량용 표시 장치에 관한 것이다.
근래의 차량은 기본적인 주행 기능 외에도 음악 감상, 동영상 시청, 전화 및 메시지 송수신 등의 다양한 기능을 제공한다. 이러한 기능을 제공하기 위해 차량에는 차량용 HMI(Human Machine Interface)가 구비된다.
차량용 HMI는 다수의 입출력 모듈을 포함하고, 입출력 모듈을 통해 사용자 조작을 입력받거나 사용자 조작에 따른 화면 및 음성을 출력한다.
최근 개발되는 차량은 입출력 모듈로서 다수의 디스플레이를 구비하고, 차량용 HMI는 디스플레이 상의 터치를 센싱하여 사용자 조작을 입력받거나 디스플레이를 통해 운전자에게 다양한 정보를 제공한다.
보다 구체적으로, 디스플레이에는 다양한 GUI(Graphical User Interface)가 표시되고, 차량용 HMI는 GUI 상에 입력되는 사용자 터치에 따라 해당 GUI에 대응하는 어플리케이션을 실행한다.
한편, 디스플레이의 크기는 차량 내부 공간의 크기에 의해 제한될 수 밖에 없고, 디스플레이에 표시되는 GUI 크기 또한 제한된다. 이에 따라, 차량의 움직임이 클 때 내부의 운전자는 특정 GUI 상에 정확히 터치를 입력하기 어렵고 이에 따라 운전자의 의도와는 다른 어플리케이션이 실행되는 문제점이 있다.
또한, 운전자가 의도하지 않은 어플리케이션의 실행 시, 운전자는 실행된 어플리케이션을 취소하기 위한 추가적인 터치를 시도하게 되고, 이마저도 정확하게 입력되지 않는 상황이 발생하면 운전자의 주행 집중도가 급격히 하락하여 사고가 유발될 수 있다는 문제점이 있다.
본 발명은 차량의 움직임에 따라 GUI의 터치 영역을 변경하는 차량용 표시 장치를 제공하는 것을 목적으로 한다.
또한, 본 발명은 사용자의 터치 습관에 따라 GUI의 터치 영역을 변경하는 차량용 표시 장치를 제공하는 것을 목적으로 한다.
또한, 본 발명은 사용자 터치의 시행착오를 고려하여 GUI의 터치 영역을 갱신하는 차량용 표시 장치를 제공하는 것을 목적으로 한다.
본 발명의 목적들은 이상에서 언급한 목적으로 제한되지 않으며, 언급되지 않은 본 발명의 다른 목적 및 장점들은 하기의 설명에 의해서 이해될 수 있고, 본 발명의 실시예에 의해 보다 분명하게 이해될 것이다. 또한, 본 발명의 목적 및 장점들은 특허 청구 범위에 나타낸 수단 및 그 조합에 의해 실현될 수 있음을 쉽게 알 수 있을 것이다.
전술한 목적을 달성하기 위한 본 발명의 일 실시예에 따른 차량용 표시 장치는 차량 내부에 구비되어 GUI(Graphical User Interface)를 표시하는 디스플레이 모듈 및 상기 차량의 움직임에 따라 상기 GUI에 대응하는 터치 영역을 변경시키는 프로세서를 포함하는 것을 특징으로 한다.
본 발명은 차량의 움직임에 따라 GUI의 터치 영역을 변경함으로써, 임의의 주행 환경에서도 사용자의 터치 의도에 부합하는 어플리케이션을 실행할 수 있는 효과가 있다.
또한, 본 발명은 사용자의 터치 습관에 따라 GUI의 터치 영역을 변경함으로써, 주행 환경뿐만 아니라 사용자 특성을 반영하여 사용자의 터치 의도에 부합하는 어플리케이션을 실행할 수 있는 효과가 있다.
또한, 본 발명은 사용자 터치의 시행착오를 고려하여 GUI의 터치 영역을 갱신함으로써, 사용 기간이 길어짐에 따라 변화될 수 있는 사용자 특성과 사용자의 변경으로 인해 변화될 수 있는 사용자 특성 또한 반영하여 사용자 터치 의도에 부합하는 어플리케이션을 실행할 수 있는 효과가 있다.
상술한 효과와 더불어 본 발명의 구체적인 효과는 이하 발명을 실시하기 위한 구체적인 사항을 설명하면서 함께 기술한다.
도 1은 본 발명의 일 실시예에 따른 차량용 표시 장치를 포함하는 차량의 내부 블록도.
도 2는 도 1에 도시된 디스플레이 모듈의 다양한 구현 예를 설명하기 위한 도면.
도 3은 디스플레이 모듈에 복수의 GUI가 표시된 모습을 도시한 도면.
도 4는 GUI의 표시 영역 및 터치 영역을 설명하기 위한 도면.
도 5는 어플리케이션 실행 시 디스플레이 모듈을 통해 표시되는 화면의 일 예를 도시한 도면.
도 6A 및 도 6B는 차량의 움직임에 따른 운전자의 관성을 설명하기 위한 도면.
도 7은 차량의 움직임에 따라 GUI의 터치 영역이 변경되는 모습을 도시한 도면.
도 8A 및 도 8B는 GUI에 대한 사용자의 터치 습관을 반영하여 GUI의 터치 영역을 변경하는 과정을 설명하기 위한 도면.
도 9는 어느 한 GUI의 터치 영역과, 인접한 GUI의 표시 영역이 중첩되는 영역을 통해 터치가 입력되는 모습을 도시한 도면.
도 10은 어느 한 GUI의 터치 영역과, 인접한 GUI의 터치 영역에 각각 중첩되는 터치가 입력되는 모습을 도시한 도면.
도 11은 터치 영역의 변경에 따라 표시 영역이 변경되는 모습을 도시한 도면.
도 12는 5G 통신 시스템에서 차량과 5G 네트워크의 기본동작의 일 예를 나타낸 도면.
도 13은 5G 통신 시스템에서 차량과 5G 네트워크의 응용 동작의 일 예를 나타낸 도면.
도 14 내지 도 17은 5G 통신을 이용한 차량의 동작 과정의 일 예를 나타낸 도면.
전술한 목적, 특징 및 장점은 첨부된 도면을 참조하여 상세하게 후술되며, 이에 따라 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명의 기술적 사상을 용이하게 실시할 수 있을 것이다. 본 발명을 설명함에 있어서 본 발명과 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 상세한 설명을 생략한다. 이하, 첨부된 도면을 참조하여 본 발명에 따른 바람직한 실시예를 상세히 설명하기로 한다. 도면에서 동일한 참조부호는 동일 또는 유사한 구성요소를 가리키는 것으로 사용된다.
이하에서 구성요소의 "상부 (또는 하부)" 또는 구성요소의 "상 (또는 하)"에 임의의 구성이 배치된다는 것은, 임의의 구성이 상기 구성요소의 상면 (또는 하면)에 접하여 배치되는 것뿐만 아니라, 상기 구성요소와 상기 구성요소 상에 (또는 하에) 배치된 임의의 구성 사이에 다른 구성이 개재될 수 있음을 의미할 수 있다.
본 발명은 차량의 움직임에 따라 디스플레이 모듈을 통해 표시되는 GUI의 터치 영역을 변경하는 차량용 표시 장치에 관한 것이다.
이하, 도면을 참조하여 본 발명의 일 실시예에 따른 차량과, 이에 구비된 차량용 표시 장치를 구체적으로 설명하도록 한다.
도 1은 본 발명의 일 실시예에 따른 차량용 표시 장치를 포함하는 차량의 내부 블록도이고, 도 2는 도 1에 도시된 디스플레이 모듈의 다양한 구현 예를 설명하기 위한 도면이다.
도 3은 디스플레이 모듈에 복수의 GUI가 표시된 모습을 도시한 도면이고, 도 4는 GUI의 표시 영역 및 터치 영역을 설명하기 위한 도면이다. 또한, 도 5는 어플리케이션 실행 시 디스플레이 모듈을 통해 표시되는 화면의 일 예를 도시한 도면이다.
도 6A 및 도 6B는 차량의 움직임에 따른 운전자의 관성을 설명하기 위한 도면이고, 도 7은 차량의 움직임에 따라 GUI의 터치 영역이 변경되는 모습을 도시한 도면이다.
도 8A 및 도 8B는 GUI에 대한 사용자의 터치 습관을 반영하여 GUI의 터치 영역을 변경하는 과정을 설명하기 위한 도면이다.
도 9는 어느 한 GUI의 터치 영역과, 인접한 GUI의 표시 영역이 중첩되는 영역을 통해 터치가 입력되는 모습을 도시한 도면이다. 또한, 도 10은 어느 한 GUI의 터치 영역과, 인접한 GUI의 터치 영역에 각각 중첩되는 터치가 입력되는 모습을 도시한 도면이다.
도 11은 터치 영역의 변경에 따라 표시 영역이 변경되는 모습을 도시한 도면이다.
도 1을 참조하면, 본 발명의 일 실시예에 따른 차량(100)은 차량용 표시 장치(1)와, 내부 디바이스(40)를 포함할 수 있다.
본 발명이 적용되는 차량(100)은 동력원으로서 엔진을 구비하는 내연기관 차량(internal combustion engine vehicle), 동력원으로서 엔진과 전기 모터를 구비하는 하이브리드 차량(hybrid vehicle), 동력원으로서 전기 모터를 구비하는 전기 차량(electronic vehicle), 동력원으로서 연료 전지를 구비하는 수소연료전지차(fuel cell electric vehicle) 등으로 구현될 수 있다.
또한, 본 발명이 적용되는 차량(100)은 사용자의 조작 없이 스스로 목적지까지 운행할 수 있는 자율주행 차량(autonomous vehicle)일 수 있다. 이 경우, 자율주행 차량은 임의의 인공지능(Artificial Intelligence; AI) 모듈, 드론(drone), 무인항공기(Unmmaned Aerial Vehicle), 로봇, 증강현실(Augmented Reality; AR) 모듈, 가상현실(Virtual reality; VR) 모듈, 5G(5th Generation) 이동통신 장치 등과 연계될 수 있다.
다시 도 1을 참조하면, 본 발명의 일 실시예에 따른 차량용 표시 장치(1)는 디스플레이 모듈(10), 프로세서(20) 및 메모리(30)를 포함할 수 있다. 또한, 차량(100)의 내부 디바이스(40)는 외부 카메라(41), 레이다(42), 라이다(43), 내부 카메라(44), 감압 센서(45) 및 가속도 센서(46)를 포함할 수 있다. 도 1에 도시된 차량용 표시 장치(1) 및 내부 디바이스(40)는 일 실시예에 따른 것이고, 그 구성요소들이 도 1에 도시된 실시예에 한정되는 것은 아니며, 필요에 따라 일부 구성요소가 부가, 변경 또는 삭제될 수 있다.
한편, 도 1에 도시된 각 구성요소들은 ASICs(application specific integrated circuits), DSPs(digital signal processors), DSPDs(digital signal processing devices), PLDs(programmable logic devices), FPGAs(field programmable gate arrays), 제어기(controllers), 마이크로 컨트롤러(micro-controllers), 마이크로 프로세서(microprocessors) 중 적어도 하나 또는 이들의 조합을 포함하는 물리적인 요소로 구현될 수 있다.
한편, 도 1은 본 발명을 설명하기 위한 차량(100)의 내부 블록도로서, 차량(100) 내부에는 도 1에 도시된 구성요소 외에도 주행에 필요한 다수의 구성요소들이 더 포함될 수 있음은 당연하다.
한편, 본 명세서에서 사용자는 운전자를 포함하는 개념으로서 차량(100)에 탑승한 모든 사람을 지시하는 용어로 기술될 수 있다.
디스플레이 모듈(10)은 차량(100) 내부에 구비되어 GUI(Graphical User Interface, 200)를 표시할 수 있다.
디스플레이 모듈(10)은 차량(100) 내부 임의의 위치에 설치될 수도 있고, 차량(100) 제작 시 특정 위치에 내장될 수도 있다.
도 2를 참조하면, 디스플레이 모듈(10)은 대시보드(dashboard) 중앙에 구비되는 메인 디스플레이(11), 대시보드 중앙 상부에 구비되는 센터 디스플레이(12), 스티어링 휠(110)의 후방에서 운전석 방면의 대시보드에 구비되는 클러스터(cluster) 디스플레이(13), 조수석 방면의 대시보드에 구비된 조수석 디스플레이(14)를 포함할 수 있다. 또한, 도면에는 도시되지 않았으나 디스플레이 모듈(10)은 운전석과 조수석 뒷면에 구비된 RSE(Rear Seat Entertainment) 디스플레이(15)를 포함할 수도 있다.
이러한 디스플레이 모듈(10)은 화면을 통해 사용자 터치(T)를 입력받고, 이에 따른 다양한 정보를 사용자에게 제공할 수 있다. 이러한 기능을 위해, 디스플레이 모듈(10)은 GUI(200)를 표시할 수 있다.
도 3은 도 2에 도시된 센터 디스플레이(12)를 확대 도시한 도면이다. 이하에서는 GUI(200)가 센터 디스플레이(12)에 표시된 것으로 가정하여 발명을 설명하나, GUI(200)는 차량(100) 내 임의의 위치에 구비된 디스플레이 모듈(10)에 표시될 수 있다.
도 3을 참조하면, 디스플레이 모듈(10)은 다수의 GUI(200)를 표시할 수 있다. 각 GUI(200)는 이에 대응하는 어플리케이션의 기능을 나타낼 수 있는 임의의 그래픽을 포함할 수 있다. 예컨대, 전화 어플리케이션에 대응하는 GUI(200)는 수화기 모양의 그래픽을 포함할 수 있고, 뮤직 어플리케이션에 대응하는 GUI(200)는 음표 모양의 그래픽을 포함할 수 있다.
디스플레이 모듈(10)은 GUI(200)에 대응하는 터치 영역(220)을 통해 사용자 터치를 입력받을 수 있고, 프로세서(20)는 입력된 사용자 터치에 응답하여 해당 GUI(200)에 대응하는 어플리케이션을 실행할 수 있다.
도 4를 참조하면, 디스플레이 모듈(10)은 미리 설정된 표시 영역(210) 내에 GUI(200)를 표시할 수 있고, 미리 설정된 터치 영역(220)을 통해 사용자 터치를 입력받을 수 있다. 일반적으로 사용자 편의성 향상을 위해 어느 한 GUI(200)에 대응하는 터치 영역(220)은 표시 영역(210)보다 넓게 형성될 수 있다.
사용자는 특정 어플리케이션을 실행시키기 위해, 해당 어플리케이션에 대응하는 GUI(200)의 터치 영역(220)에 터치를 입력할 수 있다. 디스플레이 모듈(10)은 내장된 터치 센서를 통해 사용자 터치를 감지할 수 있고, 감지 신호를 생성하여 프로세서(20)에 제공할 수 있다.
감지 신호를 제공받은 프로세서(20)는 메모리(30)를 참조하여 해당 GUI(200)에 대응하는 어플리케이션을 식별하고, 식별된 어플리케이션을 실행할 수 있다. 어플리케이션이 실행되면, 디스플레이 모듈(10)은 어플리케이션의 실행 화면을 표시할 수 있다.
도 4를 예로 들어 설명하면, 사용자는 수화기 모양의 그래픽을 포함하는 GUI(200)의 터치 영역(220)에 사용자 터치를 입력할 수 있다. 이 때, 프로세서(20)는 해당 GUI(200)에 대응하는 전화 어플리케이션을 실행할 수 있다.
전화 어플리케이션이 실행되면 도 5에 도시된 바와 같이 디스플레이 모듈(10)은 다이얼(dial)과 연락처(contacts)를 포함하는 화면을 표시할 수 있고, 사용자는 해당 화면에 추가적인 사용자 터치를 입력하여 전화 기능을 이용할 수 있다.
한편, 도 6A를 참조하면, 차량(100)이 A 위치에서 우회전할 때 차량(100) 내부에는 좌측 방향의 관성력(i; inertial force)이 발생할 수 있다. 또한, 차량(100)이 B 위치에서 좌회전할 때 차량(100) 내부에는 우측 방향의 관성력이 발생할 수 있다. 이에 따라, 차량(100)이 A 위치일 때 운전자는 관성력에 의해 왼쪽으로 치우칠 수 있고, 차량(100)이 B 위치일 때 운전자는 관성력에 의해 오른쪽으로 치우칠 수 있다.
또한, 도 6B를 참조하면, 차량(100)이 C 위치에서 상승할 때 차량(100) 내부에는 하부 방향의 관성력이 발생할 수 있다. 또한, 차량(100)이 D 위치에서 하강할 때 차량(100) 내부에는 상부 방향의 관성력이 발생할 수 있다. 이에 따라, 차량(100)이 C 위치일 때 운전자는 관성력에 의해 아래쪽으로 치우칠 수 있고, 차량(100)이 D 위치일 때 운전자는 관성력에 의해 위쪽으로 치우칠 수 있다.
이와 같이 차량(100)의 움직임에 따라 사용자 신체가 치우치게 되면, 사용자는 전술한 터치 영역(220)에 정확히 사용자 터치를 입력하지 못할 수 있다.
본 발명의 프로세서(20)는 차량(100)의 움직임에 따라 GUI(200)에 대응하는 터치 영역(220)을 변경시킴으로써, 사용자의 정확한 터치를 유도할 수 있다.
프로세서(20)는 차량(100)의 움직임을 결정하기 위해 지도 정보를 수집할 수 있다. 보다 구체적으로, 프로세서(20)는 교통 정보 서버로부터 지도 정보를 수집할 수 있다. 이와 달리, 지도 정보는 메모리(30)에 미리 저장될 수도 있고, 프로세서(20)는 메모리(30)로부터 지도 정보를 수집할 수도 있다. 지도 정보는 도로의 곡률, 도로의 평탄도 등을 포함할 수 있고, 예컨대 고정밀 지도(High Definition Map; HD Map)으로 구현될 수 있다.
프로세서(20)는 지도 정보를 통해 현재 차량(100)이 주행 중인 도로 정보를 식별할 수 있고, 식별된 도로 정보와 차량(100)의 속도에 기초하여 차량(100)의 움직임을 결정할 수 있다. 보다 구체적으로, 프로세서(20)는 식별된 도로 정보와 현재 차량(100)의 속도에 기초하여 현재 차량(100)의 움직임을 파악할 수도 있고, 식별된 도로 정보와 차량(100)의 예상 속도에 기초하여 미래의 차량(100)의 움직임을 예측할 수도 있다.
또한, 프로세서(20)는 차량(100)의 움직임을 결정하기 위해 센싱 정보를 수집할 수 있다. 보다 구체적으로, 프로세서(20)는 차량(100)에 구비된 다양한 센서를 통해 센싱 정보를 수집할 수 있다
일 예에서, 차량(100)에는 가속도 센서(46)가 구비될 수 있다. 가속도 센서(46)는 차량(100)에 고정 구비되어 차량(100)의 움직임에 의한 가속도를 측정할 수 있다. 이러한 가속도 센서(46)는 당해 기술분야에서 이용되는 다양한 장치로 구현될 수 있으며, 예컨대 자이로스코프(gyroscope)로 구현될 수 있다.
프로세서(20)는 가속도 센서(46)에 의해 측정된 가속도값을 통해 차량(100)의 움직임을 결정할 수 있다. 보다 구체적으로, 전술한 관성력은 가속도에 의해 발생하므로, 프로세서(20)는 가속도 센서(46)를 통해 차량(100) 내부에서 가속도가 어느 방향으로 얼마만큼 발생하는 지 파악할 수 있고, 이에 기초하여 차량(100)의 움직임에 따른 관성력을 파악할 수 있다.
다른 예에서, 차량(100)에는 외부 카메라(41), 레이다(42) 및 라이다(43)가 구비될 수 있다. 외부 카메라(41)는 가시 영상을 통해, 레이다(42)(Radio Detection and Ranging; RADAR)는 마이크로파를 통해, 라이다(43)(LiDAR; Light Detection and Ranging)는 근적외선을 통해 차량(100) 주변의 도로의 평탄도, 도로의 곡률 등에 대한 정보를 수집할 수 있다.
프로세서(20)는 수집된 정보와 차량(100)의 속도에 기초하여 차량(100)의 움직임을 결정할 수 있다. 보다 구체적으로, 프로세서(20)는 수집된 정보와 현재 차량(100)의 속도에 기초하여 현재 차량(100)의 움직임을 파악할 수도 있고, 수집된 정보와 차량(100)의 예상 속도에 기초하여 미래의 차량(100)의 움직임을 예측할 수도 있다.
프로세서(20)는 이와 같이 결정된 차량(100)의 움직임에 따라 GUI(200)에 대응하는 터치 영역(220)을 변경시킬 수 있다. 다시 말해, 프로세서(20)는 차량(100)의 움직임에 의해 내부 사용자가 받는 관성력의 크기 및 방향에 따라 GUI(200)에 대응하는 터치 영역(220)을 변경시킬 수 있다.
보다 구체적으로, 프로세서(20)는 메모리(30)를 참조하여 차량(100)의 움직임에 대응하는 터치 변위량을 식별하고, 식별된 터치 변위량에 기초하여 터치 영역(220)을 변경시킬 수 있다. 이를 위해, 메모리(30)에는 임의의 차량(100)의 움직임에 대응하는 터치 변위량이 서로 대응되도록 미리 저장될 수 있다. 한편, 본 발명에서 터치 변위량은 변경된 터치 영역(220')과 기존 터치 영역(220) 간의 변위량를 의미할 수 있고, 변경 방향 및 변경 거리를 포함할 수 있다.
일 예에서, 차량(100)의 움직임은 가속도 센서(46)에 의해 측정된 가속도값을 통해 결정될 수 있고, 이 때 프로세서(20)는 가속도값에 대응하는 터치 변위량을 식별하고, 식별된 터치 변위량에 기초하여 터치 영역(220)을 변경시킬 수 있다.
다른 예에서, 차량(100)의 움직임은 지도 정보에 의해 결정될 수 있고, 이 때 프로세서(20)는 지도 정보에 대응하는 터치 변위량을 식별하고, 식별된 터치 변위량에 기초하여 터치 영역(220)을 변경시킬 수 있다.
또 다른 예에서, 차량(100)의 움직임은 외부 카메라(41), 레이다(42) 및 라이다(43) 등에 의해 식별된 센싱 정보일 수 있고, 이 때 프로세서(20)는 센싱 정보에 대응하는 터치 변위량을 식별하고 식별된 터치 변위량에 기초하여 터치 영역(220)을 변경시킬 수 있다.
도 7을 참조하면, 특정 차량(100)의 움직임에 의해 차량(100) 내부 사용자는 화살표 방향(우하 방향)으로 발생하는 일정 세기의 관성력(i)을 받을 수 있다. 이 때, 프로세서(20)는 메모리(30)를 참조하여 해당 관성력(i)에 대응하는 터치 변위량을 식별하고, 식별된 터치 변위량에 기초하여 터치 영역(220)을 우하 방향으로 일정 거리만큼 변경시킬 수 있다.
한편, 관성력의 크기는 물체의 질량에 비례하므로 차량(100) 내부의 사용자가 받는 관성력은 사용자의 체중에 비례할 수 있다. 이에 따라, 프로세서(20)는 사용자 체중에 따라 터치 변위량을 보정할 수 있다.
차량(100) 내 시트에는 감압 센서(45)가 구비될 수 있다. 감압 센서(45)는 시트에 인가되는 압력을 감지하여 사용자 체중을 식별할 수 있다. 프로세서(20)는 감압 센서(45)를 통해 식별된 사용자 체중에 따라, 터치 변위량을 보정할 수 있다.
보다 구체적으로, 프로세서(20)는 터치 변위량에 사용자 체중별로 미리 설정된 보정치를 곱하여 터치 변위량을 보정할 수 있다. 보정치는 사용자 체중에 비례하는 값으로 미리 설정될 수 있다.
이에 따라, 도 7에서 터치 영역(220)의 변경 방향은 일정하되, 변경 거리는 사용자 체중이 증가할수록 늘어날 수 있고 사용자 체중이 감소할수록 줄어들 수 있다.
또한, 메모리(30)에 저장된 터치 변위량은 기준 체중(예컨대, 60[kg])에 따라 미리 설정될 수 있다. 프로세서(20)는 메모리(30)를 참조하여 터치 변위량을 식별하고, 감압 센서(45)를 통해 식별된 사용자 체중과 기준 체중간의 비율을 산출한 후, 산출된 비율을 터치 변위량에 곱하여 터치 변위량을 보정할 수 있다.
예를 들어, 메모리(30)를 참조하여 식별된 터치 변위량이 우하 방향, 1.5cm이고, 사용자 체중(80[kg])과 기준 체중(60[kg])의 비율이 4/3일 때, 프로세서(20)는 1.5cm와 4/3의 곱인 2cm를 보정된 터치 변위량으로 결정할 수 있다.
이에 따라, 기준 체중(60[kg])의 사용자에 대해 터치 영역(220')이 도 7에 도시된 바와 같이 변경될 때, 80kg의 사용자에 대해서는 터치 영역(220')이 도 7에 도시된 것 보다 4/3배 더 이동할 수 있다.
한편, 이상에서는 차량(100) 내 시트에 구비된 감압 센서(45)가 사용자 체중을 측정하는 것으로 설명하였으나, 이 외에도 사용자 체중을 측정하기 위한 다양한 요소들이 본 발명에 적용될 수 있음은 당연하다.
터치 영역(220)이 변경되면 디스플레이 모듈(10)은 변경된 터치 영역(220)을 통해 사용자 터치를 입력받을 수 있다.
다시 도 7을 참조하면, GUI(200)에 대한 터치 영역(220)이 변경된 후 디스플레이 모듈(10)은 변경된 터치 영역(220)을 통해 T1의 사용자 터치를 입력받을 수 있다. 이 때, 프로세서(20)는 해당 GUI(200)에 대응하는 어플리케이션을 실행할 수 있다.
이와 달리, 디스플레이 모듈(10)은 변경된 터치 영역(220) 외의 영역을 통해 사용자 터치를 입력받을 수 있다. 이 때, 프로세서(20)는 입력된 사용자 터치의 좌표에 기초하여 차량(100)의 움직임에 대응하는 터치 변위량을 갱신할 수 있다.
예컨대 도 7에서, GUI(200)에 대한 터치 영역(220)이 변경된 후 디스플레이 모듈(10)은 변경된 터치 영역(220') 이외의 영역을 통해 T2의 사용자 터치를 입력받을 수 있다. T2는 터치 영역(220') 밖에 위치하므로 프로세서(20)는 GUI(200)에 대응하는 어플리케이션을 실행하지 않을 수 있다.
대신에, 프로세서(20)는 T2의 좌표를 식별하고, 해당 좌표에 기초하여 터치 변위량을 갱신할 수 있다. 보다 구체적으로, 프로세서(20)는 T2의 좌표를 통해 사용자 터치가 터치 영역(220')의 우측에서 입력되었음을 식별할 수 있고, 이에 따라 터치 변위량을 갱신하여 GUI(200)에 대한 터치 영역(220')을 보다 우측으로 변경시킬 수 있다.
예를 들어, 프로세서(20)는 터치 영역(220')의 중심점의 y축 좌표와 T2의 y축 좌표 사이의 y축 변위를 식별할 수 있다. 또한, 프로세서(20)는 터치 영역(220') 우변의 x축 좌표와 T2의 x축 좌표 사이의 x축 변위를 식별할 수 있다.
프로세서(20)는 기존에 설정된 터치 변위량에 x축 변위 및 y축 변위를 더함으로써 터치 변위량을 갱신할 수 있고, 갱신된 터치 변위량에 기초하여 터치 영역(220')을 변경시킬 수 있다. 이에 따라, 터치 영역은 y축 변위만큼 위쪽으로, x축 변위만큼 오른쪽으로 이동할 수 있고, T2 좌표는 터치 영역(220') 내에 포함될 수 있다.
이러한 터치 영역(220)의 갱신은 터치 영역(220) 외에서 사용자 터치가 입력될 때마다 수행될 수도 있고, 터치 영역(220) 외에서 사용자 터치가 입력되는 횟수가 일정 횟수 이상인 경우에 수행될 수도 있다.
상술한 바와 같이, 본 발명은 차량(100)의 움직임에 따라 GUI(200)의 터치 영역(220)을 변경함으로써, 임의의 주행 환경에서도 사용자의 터치 의도에 부합하는 어플리케이션을 실행할 수 있다.
한편, 전술한 차량(100)의 움직임에 따른 터치 영역(220)의 변경과 함께 또는 이와 별도로, 프로세서(20)는 사용자의 터치 습관 정보에 기초하여 터치 영역(220)을 변경시킬 수도 있다.
보다 구체적으로, 프로세서(20)는 메모리(30)를 참조하여 GUI(200)에 대응하는 터치 습관 정보를 식별하고, 식별된 터치 습관 정보에 따라 GUI(200)에 대응하는 터치 영역(220)을 변경시킬 수 있다.
도 8A를 참조하면, 사용자는 터치 습관에 따라 제1 GUI(200a)에 대한 사용자 터치(T)를 터치 영역(220)의 우하단에 주로 입력할 수 있다. 이와 같이 입력된 각 사용자 터치(T)의 좌표는 메모리(30)에 저장될 수 있다. 프로세서(20)는 메모리(30)에 저장된 각 사용자 터치(T)의 좌표에 기초하여 제1 GUI(200a)에 대응하는 터치 습관 정보를 식별할 수 있다.
여기서 터치 습관 정보는 특정 GUI(200)에 대한 복수의 사용자 터치(T)의 위치에 대한 정보로서, 사용자 터치(T)의 위치에 대한 경향성을 나타내는 정보일 수 있다. 프로세서(20)는 도 8A에 도시된 복수의 사용자 터치(T)에 대한 터치 습관 정보를 식별하고, 식별된 터치 습관 정보에 따라 터치 영역(220)을 우하 방향으로 변경시킬 수 있다.
도 8B를 참조하면, 예컨대 터치 습관 정보는 복수의 사용자 터치(T)의 평균 좌표일 수 있다. 프로세서(20)는 메모리(30)에 저장된 각 사용자 터치(T)의 평균 좌표를 산출할 수 있고, 변경 후 터치 영역(220')의 중심 좌표(C)가 도 8A에 도시된 각 사용자 터치(T)의 평균 좌표가 되도록 터치 영역(220)을 변경할 수 있다. 다시 말해, 도 8B에서 변경된 터치 영역(220')의 중심 좌표(C)는, 도 8A에 도시된 복수의 사용자 터치(T)의 평균 좌표일 수 있다.
터치 습관 정보에 따라 터치 영역(220)이 변경된 후, 디스플레이 모듈(10)은 변경된 터치 영역(220) 외의 영역을 통해 사용자 터치를 입력받을 수 있다. 이 때, 프로세서(20)는 입력된 사용자 터치의 좌표에 기초하여 터치 습관 정보를 갱신할 수 있다.
예컨대 도 8B에서, 제1 GUI(200a)에 대한 터치 영역(220)이 변경된 후 디스플레이 모듈(10)은 변경된 터치 영역(220') 이외의 영역을 통해 T1의 사용자 터치를 입력받을 수 있다. T1은 터치 영역(220') 밖에 위치하므로 프로세서(20)는 제1 GUI(200a)에 대응하는 어플리케이션을 실행하지 않을 수 있다.
대신에, 프로세서(20)는 T1의 좌표를 식별하고, 해당 좌표에 기초하여 터치 습관 정보를 갱신할 수 있다. 보다 구체적으로, 프로세서(20)는 T1의 좌표를 통해 사용자 터치가 터치 영역(220')의 아래쪽에서 입력되었음을 식별할 수 있고, 이에 따라 터치 습관 정보를 갱신하여 제1 GUI(200a)에 대한 터치 영역(220')을 보다 아래쪽으로 변경시킬 수 있다.
예를 들어, 터치 습관 정보가 복수의 사용자 터치의 평균 좌표일 때, 프로세서(20)는 도 8A에 도시된 각 사용자 터치와 도 8B에 도시된 T1의 평균 좌표를 다시 산출하고, 갱신 후의 터치 영역(220')의 중심 좌표(C)가 T1을 포함하는 복수의 사용자 터치의 평균 좌표가 되도록 터치 영역(220')을 변경할 수 있다.
상술한 바와 같이, 본 발명은 사용자의 터치 습관에 따라 GUI(200)의 터치 영역(220)을 변경함으로써, 주행 환경뿐만 아니라 사용자 특성을 반영하여 사용자의 터치 의도에 부합하는 어플리케이션을 실행할 수 있다.
한편, 터치 습관 정보의 갱신은, 차량(100)의 움직임이 적어 전술한 차량(100)의 움직임에 따른 터치 영역(220)의 변경 동작이 수행되지 않을 때에 수행될 수 있다. 다시 말해, 터치 영역(220)이 차량(100)의 움직임에 따라 변경되는 경우에 터치 습관 정보의 갱신은 이루어지지 않고, 터치 영역(220)이 차량(100)의 움직임에 따라 변경되지 않는 경우에 한해 터치 습관 정보의 갱신이 이루어질 수 있다.
이를 위해, 프로세서(20)는 차량(100)의 움직임에 따른 관성(inertia) 파라미터를 결정하고, 결정된 관성 파라미터가 기준값 미만이면 터치 습관 정보를 갱신할 수 있다.
관성 파라미터는 차량(100)의 움직임을 수치적으로 표현할 수 있는 임의의 파라미터일 수 있다. 예컨대, 관성 파라미터는, 전술한 지도 정보를 통해 식별되거나, 외부 카메라(41), 레이다(42), 라이다(43)를 통해 식별된 도로의 곡률, 도로의 평탄도 등일 수 있고, 가속도 센서(46)에서 측정된 가속도값일 수도 있다.
차량(100) 내부에 관성이 발생하더라도 그 세기가 작은 경우, 디스플레이 모듈(10)에 입력되는 사용자 터치는 사용자에 의해 정밀하게 제어될 수 있다. 이에 따라, 차량(100)의 움직임에 따른 터치 영역(220)의 변경 동작은 관성 파라미터가 기준값 이상인 경우에 수행될 수 있다.
반면에 터치 습관 정보에 따른 터치 영역(220)의 변경 동작은 관성 파라미터가 기준값 이상인지 미만인지 여부에 관계 없이 수행될 수 있다. 다만, 관성 파라미터가 기준값 이상일 때, 터치 영역(220) 밖의 사용자 터치 입력이 차량(100)의 움직임에 의한 것인지, 사용자의 습관에 의한 것인지 구별되기 어려우므로, 터치 습관 정보를 갱신하는 동작은 관성 파라미터가 기준값 미만인 경우에 한해 수행될 수 있다.
한편, 터치 영역(220) 밖에서 사용자 터치가 입력되는 경우 사용자의 의도와는 다른 어플리케이션이 실행될 수 있다. 이 때, 사용자는 어플리케이션의 실행을 취소하게 되는 데, 본 발명은 이러한 사용자의 시행착오를 고려하여 터치 영역(220)의 갱신 동작을 더 수행할 수 있다.
이를 위해, 디스플레이 모듈(10)은 터치 영역(220)을 통해 어플리케이션의 실행을 위한 제1 사용자 터치를 입력받은 후 미리 설정된 시간 이내에 어플리케이션의 실행 취소를 위한 제2 사용자 터치를 입력받을 수 있다. 이 때, 프로세서(20)는 제1 사용자 터치의 좌표에 기초하여 터치 영역(220)을 갱신할 수 있다
이와 같은 갱신 동작을 도 5 및 도 8B를 예로 들어 설명하도록 한다.
먼저, 도 8B를 참조하면, 디스플레이 모듈(10)은 제2 GUI(200b)에 대응하는 터치 영역(미도시)을 통해 전화 어플리케이션의 실행을 위한 제1 사용자 터치(T2)를 입력받을 수 있다. 이에 따라, 프로세서(20)는 제2 GUI(200b)에 대응하는 전화 어플리케이션을 실행할 수 있고, 디스플레이 모듈(10)은 도 5에 도시된 바와 같은 인터페이스를 표시할 수 있다.
이후, 미리 설정된 시간(예컨대, 3초) 이내에 디스플레이 모듈(10)은 전화 어플리케이션의 실행 취소를 위한 제2 사용자 터치를 입력받을 수 있다.
보다 구체적으로, 도 5에 도시된 바와 같이 전화 어플리케이션의 실행에 따른 인터페이스에는 전화 어플리케이션의 실행 취소를 위한 버튼으로서, 뒤로가기 버튼(310)과 종료 버튼(320)이 구비될 수 있다. 디스플레이 모듈(10)은 두 버튼(310, 320) 중 어느 한 버튼을 통해 전화 어플리케이션의 실행 취소를 위한 제2 사용자 터치를 입력받을 수 있다.
즉, 제1 사용자 터치(T2)는 제1 GUI(200a)에 대응하는 영상 재생 어플리케이션을 실행하기 위한 입력이었으나, 사용자의 의도와는 달리 제2 GUI(200b)에 대응하는 전화 어플리케이션이 실행된 상황이 발생하여 사용자는 추가적인 제2 사용자 터치를 통해 전화 어플리케이션의 실행을 취소할 수 있다.
한편, 제2 사용자 터치가 입력되는 GUI(200)(예컨대, 도 5에 도시된 뒤로가기 버튼(310), 종료 버튼(320) 등)에 대해서도 터치 영역(220) 변경 동작이 수행될 수 있음은 당연하다.
이 때, 프로세서(20)는 제1 사용자 터치(T2)의 좌표에 기초하여 터치 영역(220')을 갱신할 수 있다. 이러한 터치 영역(220')의 갱신은 전술한 바와 같이 차량(100)의 움직임에 대응하는 터치 변위량을 갱신함으로써 수행될 수 있고, 터치 습관 정보를 갱신함으로써 수행될 수 있다.
터치 영역(220')이 갱신됨에 따라 도 8B에서 일차적으로 변경된 터치 영역(220')은 우측으로 더 이동할 수 있다.
상술한 바와 같이, 본 발명은 사용자 터치의 시행착오를 고려하여 GUI(200)의 터치 영역(220)을 갱신함으로써, 사용 기간이 길어짐에 따라 변화될 수 있는 사용자 특성과 사용자의 변경으로 인해 변화될 수 있는 사용자 특성 또한 반영하여 사용자 터치 의도에 부합하는 어플리케이션을 실행할 수 있다.
이하에서는, 디스플레이 모듈(10)에 복수의 GUI(200)가 표시될 때 터치 영역(220)의 변경 동작을 구체적으로 설명하도록 한다.
디스플레이 모듈(10)은 복수의 GUI(200)를 표시할 수 있다. 이 때, 프로세서(20)는 전술한 터치 영역(220)의 변경 동작을 복수의 GUI(200) 각각에 대해 수행할 수 있다. 이와 달리, 프로세서(20)는 사용자 동작에 기초하여 복수의 GUI(200) 중 목표 GUI를 결정하고, 목표 GUI에 대응하는 터치 영역(220)만을 선택적으로 변경시킬 수도 있다.
다시 말해, 프로세서(20)는 사용자 동작에 기초하여 사용자가 터치하고자 하는 목표 GUI를 파악하고, 목표 GUI에 대해서만 터치 영역(220)을 변경시킬 수 있다.
이를 위해, 프로세서(20)는 사용자 동작을 식별할 수 있다.
일 예에서, 프로세서(20)는 차량(100)에 구비된 내부 카메라(44)를 통해 촬영된 사용자 동작에 기초하여 목표 GUI를 결정할 수 있다.
차량(100)에는 내부 사용자를 촬영하기 위한 내부 카메라(44)가 구비될 수 있다. 프로세서(20)는 내부 카메라(44)에 의해 촬영된 영상을 분석하여, 터치를 시도하는 사용자의 신체 일부를 오브젝트로 식별하고, 식별된 오브젝트가 근접하는 GUI(200)를 목표 GUI로 결정할 수 있다.
프로세서(20)는 사용자의 신체 일부를 오브젝트로 식별하기 위해, Frame differencing, Optical flow, Background subtraction 등과 같은 테크닉에 의해 수행되는 오브젝트 탐지(Object Detection) 동작과, Shape-based classification, Motion-based classification, Color based classification, Texture based classification 등과 같은 테크닉에 의해 수행되는 오브젝트 분류(Object Classification) 동작을 수행할 수 있다.
또한, 사용자의 신체 일부를 추적하기 위해, Point Tracking, Kernel Tracking, Silhouette 등과 같은 테크닉에 의해 수행되는 오브젝트 추적(Object Tracking) 동작을 수행할 수도 있다.
이 외에도, 사용자 신체 일부를 식별하고 이를 추적하는 방법은 당해 기술분야에서 이용되는 다양한 방법에 따를 수 있다.
다른 예에서, 프로세서(20)는 디스플레이 모듈(10)을 통해 입력되는 호버 터치(hover touch)에 기초하여 목표 GUI를 결정할 수 있다.
디스플레이 모듈(10)에는 패널에 대한 직접적인 접촉 없이도 터치를 감지할 수 있는 호버 터치 패널이 구비될 수 있다. 디스플레이 모듈(10)은 호버 터치 패널을 통해 감지된 호버 터치의 좌표와, 각 GUI(200)의 표시 영역(210)의 좌표를 비교하여 목표 GUI를 결정할 수 있다
보다 구체적으로, 디스플레이 모듈(10)은 호버 터치의 좌표가 어느 GUI(200)의 표시 영역(210)에 포함되는지 판단할 수 있고, 호버 터치의 좌표를 포함하는 표시 영역(210)을 갖는 특정 GUI(200)를 목표 GUI로 결정할 수 있다
목표 GUI가 결정되면, 프로세서(20)는 전술한 터치 영역(220)의 변경 동작을 목표 GUI에 대해서만 수행할 수 있다.
한편, 디스플레이 모듈(10)은 서로 인접 배치되는 제1 GUI(200a) 및 제2 GUI(200b)를 표시하고, 프로세서(20)는 제1 GUI(200a)에 대응하는 터치 영역(220a)을 제2 GUI(200b)의 표시 영역(210b)과 중첩되도록 변경시킬 수 있다.
도 9를 참조하면, 디스플레이 모듈(10)은 좌우로 인접 배치되는 제1 GUI(200a) 및 제2 GUI(200b)를 표시할 수 있다. 프로세서(20)는 제1 GUI(200a)에 대한 터치 영역(220a)을 변경시킬 수 있다. 이 때, 변경된 터치 영역(220a)은 제2 GUI(200b)의 표시 영역(210b)과 일부 중첩될 수 있다.
다시 말해, 제1 GUI(200a)에 대응하는 터치 영역(220a)과 제2 GUI(200b)의 표시 영역(210b)은 중첩될 수 있고, 중첩되는 영역은 이하 중첩 영역(OA)으로 설명된다.
도 9에 도시된 바와 같이 디스플레이 모듈(10)은 중첩 영역(OA)을 통해 사용자 터치(T)를 입력받을 수 있다. 이 때, 프로세서(20)는 제1 GUI(200a)에 대응하는 어플리케이션을 실행할 수 있다.
보다 구체적으로, 제1 GUI(200a)에 대해 변경된 터치 영역(220a)을 통해 사용자 터치가 입력되면, 프로세서(20)는 해당 사용자 터치의 위치 좌표에 관계 없이 제1 GUI(200a)에 대응하는 어플리케이션을 실행할 수 있다.
일 예에서, 프로세서(20)는 제1 GUI(200a) 및 제2 GUI(200b) 각각에 대응하는 터치 영역을 모두 변경시킬 수 있다. 이에 따라, 제1 GUI(200a)에 대한 터치 영역(220a)은, 제2 GUI(200b)의 표시 영역(210b)과 일부 중첩되고 제2 GUI(200b)에 대한 터치 영역(미도시)과는 중첩되지 않을 수 있다.
이 때, 중첩 영역(OA)에 사용자 터치가 입력되면, 프로세서(20)는 사용자 터치가 제1 GUI(200a)에 대한 터치 영역에 포함됨을 식별하고, 제1 GUI(200a)에 대응하는 어플리케이션을 실행할 수 있다.
다른 예에서, 프로세서(20)는 제1 GUI(200a)를 목표 GUI로 결정하고 제1 GUI(200a)에 대한 터치 영역(220a)만을 변경시킬 수 있다. 이에 따라, 제1 GUI(200a)에 대한 터치 영역(220a)은 제2 GUI(200b)의 표시 영역(210b)뿐만 아니라 제2 GUI(200b)에 대한 터치 영역과도 중첩될 수 있다.
이 때, 중첩 영역(OA)에 사용자 터치가 입력되면, 프로세서(20)는 사용자 터치가 제1 GUI(200a) 및 제2 GUI(200b)에 대한 터치 영역에 모두 포함됨을 식별할 수 있다.
사용자 터치가 둘 이상의 GUI(200)에 대한 터치 영역에 포함되는 경우, 프로세서(20)는 목표 GUI에 대응하는 어플리케이션을 실행할 수 있다. 다시 말해, 프로세서(20)는 제1 GUI(200a) 및 제2 GUI(200b) 중 목표 GUI로 결정된 제1 GUI(200a)에 대응하는 어플리케이션을 실행할 수 있다.
한편, 디스플레이 모듈(10)은 제1 GUI(200a)에 대응하는 터치 영역(220a)과 제2 GUI(200b)에 대응하는 터치 영역(220b)에 각각 중첩되는 사용자 터치를 입력받을 수 있다. 이 때, 프로세서(20)는 제1 GUI(200a) 및 제2 GUI(200b) 중 사용자 터치와 더 많이 중첩되는 터치 영역을 갖는 어느 한 GUI에 대응하는 어플리케이션을 실행할 수 있다.
도 10을 참조하면, 제1 GUI(200a)에 대응하는 터치 영역(220a)과 제2 GUI(200b)에 대응하는 터치 영역(220b)은 각각 변경될 수 있다. 이 때, 사용자는 제1 GUI(200a)에 대응하는 터치 영역(220a)과 제2 GUI(200b)에 대응하는 터치 영역(220b)에 각각 중첩되는 사용자 터치를 입력할 수 있다.
프로세서(20)는 제1 GUI(200a)에 대응하는 터치 영역(220a)과 사용자 터치 간의 제1 중첩 영역(OA1)을 식별할 수 있고, 제2 GUI(200b)에 대응하는 터치 영역(220b)과 사용자 터치 간의 제2 중첩 영역(OA2)을 식별할 수 있다. 이어서, 프로세서(20)는 제1 중첩 영역(OA1)과 제2 중첩 영역(OA2)의 넓이를 비교하여 제1 중첩 영역(OA1)이 제2 중첩 영역(OA2)보다 더 넓다는 것을 식별할 수 있다.
이에 따라, 프로세서(20)는 제1 중첩 영역(OA1)을 포함하는 터치 영역(220a)을 갖는 제1 GUI(200a)에 대응하는 어플리케이션을 선택적으로 실행할 수 있다.
한편, 프로세서(20)는 변경된 터치 영역(220)에 따라 GUI(200)의 표시 영역(210)을 변경시킬 수 있다.
도 11을 참조하면, 앞서 설명한 바와 같이 프로세서(20)는 GUI(200)에 대응하는 터치 영역(220)을 변경시킬 수 있다. 이 때, 프로세서(20)는 변경된 터치 영역(220')에 따라 GUI(200)의 표시 영역(210) 또한 변경시킬 수 있다.
예를 들어, 도 4에 도시된 바와 같이 터치 영역(220)이 변경되지 않은 상태에서 표시 영역(210)과 터치 영역(220)의 중심점의 좌표는 동일할 수 있다. 한편, 도 7에 도시된 바와 같이 터치 영역(220')이 변경되는 경우 터치 영역(220')의 중심점의 좌표는 변경될 수 있다.
프로세서(20)는 표시 영역(210)의 중심점이 변경된 터치 영역(220')의 중심점과 동일해지도록 표시 영역(210)을 변경할 수 있고, 디스플레이 모듈(10)은 변경된 표시 영역(210)에 GUI(200)를 표시할 수 있다.
이상에서 설명한 프로세서(20)의 터치 영역(220) 변경 및 갱신 동작은 인공지능(AI)을 기반으로 한 머신 러닝(machine learning)을 통해 수행될 수 있다.
일 예에서, 프로세서(20)는 임의의 머신러닝 알고리즘을 이용하여 사용자 터치의 좌표를 학습하고, 학습된 결과에 따라 터치 영역(220)의 변경 및 갱신 동작을 수행할 수 있다.
다른 예에서, 프로세서(20)는 머신 러닝 서버(미도시)와 연계하여 터치 영역(220)의 변경 및 갱신 동작을 수행할 수 있다. 전술한 바와 같이 프로세서(20)는 메모리(30)를 참조하여 터치 영역(220)의 변경 및 갱신 동작을 수행하는 데, 메모리(30)에 저장된 데이터는 머신 러닝 서버에 의해 갱신될 수 있다. 머신 러닝 서버와의 연계 동작을 위해 본 발명이 적용되는 차량(100)에는 통신 모듈(미도시)이 더 구비될 수 있다.
머신 러닝 서버는 인공 신경망(Artificial Neural Network; ANN) 모델을 이용하여 머신 러닝을 수행할 수 있다. 인공 신경망(ANN)은 시냅스의 결합으로 네트워크를 형성한 인공 뉴런(노드)들로 구성되는, 문제 해결 능력을 가지는 모델 전반을 의미할 수 있다. 인공 신경망은 다른 레이어의 뉴런들 사이의 연결 패턴, 모델 파라미터를 갱신하는 학습 과정, 출력값을 생성하는 활성화 함수(Activation Function)에 의해 정의될 수 있다.
인공 신경망은 입력층(Input Layer), 출력층(Output Layer), 그리고 선택적으로 하나 이상의 은닉층(Hidden Layer)를 포함할 수 있다. 각 층은 하나 이상의 뉴런을 포함하고, 인공 신경망은 뉴런과 뉴런을 연결하는 시냅스를 포함할 수 있다. 인공 신경망에서 각 뉴런은 시냅스를 통해 입력되는 입력 신호들, 가중치, 편향에 대한 활성 함수의 함숫값을 출력할 수 있다.
인공 신경망을 통한 머신 러닝에서, 모델 파라미터는 학습을 통해 결정되는 파라미터를 의미하며, 하이퍼 파라미터는 머신 러닝 알고리즘에서 학습 전에 설정되어야 하는 파라미터를 의미할 수 있다.
통신부는 프로세서(20)에 의해 수집 및 식별된 하이퍼 파라미터(예컨대, 전술한 센싱 정보, 사용자 터치의 좌표, 관성 파라미터 등)를 머신 러닝 서버에 송신할 수 있다. 머신 러닝 서버는 인공 신경망(ANN) 모델을 이용한 머신 러닝을 수행하여 모델 파라미터를 결정하고, 이를 차량(100)에 송신할 수 있다.
여기서, 모델 파라미터는 메모리(30)에 저장되는 파라미터일 수 있다. 예를 들어, 전술한 바와 같이 메모리(30)에는 차량(100)의 움직임에 따른 터치 변위량이 미리 저장될 수 있다. 이 때, 차량의 움직임은 전술한 하이퍼 파라미터에 의해 정의될 수 있으며, 터치 변위량은 모델 파라미터에 의해 결정될 수 있다.
머신 러닝 서버로부터 모델 파라미터가 수신되면, 프로세서(20)는 모델 파라미터에 기초하여 메모리(30)를 갱신할 수 있다. 이에 따라, 본 발명의 메모리(30)는 인공지능(AI)을 기반으로 한 머신 러닝에 의해 지속적으로 갱신될 수 있으며, 프로세서(20)는 지속 갱신되는 메모리(30)를 참조하여 터치 영역(220)의 변경 및 갱신 동작을 수행할 수 있다.
한편, 머신 러닝 서버와의 연계 동작을 위해, 본 발명의 차량(100)은 5G(5th Generation) 네트워크 상에서 데이터 통신을 수행할 수 있으며, 이하에서는 도 12 내지 도 17을 참조하여 5G 네트워크를 통한 데이터 통신 방법을 구체적으로 설명하도록 한다.
도 12는 5G 통신 시스템에서 차량과 5G 네트워크의 기본동작의 일 예를 나타낸 도면 이다.
차량은 하이퍼 파라미터를 5G 네트워크로 전송할 수 있다(S1).
하이퍼 파라미터는, 전술한 전술한 센싱 정보, 사용자 터치의 좌표, 관성 파라미터 등 차량에서 수집 및 식별된 파라미터일 수 있다.
이어서, 5G 네트워크는 하이퍼 파라미터에 기초하여 모델 파라미터를 결정하기 위한 머신 러닝을 수행할 수 있다(S2).
여기서, 5G 네트워크는 전술한 머신 러닝 서버 자체일 수도 있고, 머신 러닝 서버와 연결될 수 있다. 이에 따라, 5G 네트워크는 하이퍼 파라미터에 기초한 머신 러닝 결과인 모델 파라미터를 머신 러닝 서버로 전송할 수 있다(S3).
이하 도 13 내지 도 17을 참조하여, 차량과 5G 네트워크 간의 5G 통신을 위한 필수 과정(예를 들어, 차량과 5G 네트워크 간의 초기 접속 절차 등)을 개략적으로 설명하도록 한다.
도 13은 5G 통신 시스템에서 차량과 5G 네트워크의 응용 동작의 일 예를 나타낸 도면이다.
차량은 5G 네트워크와 초기 접속(initial access) 절차를 수행할 수 있다(S20).
초기 접속 절차는 하향 링크(Downlink, DL) 동작 획득을 위한 셀 서치(cell search), 시스템 정보(system information)를 획득하는 과정 등을 포함할 수 있다.
그리고, 차량은 5G 네트워크와 임의 접속(random access) 절차를 수행할 수 있다(S21).
임의 접속 과정은 상향 링크(Uplink, UL) 동기 획득 또는 UL 데이터 전송을 위해 프리엠블 전송, 임의 접속 응답 수신 과정 등을 포함할 수 있다.
그리고, 5G 네트워크는 하이퍼 파라미터의 전송을 스케쥴링하기 위한 UL grant를 차량으로 전송할 수 있다(S22).
UL Grant 수신은 5G 네트워크로 UL 데이터의 전송을 위해 시간/주파수 자원 스케줄링을 받는 과정을 포함할 수 있다.
그리고, 차량은 UL grant에 기초하여 5G 네트워크로 하이퍼 파라미터를 전송할 수 있다(S23).
그리고, 5G 네트워크는 하이퍼 파라미터에 기초하여 모델 파라미터를 결정하기 위한 머신 러닝 동작을 수행할 수 있다(S24).
그리고, 차량은 5G 네트워크로부터 모델 파라미터를 수신하기 위해 물리 하향 링크 제어 채널을 통해 DL grant를 수신할 수 있다(S25).
그리고, 5G 네트워크는 DL grant에 기초하여 차량으로 모델 파라미터를 전송할 수 있다(S26).
한편, 도 13에서는 차량과 5G 통신의 초기 접속 과정 및 또는 임의 접속 과정 및 하향 링크 그랜트 수신 과정이 결합된 예를 단계(S20) 내지 단계(S26)의 과정을 통해 예시적으로 설명하였지만, 본 발명은 이에 한정되지 않는다.
예를 들어, 단계(S20), 단계(S22), 단계(S23), 단계(S24), 단계(S24) 과정을 통해 초기 접속 과정 및/또는 임의접속 과정을 수행할 수 있다. 또한, 예를 들어 단계(S21), 단계(S22), 단계(S23), 단계(S24), 단계(S26) 과정을 통해 초기접속 과정 및/또는 임의 접속 과정을 수행할 수 있다. 또한 단계(S23), 단계(S24), 단계(S25), 단계(S26)을 통해 AI 동작과 하향 링크 그랜트 수신과정이 결합되는 과정을 수행할 수 있다.
또한, 도 13에서는 차량 동작에 대하여 단계(S20) 내지 단계(S26)을 통해 예시적으로 설명한 것이며, 본 발명은 이에 한정되지 않는다.
예를 들어, 차량 동작은, 단계(S20), 단계(S21), 단계(S22), 단계(S25)가 단계(S23), 단계(S26)과 선택적으로 결합되어 동작할 수 있다. 또한 예를 들어, 차량 동작은, 단계(S21), 단계(S22), 단계(S23), 단계(S26)으로 구성될 수도 있다. 또한 예를 들어, 차량 동작은, 단계(S20), 단계(S21), 단계(S23), 단계(S26)으로 구성될 수 있다. 또한, 예를 들어, 차량 동작은, 단계(S22), 단계(S23), 단계(S25), 단계(S26)으로 구성될 수 있다.
도 14 내지 도 17은 5G 통신을 이용한 차량 동작의 일 예를 나타내는 도면이다.
먼저 도 14를 참고하면, 차량은 DL 동기 및 시스템 정보를 획득하기 위해 SSB(synchronization signal block)에 기초하여 5G 네트워크와 초기 접속 절차를 수행할 수 있다(S30).
그리고, 차량은 UL 동기 획득 및/또는 UL 전송을 위해 5G 네트워크와 임의 접속 절차를 수행할 수 있다(S31).
그리고, 차량은 하이퍼 파라미터를 전송하기 위해 5G 네트워크로 UL grant를 수신할 수 있다(S32).
그리고, 차량은 UL grant에 기초하여 하이퍼 파라미터를 5G 네트워크로 전송할 수 있다(S33).
그리고, 차량은 모델 파라미터를 수신하기 위한 DL grant를 5G 네트워크로부터 수신할 수 있다(S34).
그리고, 차량은 모델 파라미터를 DL grant에 기초하여 5G 네트워크로부터 수신할 수 있다(S35).
단계(S30)에 빔 관리(beam management, BM) 과정이 추가될 수 있으며, S31에 PRACH(physical random access channel) 전송과 관련된 빔 실패 복구(beam failure recovery) 과정이 추가될 수 있으며, 단계(S32)에 UL grant를 포함하는 PDCCH의 빔 수신 방향과 관련하여 QCL 관계 추가될 수 있으며, 단계(S33)에 하이퍼 파라미터를 포함하는 PUCCH (physical uplink control channel)/PUSCH (physical uplink shared channel)의 빔 전송 방향과 관련하여 QCL 관계 추가가 추가될 수 있다. 또한, 단계(S34)에 DL grant를 포함하는 PDCCH의 빔 수신 방향과 관련하여 QCL 관계 추가될 수 있다.
도 15를 참고하면, 차량은 DL 동기 및 시스템 정보를 획득하기 위해 SSB에 기초하여 5G 네트워크와 초기 접속 절차를 수행할 수 있다(S40).
그리고, 차량은 UL 동기 획득 및/또는 UL 전송을 위해 5G 네트워크와 임의 접속 절차를 수행할 수 있다(S41).
그리고, 차량은 설정된 그랜트(configured grant)에 기초하여 하이퍼 파라미터를 5G 네트워크로 전송할 수 있다(S42). 다시 말해, 5G 네트워크로부터 UL grant를 수행하는 과정 대신, 설정된 그랜트(configured grant)에 기초하여 하이퍼 파라미터를 5G 네트워크로 전송할 수도 있다.
그리고, 차량은 모델 파라미터를, 설정된 그랜트에 기초하여 5G 네트워크로부터 수신할 수 있다(S43).
도 16을 참고하면, 차량은 DL 동기 및 시스템 정보를 획득하기 위해 SSB에 기초하여 5G 네트워크와 초기 접속 절차를 수행할 수 있다(S50).
그리고, 차량은 UL 동기 획득 및/또는 UL 전송을 위해 5G 네트워크와 임의 접속 절차를 수행할 수 있다(S51).
그리고, 차량은 5G 네트워크로부터 DownlinkPreemption IE를 수신할 수 있다(S52).
그리고, 차량은 DownlinkPreemption IE에 기초하여 프리엠션 지시를 포함하는 DCI 포맷 2_1을 5G 네트워크로부터 수신할 수 있다(S53).
그리고, 차량은 pre-emption indication에 의해 지시된 자원(PRB 및/또는 OFDM 심볼)에서 eMBB data의 수신을 수행(또는 기대 또는 가정)하지 않을 수 있다(S54).
그리고, 차량은 하이퍼 파라미터를 전송하기 위해 5G 네트워크로 UL grant를 수신할 수 있다(S55).
그리고, 차량은 UL grant에 기초하여 하이퍼 파라미터를 5G 네트워크로 전송할 수 있다(S56).
그리고, 차량은 모델 파라미터를 수신하기 위한 DL grant를 5G 네트워크로부터 수신할 수 있다(S57).
그리고, 차량은 모델 파라미터를 DL grant에 기초하여 5G 네트워크로부터 수신할 수 있다(S58).
도 17을 참고하면, 차량은 DL 동기 및 시스템 정보를 획득하기 위해 SSB에 기초하여 5G 네트워크와 초기 접속 절차를 수행할 수 있다(S60).
그리고, 차량은 UL 동기 획득 및/또는 UL 전송을 위해 5G 네트워크와 임의 접속 절차를 수행할 수 있다(S61).
그리고, 차량은 하이퍼 파라미터를 전송하기 위해 5G 네트워크로 UL grant를 수신할 수 있다(S62).
UL grant는 하이퍼 파라미터의 전송에 대한 반복 횟수에 대한 정보를 포함하고, 하이퍼 파라미터는 반복 횟수에 대한 정보에 기초하여 반복하여 전송될 수 있다(S63).
그리고, 차량은 UL grant에 기초하여 하이퍼 파라미터를 5G 네트워크로 전송할 수 있다.
그리고, 하이퍼 파라미터의 반복 전송은 주파수 호핑을 통해 수행되고, 첫 번째 하이퍼 파라미터의 전송은 제 1 주파수 자원에서, 두 번째 하이퍼 파라미터의 전송은 제 2 주파수 자원에서 전송될 수 있다.
하이퍼 파라미터는 6RB(Resource Block) 또는 1RB(Resource Block)의 협대역(narrowband)을 통해 전송될 수 있다.
그리고, 차량은 모델 파라미터를 수신하기 위한 DL grant를 5G 네트워크로부터 수신할 수 있다(S64).
그리고, 차량은 모델 파라미터를 DL grant에 기초하여 5G 네트워크로부터 수신할 수 있다(S65).
이상에서 설명한 5G 통신 기술은 본 명세서에 기술된 차량의 데이터 통신 방법을 구체화하거나 명확하게 하는데 보충될 수 있다. 다만, 차량의 데이터 통신 방법이 이에 한정되는 것은 아니며, 차량은 당해 기술분야에서 이용되고 있는 다양한 방법을 통해 데이터 통신을 수행할 수 있다.
전술한 본 발명은, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 있어 본 발명의 기술적 사상을 벗어나지 않는 범위 내에서 여러 가지 치환, 변형 및 변경이 가능하므로 전술한 실시예 및 첨부된 도면에 의해 한정되는 것이 아니다.

Claims (17)

  1. 차량 내부에 구비되어 적어도 하나의 GUI(Graphical User Interface)를 표시하는 디스플레이; 및
    상기 차량의 움직임을 식별하고, 상기 차량의 움직임에 기반하여 상기 표시된 적어도 하나의 GUI 상에 사용자 터치를 식별하는 제1 영역을 상기 디스플레이 내의 제2 영역으로 변경시키는 프로세서를 포함하는
    차량용 표시 장치.
  2. 제1항에 있어서,
    상기 프로세서는,
    상기 사용자 터치에 기반하여 선택된 GUI에 대응하는 어플리케이션을 실행하는
    차량용 표시 장치.
  3. 제1항에 있어서,
    상기 프로세서는
    지도 정보 및 센싱 정보를 수집하고,
    상기 수집된 지도 정보 및 상기 수집된 센싱 정보 중 적어도 하나를 이용하여 상기 차량의 움직임을 결정하며,
    상기 지도 정보는 상기 차량에 대응하는 도로의 곡률 및 평탄에 대한 정보를 포함하는
    차량용 표시 장치.
  4. 제1항에 있어서,
    상기 프로세서는
    상기 차량용 표시 장치의 메모리를 참조하여 상기 차량의 움직임에 대응하는 터치 변위량을 식별하고,
    상기 식별된 터치 변위량에 기초하여 상기 제1 영역을 상기 제2 영역으로 변경시키는
    차량용 표시 장치.
  5. 제4항에 있어서,
    상기 프로세서는
    상기 차량 내 시트에 구비된 감압 센서를 통해 식별된 사용자 체중에 따라 상기 터치 변위량을 보정하는
    차량용 표시 장치.
  6. 제1항에 있어서,
    상기 프로세서는,
    상기 디스플레이 내의 상기 제2 영역 외의 영역을 통해 사용자 터치를 수신하고,
    상기 수신된 사용자 터치의 좌표에 기초하여 상기 차량의 움직임에 대응하는 터치 변위량을 갱신하는
    차량용 표시 장치.
  7. 제1항에 있어서,
    상기 프로세서는,
    상기 차량용 표시 장치의 메모리를 참조하여 상기 GUI에 대응하는 터치 습관 정보를 식별하고,
    상기 식별된 터치 습관 정보에 따라 상기 GUI에 대응하는 제1 영역을 상기 제2 영역으로 변경시키는
    차량용 표시 장치.
  8. 제7항에 있어서,
    상기 프로세서는,
    상기 제2 영역 외의 영역을 통해 사용자 터치를 수신하고,
    상기 수신된 사용자 터치의 좌표에 기초하여 상기 터치 습관 정보를 갱신하는
    차량용 표시 장치.
  9. 제7항에 있어서,
    상기 프로세서는,
    상기 차량의 움직임에 따른 관성(inertia) 파라미터 값을 결정하고,
    상기 결정된 관성 파라미터 값이 기준값 미만이면 상기 터치 습관 정보를 갱신하는
    차량용 표시 장치.
  10. 제1항에 있어서,
    상기 프로세서는,
    서로 인접 배치되는 제1 GUI 및 제2 GUI를 상기 디스플레이 상에 표시하고,
    상기 표시된 제1 GUI 상에 사용자 터치를 식별하는 터치 영역을 상기 제2 GUI를 표시하는 표시 영역과 중첩되도록 상기 디스플레이를 제어하는
    차량용 표시 장치.
  11. 제10항에 있어서,
    상기 프로세서는,
    상기 표시된 제1 GUI 상의 사용자 터치를 식별하는 터치 영역과 상기 제2 GUI를 표시하는 표시 영역 간의 중첩 영역에서 사용자 터치를 표시부를 통해 수신하고,
    상기 중첩 영역에서 상기 사용자 터치의 수신에 기반하여, 상기 제1 GUI에 대응하는 어플리케이션을 실행하는
    차량용 표시 장치.
  12. 제1항에 있어서,
    상기 프로세서는
    상기 표시된 적어도 하나의 GUI 중에서 목표 GUI를 선택하는 사용자 동작을 식별하고,
    상기 식별된 사용자 동작에 기초하여 상기 목표 GUI에 대응하는 터치 영역을 변경시키는
    차량용 표시 장치.
  13. 제12항에 있어서,
    상기 프로세서는,
    상기 차량에 구비된 내부 카메라를 통해 촬영된 상기 사용자 동작에 기초하여 상기 목표 GUI를 결정하는
    차량용 표시 장치.
  14. 제12항에 있어서,
    상기 프로세서는
    상기 디스플레이를 통해 입력되는 호버링(hovering)에 기초하여 상기 목표 GUI를 결정하는
    차량용 표시 장치.
  15. 제1항에 있어서,
    상기 프로세서는,
    상기 제1 영역을 통해 어플리케이션의 실행을 위한 제1 사용자 터치를 수신하고,
    미리 설정된 시간 이내에 상기 어플리케이션의 실행 취소를 위한 제2 사용자 터치를 수신하고,
    상기 제1 사용자 터치의 좌표에 기초하여 상기 제1 영역을 갱신하는
    차량용 표시 장치.
  16. 제1항에 있어서,
    상기 프로세서는,
    제1 GUI에 대응하는 터치 영역과 제2 GUI에 대응하는 터치 영역이 중첩되는 제3 영역 상의 사용자 터치를 수신하고,
    상기 제1 GUI 및 제2 GUI 중에서 상기 사용자 터치에 의해 더 많이 중첩되는 터치 영역을 갖는 어느 한 GUI에 대응하는 어플리케이션을 실행하는
    차량용 표시 장치.
  17. 제1항에 있어서,
    상기 프로세서는
    상기 제2 영역에 따라 상기 GUI의 표시 영역을 변경시키는
    차량용 표시 장치.
KR1020190089174A 2019-07-23 2019-07-23 차량용 표시 장치 KR102297202B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020190089174A KR102297202B1 (ko) 2019-07-23 2019-07-23 차량용 표시 장치
US16/557,923 US10871856B2 (en) 2019-07-23 2019-08-30 Display device for vehicle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190089174A KR102297202B1 (ko) 2019-07-23 2019-07-23 차량용 표시 장치

Publications (2)

Publication Number Publication Date
KR20210011816A KR20210011816A (ko) 2021-02-02
KR102297202B1 true KR102297202B1 (ko) 2021-09-01

Family

ID=68839936

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190089174A KR102297202B1 (ko) 2019-07-23 2019-07-23 차량용 표시 장치

Country Status (2)

Country Link
US (1) US10871856B2 (ko)
KR (1) KR102297202B1 (ko)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6497424B2 (ja) * 2017-09-20 2019-04-10 マツダ株式会社 車両の車室内構造
KR102297202B1 (ko) * 2019-07-23 2021-09-01 엘지전자 주식회사 차량용 표시 장치
USD985615S1 (en) 2021-08-23 2023-05-09 Waymo Llc Display screen or portion thereof with graphical user interface
USD1016843S1 (en) * 2022-03-23 2024-03-05 Ferrari S.P.A. Display screen with a graphical user interface
WO2024038485A1 (ja) * 2022-08-15 2024-02-22 日産自動車株式会社 車両用入力装置及び車両用入力方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011081796A (ja) * 2009-10-05 2011-04-21 Tesla Motors Inc 車両ユーザインターフェース用の適応型ソフトボタン
JP2015000662A (ja) * 2013-06-17 2015-01-05 富士重工業株式会社 車両用表示装置
JP6527605B2 (ja) * 2016-02-12 2019-06-05 マクセル株式会社 車両用映像表示装置

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7019632B2 (en) * 2001-08-13 2006-03-28 George Stuart Cole Vehicle braking signal system with varying area display
JP4300818B2 (ja) * 2002-11-25 2009-07-22 日産自動車株式会社 車載表示装置および携帯表示装置
DE112009002612B4 (de) * 2008-12-04 2015-07-23 Mitsubishi Electric Corporation Anzeige-Eingabevorrichtung, Navigationssystem mit einer Anzeige-Eingabevorrichtung sowie Fahrzeuginformationssystem mit einer Anzeige-Eingabevorrichtung
US8362973B2 (en) * 2009-05-19 2013-01-29 Honeywell International Inc. Systems, apparatus and fast methods for aligning images to external markers in near-to-eye display systems
JP5269024B2 (ja) * 2010-09-29 2013-08-21 株式会社日立製作所 路面状況推定装置および路面状況推定方法
US10146329B2 (en) * 2011-02-25 2018-12-04 Nokia Technologies Oy Method and apparatus for providing different user interface effects for different motion gestures and motion properties
KR101326259B1 (ko) * 2012-03-02 2013-11-11 주식회사 이엑스크리에이티브 동작 감지 조명을 이용한 광고 시스템
US10592916B1 (en) * 2012-09-12 2020-03-17 Delorean, Llc Vehicle-mounted, motion-controlled sign
KR20140076057A (ko) * 2012-12-12 2014-06-20 한국전자통신연구원 다중 센서 기반 모션 입력 장치 및 방법
JP6143982B2 (ja) * 2015-02-06 2017-06-07 三菱電機株式会社 車載機器操作装置および車載機器操作システム
US20160266782A1 (en) * 2015-03-11 2016-09-15 Atieva, Inc. Positionable User Interface for Vehicular Use
US20160266778A1 (en) * 2015-03-11 2016-09-15 Atieva, Inc. Positionable User Interface for Vehicular Use
KR101691800B1 (ko) * 2015-06-17 2017-01-09 엘지전자 주식회사 차량용 디스플레이 제어 장치 및 그 동작 방법
US20190005610A1 (en) * 2017-06-28 2019-01-03 The Boeing Company Motion-adapting displays within vehicles
KR102333631B1 (ko) * 2017-07-21 2021-12-01 현대자동차주식회사 스티어링 휠, 이를 포함하는 차량, 및 차량의 제어방법
US11314399B2 (en) * 2017-10-21 2022-04-26 Eyecam, Inc. Adaptive graphic user interfacing system
KR102297202B1 (ko) * 2019-07-23 2021-09-01 엘지전자 주식회사 차량용 표시 장치

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011081796A (ja) * 2009-10-05 2011-04-21 Tesla Motors Inc 車両ユーザインターフェース用の適応型ソフトボタン
JP2015000662A (ja) * 2013-06-17 2015-01-05 富士重工業株式会社 車両用表示装置
JP6527605B2 (ja) * 2016-02-12 2019-06-05 マクセル株式会社 車両用映像表示装置

Also Published As

Publication number Publication date
US20190384480A1 (en) 2019-12-19
US10871856B2 (en) 2020-12-22
KR20210011816A (ko) 2021-02-02

Similar Documents

Publication Publication Date Title
KR102297202B1 (ko) 차량용 표시 장치
US20210104064A1 (en) System, apparatus and method for indoor positioning
US11511598B2 (en) Apparatus and method for controlling air conditioning of vehicle
CN110967011B (zh) 一种定位方法、装置、设备及存储介质
US11899457B1 (en) Augmenting autonomous driving with remote viewer recommendation
CN108803604A (zh) 车辆自动驾驶方法、装置以及计算机可读存储介质
CN109475079A (zh) 触觉驾驶引导***
EP4361771A1 (en) Gesture recognition method and apparatus, system, and vehicle
CN111784748B (zh) 目标跟踪方法、装置、电子设备及移动载具
US10431023B1 (en) Systems and methods to test an autonomous vehicle
CN112307642B (zh) 数据处理方法、装置、***、计算机设备及存储介质
CN105027175B (zh) 基于各设备之间的距离修改功能的方法和设备
KR102399130B1 (ko) 차량의 주행 환경 인식 장치, 방법 및 시스템
KR20210052634A (ko) 운전자의 부주의를 판단하는 인공 지능 장치 및 그 방법
CN109213363B (zh) 预测指示器触摸位置或确定3d空间中指向的***和方法
KR20190106862A (ko) 인공지능 장치 및 그를 이용한 IoT 기기의 도난 감지 및 탐색 방법
EP3753688A1 (en) Mobile robot device and method for providing service to user
CN110371018A (zh) 使用其他车辆车灯的信息改善车辆行为
CN110378246A (zh) 地面检测方法、装置、计算机可读存储介质及电子设备
CN104890570B (zh) 佩戴式车辆信息指示器以及使用其指示车辆信息的方法
CN111107310B (zh) 照相机参数估计装置、照相机参数估计方法
US11604908B2 (en) Hardware in loop testing and generation of latency profiles for use in simulation
CN115257768A (zh) 一种智能驾驶车辆环境感知方法、***、设备及介质
TW202102959A (zh) 用於合併關於自動化機器人之單原點的不連續地圖及路線數據之系統及方法
US20200401151A1 (en) Device motion control

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant