KR20200068089A - 차량용 증강현실 디스플레이를 위한 직관적 상호작용 방법 및 시스템 - Google Patents

차량용 증강현실 디스플레이를 위한 직관적 상호작용 방법 및 시스템 Download PDF

Info

Publication number
KR20200068089A
KR20200068089A KR1020180149324A KR20180149324A KR20200068089A KR 20200068089 A KR20200068089 A KR 20200068089A KR 1020180149324 A KR1020180149324 A KR 1020180149324A KR 20180149324 A KR20180149324 A KR 20180149324A KR 20200068089 A KR20200068089 A KR 20200068089A
Authority
KR
South Korea
Prior art keywords
vehicle
touch pad
driver
display
touch
Prior art date
Application number
KR1020180149324A
Other languages
English (en)
Inventor
신춘성
강훈종
홍성희
홍지수
김영민
Original Assignee
전자부품연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 전자부품연구원 filed Critical 전자부품연구원
Priority to PCT/KR2018/014824 priority Critical patent/WO2020111308A1/ko
Priority to KR1020180149324A priority patent/KR20200068089A/ko
Publication of KR20200068089A publication Critical patent/KR20200068089A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/10Input arrangements, i.e. from user to vehicle, associated with vehicle functions or specially adapted therefor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/60Instruments characterised by their location or relative disposition in or on vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/80Arrangements for controlling instruments
    • B60K35/81Arrangements for controlling instruments for controlling displays
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03547Touch pads, in which fingers can move on a surface
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • B60K2370/11
    • B60K2370/1438
    • B60K2370/52
    • B60K2370/782

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Human Computer Interaction (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

운전대와 기어 주변에 터치패드를 부착하여 운전 중에 빠르고 정확하게 차량용 AR 디스플레이를 제어를 가능하게 하는 직관적 상호작용 방법 및 시스템이 제공된다. 본 발명의 실시예에 따른 차량용 HMI 시스템은 차량의 제1 영역에 마련된 제1 터치 패드; 차량의 제2 영역에 마련된 제2 터치 패드; 및 제1 터치 패드를 통해 입력된 제1 운전자 조작 및 제2 터치 패드를 통해 입력된 제2 운전자 조작 중 적어도 하나를 기초로, 운전자 명령을 인식하여 처리하는 제어부;를 포함한다.
이에 의해, 운전중에 손가락을 이용해 차량 AR 디스플레이의 서비스 제어가 가능하여, 차량 AR 디스플레이 내의 다양한 응용 서비스를 간편하게 실행하고 조작할 수 있게 된다.

Description

차량용 증강현실 디스플레이를 위한 직관적 상호작용 방법 및 시스템{Intuitive Interaction Method and System for Automotive AR Display}
본 발명은 HMI(Human Machine Interface) 관련 기술에 관한 것으로, 더욱 상세하게는 차량용 증강현실 디스플레이를 위한 직관적 상호작용 방법 및 시스템에 관한 것이다.
현재 차량 디스플레이를 위한 상호작용은 도 1에 나타난 바와 같이 차량에 장착된 버튼이 가장 일반적이다. 최근 적외선 카메라 기반 공간 제스쳐를 바탕으로 한 HMI도 등장하였다.
하지만, 이들로 인해 새로운 형태의 증강현실 환경에서 컨텐츠를 구동하고 제어하는 것은 많이 제한적이다.
버튼 방식의 경우 운전자가 운전중에 해당 버튼을 찾고 눌러야하기에 운전에 방해가 될 수 있다. 또한 디스플레이에 증강된 다양한 기능과 서비스를 제어하기에는 한계가 있다.
공간 제스쳐의 경우 실외 환경에서의 적외선 간섭과 빈번한 에러로 인해 차량에 적용이 어려운 실정이다.
이에 따라, 보다 자연스럽고 직관적으로 AR(Augmented Reality : 증강현실) 디스플레이 및 컨텐츠를 제어하기 위한 방법이 필요하다.
본 발명은 상기와 같은 문제점을 해결하기 위하여 안출된 것으로서, 본 발명의 목적은, 운전대와 기어 주변에 터치패드를 부착하여 운전 중에 빠르고 정확하게 차량용 AR 디스플레이를 제어를 가능하게 하는 직관적 상호작용 방법 및 시스템을 제공함에 있다.
상기 목적을 달성하기 위한 본 발명의 일 실시예에 따른, 차량용 HMI 시스템은 차량의 제1 영역에 마련된 제1 터치 패드; 차량의 제2 영역에 마련된 제2 터치 패드; 및 제1 터치 패드를 통해 입력된 제1 운전자 조작 및 제2 터치 패드를 통해 입력된 제2 운전자 조작 중 적어도 하나를 기초로, 운전자 명령을 인식하여 처리하는 제어부;를 포함한다.
제1 터치 패드는, 운전대에 설치되어 있을 수 있다.
제1 터치 패드는, 다수의 터치 패드를 포함할 수 있다.
다수의 터치 패드는, 운전자가 운전대를 잡은 상태로 엄지 손가락을 이용하여 터치 조작할 수 있는 위치에 설치되어 있는 것일 수 있다.
제2 터치 패드는, 기어 박스 주변에 설치되어 있는 것일 수 있다.
제어부는, 운전자 명령 실행 결과를 증강현실로 디스플레이에 표시하는 것일 수 있다.
증강현실 디스플레이는, 차량의 전방 글래스일 수 있다.
한편, 본 발명의 다른 실시예에 따른, 차량용 HMI 방법은 차량의 제1 영역에 마련된 제1 터치 패드를 통해, 제1 운전자 조작을 입력 받는 단계; 차량의 제2 영역에 마련된 제2 터치 패드를 통해, 제2 운전자 조작을 입력 받는 단계; 입력된 제1 운전자 조작 및 제2 터치 패드를 통해 입력된 제2 운전자 조작 중 적어도 하나를 기초로, 운전자 명령을 인식하는 단계; 및 인식된 운전자 명령을 처리하는 단계;를 포함한다.
이상 설명한 바와 같이, 본 발명의 실시예들에 따르면, 운전중에 손가락을 이용해 차량 AR 디스플레이의 서비스 제어가 가능하여, 차량 AR 디스플레이 내의 다양한 응용 서비스를 간편하게 실행하고 조작할 수 있게 된다.
도 1은 종래의 버튼 기반 HMI 시스템을 예시한 도면,
도 2는 본 발명의 일 실시예에 따른 차량용 HMI 시스템의 개념 설명에 제공되는 도면,
도 3은 본 발명의 일 실시예에 따른 차량용 HMI 시스템의 내부 블럭도,
도 4는 본 발명의 다른 실시예에 차량용 HMI 방법의 설명에 제공되는 흐름도,
도 5는 본 발명의 다른 실시예에 따른 차량용 HMI 방법의 부연 설명에 제공되는 도면이다.
이하에서는 도면을 참조하여 본 발명을 보다 상세하게 설명한다.
도 2는 본 발명의 일 실시예에 따른 차량용 AR 디스플레이를 위한 직관적 상호작용이 가능한 HMI(Human Machine Interface) 시스템의 개념 설명에 제공되는 도면이다.
기존 차량용 MHI 시스템은 디스플레이 화면 터치를 이용하는 방식이 이용되엇다. 하지만, 최근 차량의 전방 글래스를 투명 디스플레이로 기능하게 하고 AR(Augmented Reality) 컨텐츠를 제공하고 있는 상황에서, 기존 방식은 적용할 수 없다.
공간 제스처 인식에 의한 HMI는 실외 환경에서 공간 제스쳐의 경우 적외선 간섭과 빈번한 에러로 운전자 제스쳐 인식에 오류가 많다.
이에 따라, 본 발명의 실시예에서는, 운전대에 터치 패드들(110, 120)을 구비시키고, 기어 박스 주변에도 터치 패드(130)를 구비시켜, 운전 중에 빠르고 정확하게 운전자 제스처를 통한 명령 입력을 가능하게 한다.
운전대 터치 패드-1(110)은 운전자가 운전대를 잡은 상태로 왼손의 엄지 손가락을 이용하여 터치 조작할 수 있는 위치에 설치되어 있고, 운전대 터치 패드-2(120)는 운전자가 운전대를 잡은 상태로 오른손의 엄지 손가락을 이용하여 터치 조작할 수 있는 위치에 설치되어 있다.
운전대 터치 패드-1(110)과 운전대 터치 패드-2(120)는 운전중인 운전자가 빠르고 간편하게 간단한 조작을 입력하기 위해 사용된다. 이를 테면, 하이라이트의 상하좌우 이동 및 선택과 같은 간단한 조작에 이용된다.
기어 박스 주변에 설치된 콘솔 터치 패드(130)는 운전자는 물론 동승자가 손가락으로 제스처를 통해 명령을 입력하기 위한 것으로, 운전대 터치 패드들(110, 120)과 달리 필기 방식의 문자 입력과 멀티 터치 입력도 가능하다.
터치 패드들(110, 120, 130)을 통한 제스처 인식은 외부 간섭과 에러가 적어, 인식 오류를 최소화할 수 있다.
그리고, 차량의 전방 글래스는 AR 디스플레이(160)로 기능할 수 있어, 운전자 명령에 대한 인식/처리 결과는 AR 디스플레이(160)와 스피커(170)를 통해 피드백할 수 있다.
특히, AR 디스플레이(160)는 HUD(Head-Up Display)와 같은 방식으로 운전자 피드백이 가능하다.
도 3은 본 발명의 일 실시예에 따른 차량용 AR 디스플레이를 위한 직관적 상호작용이 가능한 HMI 시스템의 내부 블럭도이다.
본 발명의 실시예에 따른 차량용 HMI 시스템은, 도 3에 도시된 바와 같이, 운전대 터치패드-1(110), 운전대 터치패드-2(120), 콘솔 터치패드(130), 제어부(140), 차량 네트워크 인터페이스(150), AR 디스플레이(160) 및 스피커(170)를 포함한다.
운전대 터치패드-1(110), 운전대 터치패드-2(120) 및 콘솔 터치패드(130)는 운전자의 터치 조작을 입력받기 위한 수단으로, 이들에 대해서는 상세히 전술한 바 있으므로, 상세한 설명은 생략한다.
제어부(140)는 터치패드들(110, 120, 130)을 통해 입력되는 운전자 조작으로부터 운전자 명령을 인식하고, 인식된 명령을 처리하며, 처리 결과를 AR 디스플레이(160)와 스피커(170)를 통해 피드백한다.
명령 처리를 위해 차량/운행 정보가 필요한 경우, 제어부(140)는 차량 네트워크 인터페이스(150)를 통해 해당 정보를 수신한다. 그리고, 명령 처리를 위해 차량 제어가 필요한 경우, 제어부(140)는 차량 네트워크 인터페이스(150)를 통해 차량 네트워크 측에 제어 요청을 전송한다.
도 4는 본 발명의 다른 실시예에 따른 차량용 AR 디스플레이를 위한 직관적 상호작용이 가능한 HMI 방법의 설명에 제공되는 흐름도이다.
도 4에 도시된 바와 같이, 터치패드들(110, 120, 130)을 통해 운전자 조작이 입력되면(S210-Y), 제어부(140)는 입력된 조작으로부터 운전자 명령을 인식한다(S220).
그리고, 제어부(140)는 S220단계에서 인식된 운전자 명령을 처리하고(S230), 처리 결과를 AR 디스플레이(160)와 스피커(170)를 통해 피드백한다(S240). 명령 처리를 위해, 제어부(140)는 차량 네트워크 인터페이스(150)를 통해 차량 네트워크 측과 연동할 수 있다.
도 5는 본 발명의 다른 실시예에 따른 차량용 AR 디스플레이를 위한 직관적 상호작용이 가능한 HMI 방법의 부연 설명에 제공되는 도면이다.
도 5에 도시된 바와 같이, 운전대에 설치된 운전대 터치 패드들(110,120)와 기어 박스 주변에 설치된 콘솔 터치 패드(130)를 통해 운전자로부터 터치/제스처 조작이 입력된다(S310, S320, S330).
그리고, 마이크를 통해 사용자의 발화에 의한 음성이 입력될 수도 있다(S340, S350).
입력된 터치/제스처와 음성을 분석하여 운전자 명령을 인식한다(S360), 다음, 인식된 운전자 명령을 처리하는데, 이는 차량/운행 정보를 참조로 수행될 수 있다.(S370, S380).
다음, 운전자 명령 처리 결과가 AR 디스플레이(160)와 스피커(170)를 통해 피드백 된다(S390, S400).
지금까지, 차량용 증강현실 디스플레이를 위한 직관적 상호작용 방법 및 시스템에 대해 바람직한 실시예를 들어 상세히 설명하였다.
위 실시예에서는, 운전대와 기어 박스 주변에 터치 패드를 부착하여 운전중에 운전자가 보다 빠르고 정확하게 AR 디스플레이 제어, 설정 등을 가능하도록 하였다.
운전대 설치된 2개의 터치 센서는 운전자의 엄지 손가락을 바탕으로 제스쳐를 인식하여 화면을 제어하고, 기어 박스 주변에 설치되는 터치 센서는 상세한 조작을 통한 다양한 제스쳐를 가능하게 한다.
위 실시예에 따라, 운전중에 손가락을 이용해 차량 AR 디스플레이의 서비스 제어가 가능하고, 차량용 AR 디스플레이 내의 다양한 응용 서비스를 간편하게 실행하고 조절할 수 있으며, 손가락 제스쳐를 바탕으로 미리 정의된 응용을 실행할 수 있게 된다.
한편, 본 실시예에 따른 장치와 방법의 기능을 수행하게 하는 컴퓨터 프로그램을 수록한 컴퓨터로 읽을 수 있는 기록매체에도 본 발명의 기술적 사상이 적용될 수 있음은 물론이다. 또한, 본 발명의 다양한 실시예에 따른 기술적 사상은 컴퓨터로 읽을 수 있는 기록매체에 기록된 컴퓨터로 읽을 수 있는 코드 형태로 구현될 수도 있다. 컴퓨터로 읽을 수 있는 기록매체는 컴퓨터에 의해 읽을 수 있고 데이터를 저장할 수 있는 어떤 데이터 저장 장치이더라도 가능하다. 예를 들어, 컴퓨터로 읽을 수 있는 기록매체는 ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광디스크, 하드 디스크 드라이브, 등이 될 수 있음은 물론이다. 또한, 컴퓨터로 읽을 수 있는 기록매체에 저장된 컴퓨터로 읽을 수 있는 코드 또는 프로그램은 컴퓨터간에 연결된 네트워크를 통해 전송될 수도 있다.
또한, 이상에서는 본 발명의 바람직한 실시예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어져서는 안될 것이다.
110, 120, : 운전대 터치패드
130 : 콘솔 터치패드
160 : AR(Augmented Reality) 디스플레이
170 : 스피커

Claims (8)

  1. 차량의 제1 영역에 마련된 제1 터치 패드;
    차량의 제2 영역에 마련된 제2 터치 패드; 및
    제1 터치 패드를 통해 입력된 제1 운전자 조작 및 제2 터치 패드를 통해 입력된 제2 운전자 조작 중 적어도 하나를 기초로, 운전자 명령을 인식하여 처리하는 제어부;를 포함하는 것을 특징으로 하는 차량용 HMI 시스템.
  2. 청구항 1에 있어서,
    제1 터치 패드는,
    운전대에 설치되어 있는 것을 특징으로 하는 차량용 HMI 시스템.
  3. 청구항 2에 있어서,
    제1 터치 패드는,
    다수의 터치 패드를 포함하는 것을 특징으로 하는 차량용 HMI 시스템.
  4. 청구항 3에 있어서,
    다수의 터치 패드는,
    운전자가 운전대를 잡은 상태로 엄지 손가락을 이용하여 터치 조작할 수 있는 위치에 설치되어 있는 것을 특징으로 하는 차량용 HMI 시스템.
  5. 청구항 1에 있어서,
    제2 터치 패드는,
    기어 박스 주변에 설치되어 있는 것을 특징으로 하는 차량용 HMI 시스템.
  6. 청구항 1에 있어서,
    제어부는,
    운전자 명령 실행 결과를 증강현실로 디스플레이에 표시하는 것을 특징으로 하는 차량용 HMI 시스템.
  7. 청구항 6에 있어서,
    증강현실 디스플레이는,
    차량의 전방 글래스인 것을 특징으로 하는 차량용 HMI 시스템.
  8. 차량의 제1 영역에 마련된 제1 터치 패드를 통해, 제1 운전자 조작을 입력 받는 단계;
    차량의 제2 영역에 마련된 제2 터치 패드를 통해, 제2 운전자 조작을 입력 받는 단계;
    입력된 제1 운전자 조작 및 제2 터치 패드를 통해 입력된 제2 운전자 조작 중 적어도 하나를 기초로, 운전자 명령을 인식하는 단계;
    인식된 운전자 명령을 처리하는 단계;를 포함하는 것을 특징으로 하는 차량용 HMI 방법.
KR1020180149324A 2018-11-28 2018-11-28 차량용 증강현실 디스플레이를 위한 직관적 상호작용 방법 및 시스템 KR20200068089A (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
PCT/KR2018/014824 WO2020111308A1 (ko) 2018-11-28 2018-11-28 차량용 증강현실 디스플레이를 위한 직관적 상호작용 방법 및 시스템
KR1020180149324A KR20200068089A (ko) 2018-11-28 2018-11-28 차량용 증강현실 디스플레이를 위한 직관적 상호작용 방법 및 시스템

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180149324A KR20200068089A (ko) 2018-11-28 2018-11-28 차량용 증강현실 디스플레이를 위한 직관적 상호작용 방법 및 시스템

Publications (1)

Publication Number Publication Date
KR20200068089A true KR20200068089A (ko) 2020-06-15

Family

ID=70853318

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180149324A KR20200068089A (ko) 2018-11-28 2018-11-28 차량용 증강현실 디스플레이를 위한 직관적 상호작용 방법 및 시스템

Country Status (2)

Country Link
KR (1) KR20200068089A (ko)
WO (1) WO2020111308A1 (ko)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102021207639A1 (de) 2021-07-16 2023-01-19 Volkswagen Aktiengesellschaft Verfahren zum Betreiben eines Kraftfahrzeugs sowie Kraftfahrzeug

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7126583B1 (en) * 1999-12-15 2006-10-24 Automotive Technologies International, Inc. Interactive vehicle display system
US8535133B2 (en) * 2009-11-16 2013-09-17 Broadcom Corporation Video game with controller sensing player inappropriate activity
JP5452566B2 (ja) * 2011-10-31 2014-03-26 本田技研工業株式会社 車両用入力装置
KR20150062317A (ko) * 2013-11-29 2015-06-08 현대모비스 주식회사 자동차의 통합 멀티미디어 장치
KR101561917B1 (ko) * 2014-04-10 2015-11-20 엘지전자 주식회사 차량 제어 장치 및 그 제어 방법

Also Published As

Publication number Publication date
WO2020111308A1 (ko) 2020-06-04

Similar Documents

Publication Publication Date Title
US8704778B2 (en) Display apparatus, display method and program
US9355546B2 (en) Method and apparatus for analyzing concentration level of driver
KR101341737B1 (ko) 후면 터치를 이용한 단말 제어 장치 및 방법
US9639186B2 (en) Multi-touch interface gestures for keyboard and/or mouse inputs
US20220382505A1 (en) Method, apparatus, and computer-readable medium for desktop sharing over a web socket connection in a networked collaboration workspace
US20110169750A1 (en) Multi-touchpad multi-touch user interface
US10627913B2 (en) Method for the contactless shifting of visual information
US20110239156A1 (en) Touch-sensitive electric apparatus and window operation method thereof
JP2014186361A (ja) 情報処理装置、操作制御方法及びプログラム
CN105786172A (zh) 使用相关联的感觉反馈进行跟踪的***和方法
US20170047065A1 (en) Voice-controllable image display device and voice control method for image display device
CN109144304A (zh) 至少一个显示窗口布局调整及触控自动校准方法及***
US9600094B2 (en) Apparatus, method, and program product for directing motion of a writing device
US20200004416A1 (en) Virtual Keyboard Animation
US20140281964A1 (en) Method and system for presenting guidance of gesture input on a touch pad
WO2019033655A1 (zh) 一种防误触的方法、装置、设备及存储介质
US20190272090A1 (en) Multi-touch based drawing input method and apparatus
JP2015043209A (ja) ヘッドマウント装置を介する表示方法
KR101095667B1 (ko) 독립적인 터치입력이 가능한 보조터치모니터 시스템 및 보조터치모니터의 독립적인 터치 입력 방법
US10380038B2 (en) Method, apparatus, and computer-readable medium for implementation of a universal hardware-software interface
KR20200068089A (ko) 차량용 증강현실 디스플레이를 위한 직관적 상호작용 방법 및 시스템
CN113419662A (zh) 辅助触摸设备呈现书写轨迹的方法、装置、配件及终端
CN109697042A (zh) 多信号源调度方法、装置、设备及计算机可读存储介质
US20180181218A1 (en) Stylus and operation method thereof
CN110908568B (zh) 一种虚拟对象的控制方法和装置

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
AMND Amendment
X601 Decision of rejection after re-examination