CN111261153B - 车辆语音命令处理装置和方法 - Google Patents

车辆语音命令处理装置和方法 Download PDF

Info

Publication number
CN111261153B
CN111261153B CN201910541931.5A CN201910541931A CN111261153B CN 111261153 B CN111261153 B CN 111261153B CN 201910541931 A CN201910541931 A CN 201910541931A CN 111261153 B CN111261153 B CN 111261153B
Authority
CN
China
Prior art keywords
command
touch
screen
voice
voice command
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910541931.5A
Other languages
English (en)
Other versions
CN111261153A (zh
Inventor
李承辛
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hyundai Motor Co
Kia Corp
Original Assignee
Hyundai Motor Co
Kia Motors Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hyundai Motor Co, Kia Motors Corp filed Critical Hyundai Motor Co
Publication of CN111261153A publication Critical patent/CN111261153A/zh
Application granted granted Critical
Publication of CN111261153B publication Critical patent/CN111261153B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/10Input arrangements, i.e. from user to vehicle, associated with vehicle functions or specially adapted therefor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R16/00Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for
    • B60R16/02Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements
    • B60R16/023Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements for transmission of signals between vehicle parts or subsystems
    • B60R16/0231Circuits relating to the driving or the functioning of the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R16/00Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for
    • B60R16/02Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements
    • B60R16/037Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements for occupant comfort, e.g. for automatic adjustment of appliances according to personal settings, e.g. seats, mirrors, steering wheel
    • B60R16/0373Voice control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1423Digital output to display device ; Cooperation and interconnection of the display device with other functional units controlling a plurality of local displays, e.g. CRT and flat panel display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/28Constructional details of speech recognition systems
    • G10L15/30Distributed recognition, e.g. in client-server systems, for mobile phones or network applications
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/146Display means
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2354/00Aspects of interface with display user
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2380/00Specific applications
    • G09G2380/10Automotive applications
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/225Feedback of the input speech

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Multimedia (AREA)
  • Mechanical Engineering (AREA)
  • Acoustics & Sound (AREA)
  • Computational Linguistics (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • General Health & Medical Sciences (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

一种车辆语音命令处理装置,包括:通信模块,将从用户接收的语音命令发送到语音识别服务器,并且从语音识别服务器接收识别的语音命令;控制器,标识在触摸显示器的屏幕上显示的对象,并且将识别的语音命令分为控制命令和触摸命令;控制命令处理模块,执行与控制命令对应的控制操作;以及触摸命令处理模块,用于从触摸显示器选择与触摸命令对应的对象。

Description

车辆语音命令处理装置和方法
本申请的交叉引用
本申请要求于2018年12月3日提交的韩国专利申请10-2018-0153949的优先权和权益,其全部内容通过引用并入本文。
技术领域
本发明涉及用于车辆语音命令处理装置和方法。
背景技术
本部分的描述仅提供与本发明相关的背景信息,并且可不构成现有技术。
随着电子技术的发展和消费者对便利功能的需求越来越大,各种电子控制装置和实用设备已被应用于汽车。这些电子控制装置和实用设备的操作可通过驾驶员的语音命令执行。
因此,为了通过语音命令来控制车辆上安装的各种电子控制装置和实用设备的各种操作,对于每个装置,制造商预先输入以表格形式配置的、适合于每个应用程序的语音识别命令列表。所输入的语音命令由装置进行识别,然后执行与所输入的语音命令对应的操作。
在为每个装置的每个应用程序设置语音识别命令列表时,几乎不可能考虑大量用户的所有情况。因此,采用了基于生产商主观性或抽样调查数据的设定方法。
我们发现语音命令的识别存在局限性。特别是,当语音命令的识别率较低时,可能无法执行所需的实用设备和控制设备的操作。
特别是,我们发现处理车辆语音命令的常规设备仅根据用户输入的语音命令简单地控制车辆中各种设备的操作,但不将语音命令分为控制命令和触摸命令。因此,传统装置不能选择(触摸)车辆中触摸显示屏上显示的对象。
发明内容
本发明的目的是解决现有技术中出现的上述问题,同时保持现有技术的优势。
本发明的一个方面提供了一种车辆语音命令处理装置和方法,其可以将从用户接收的语音命令分为控制命令和触摸命令,并且分别处理控制命令和触摸命令。因此,该装置和方法可以根据控制命令操作装置,并在显示器上选择与触摸命令对应的对象。
本发明的构思要解决的技术问题不限于上述问题,并且本发明所属领域的技术人员从以下描述中将清楚地理解本文未提及的任何其他技术问题。
根据本发明的一个方面,一种车辆语音命令处理装置,所述装置包括:通信模块,被配置为将从用户接收的语音命令发送到语音识别服务器,并且被配置为从所述语音识别服务器接收识别的语音命令;控制器,被配置为标识在触摸显示器的屏幕上显示的对象,并且将所述识别的语音命令分为控制命令和触摸命令;控制命令处理模块,被配置为执行与所述控制命令对应的控制操作;以及触摸命令处理模块,被配置为在所述触摸显示器上的所述对象中选择与所述触摸命令对应的对象。
根据本发明的一个方面,当在所述识别的语音命令中存在谓词时,所述控制器可以将所述识别的语音命令确定为所述控制命令。
根据本发明的一个方面,所述触摸命令处理模块可以基于所述识别的语音命令,在所述屏幕上的所标识的对象中选择包含所述触摸命令的至少一个对象。
根据本发明的一个方面,当所述屏幕上的所标识的对象当中不存在与所述触摸命令对应的对象时,所述触摸命令处理模块可以将所述触摸命令发送到所述控制命令处理模块。
在本发明的另一种实施例中,当不能够在所述屏幕上的所标识的对象当中选择与所述触摸命令对应的对象时,所述触摸命令处理模块可以将所述触摸命令发送到所述控制命令处理模块。
根据本发明的一个方面,装置可进一步包括眼睛跟踪装置,所述眼睛跟踪装置被配置为跟踪用户的眼睛。
根据本发明的一个方面,当所述触摸显示器包括多个触摸显示器时,所述控制器可以使用所述眼睛跟踪装置在所述多个触摸显示器当中指定一个触摸显示器。根据本发明的一个方面,当从所述用户输入所述语音命令时,控制器可以基于所述用户的眼睛的注视在所述多个触摸显示器当中选择触摸显示器。
根据本发明的一个方面,装置可进一步包括输入模块,所述输入模块具有输入按钮,所述输入按钮被配置为通知来自所述用户的所述语音命令的输入。根据本发明的一个方面,在按下所述输入按钮时,控制器可以标识所述触摸显示器的所述屏幕上的每个对象。
根据本发明的一个方面,一种用于处理车辆的语音命令的方法包括:通过控制器标识触摸显示器的屏幕上显示的对象;通过通信模块将从用户接收的语音命令发送到语音识别服务器;通过所述通信模块从所述语音识别服务器接收识别的语音命令;通过所述控制器将所述识别的语音命令分为控制命令和触摸命令;通过控制命令处理模块执行与所述控制命令对应的控制操作;以及通过触摸命令处理模块,从所述触摸显示器的所述屏幕选择与所述触摸命令对应的对象。
根据本发明的一个方面,对所述识别的语音命令进行分类可包括当所述识别的语音命令中存在谓词时,将所述识别的语音命令确定为控制命令。
根据本发明的一个方面,选择与所述触摸命令对应的对象可包括基于所述识别的语音命令,在所述屏幕上的所标识的对象当中选择包含所述触摸命令的至少一个对象。
根据本发明的一个方面,选择与所述触摸命令对应的对象可包括当所述屏幕上的所标识的对象当中不存在与所述触摸命令对应的对象时,将所述触摸命令发送到所述控制命令处理模块。
根据本发明的一个方面,选择与所述触摸命令对应的对象包括当所述屏幕上的所标识的对象当中不存在与所述触摸命令对应的对象时,将所述触摸命令发送到所述控制命令处理模块。
根据本发明的一个方面,当所述触摸显示器包括多个触摸显示器时,方法可进一步包括使用眼睛跟踪装置在所述多个触摸显示器当中指定一个触摸显示器。根据本发明的一个方面,在所述多个触摸显示器当中指定所述一个触摸显示器可包括当从所述用户输入所述语音命令时,基于所述用户的眼睛的注视选择所述一个触摸显示器。
根据本发明的一个方面,标识所述触摸显示器上显示的对象可包括当按下输入按钮以输入所述用户的所述语音命令时,标识所述触摸显示器的所述屏幕上的每个对象。
根据本文提供的描述,其他适用领域将变得显而易见。应该理解的是,本文的描述和具体示例仅用于说明的目的,并不旨在限制本发明的范围。
附图说明
为了便于理解本发明,现在将参考附图,通过示例的实施例描述本发明的各种实施例,其中:
图1是车辆语音命令处理装置的示意图;
图2示出输入按钮;
图3示出触摸显示器的屏幕中的每个对象;
图4是示出眼睛跟踪装置的配置的示例图示;
图5是车辆语音命令处理方法的流程图;以及
图6是示出用于实现车辆语音命令处理方法的计算***的方框图。
本文描述的附图仅用于说明目的,并不旨在以任何方式限制本发明的范围。
具体实施方式
以下描述本质上仅是示例性的,并不旨在限制本发明及其应用或用途。应该理解的是,在整个附图中,相应的附图标记指示相同或相应的部件和特征。
此外,在描述本发明的实施例时,当相关已知配置或功能干扰对本发明实施例的理解时,将省略对相关已知配置或功能的详细描述。
在描述根据本发明的实施例的部件时,可以使用诸如第一、第二、A、B、(a)、(b)等术语。这些术语仅用于将部件与其他部件区分开,并且这些术语不限制部件的性质、顺序或次序。除非另外定义,否则本文使用的包括技术和科学术语的所有术语具有与本发明所属领域的普通技术人员通常理解的含义相同的含义。将进一步理解的是,诸如在常用词典中定义的那些术语应该被解释为具有与其在相关领域的上下文中的含义一致的含义,并且将不被理解为理想化或过于正式的含义,除非在本文中明确定义。
图1是根据本发明的一种实施例的车辆语音命令处理装置的示意图。
如图1所示,车辆语音命令处理装置100可以包括:输入模块10、通信模块20、控制器30、存储器40、控制命令处理模块50、触摸命令处理模块60和触摸显示器70。在一个示例中,这些部件可以以实现根据本发明的一种实施例的车辆语音命令处理装置的方式相互耦合,并且可以以实现本发明的方式省略一些部件。
关于上述部件,首先,输入模块10可以在安装于车辆上的麦克风中实现,并接收来自用户的语音命令。
此外,如图2所示,作为本发明的一种实施例,输入模块10还可以包括输入按钮210。因此,用户可以在按下输入按钮210之后输入语音命令。然后,控制器30可以在输入按钮210被按下时预测接收语音命令。
接下来,通信模块20提供与语音识别服务器200的通信接口。通信模块20可以将语音命令发送到语音识别服务器200,并从语音识别服务器200接收识别的语音命令。该通信模块20可以以下面三种方式接收识别的语音命令。
1)通信模块20可以利用车联网(V2X)通信技术(V2X)与语音识别服务器200通信,以接收语音识别结果。就此而言,V2X统称为车辆与车辆之间(V2V:车对车)的无线通信、车辆与基础设施之间(V2I:车辆对基础设施)的无线通信、车载有线/无线网络(IVN:车载网络)、车辆与移动终端之间(V2P:车辆对行人)的通信等。
2)通信模块20可以使用短程无线通信与语音识别服务器200通信,以接收语音识别结果。就此而言,短程无线通信可以包括蓝牙TM、RFID(射频识别)、红外通信(红外数据通信;IrDA)、UWB(超宽带)、ZigBee、NFC(近场通信)、无线USB(无线通用串行总线)等。
3)通信模块20可以使用移动通信或无线互联网与语音识别服务器200通信,以接收语音识别结果。
就此而言,移动通信可以包括GSM(全球移动***)通信、CDMA(码分多址)、CDMA2000(码分多址2000)、EV-DO(优化的增强语音数据或仅增强语音数据)、WCDMA(宽带CDMA)、HSDPA(高速下行分组介入)、HSUPA(高速上行分组介入)、LTE(长期演进)、LTEA(长期高级演进)等。
另外,无线互联网可以包括WLAN(无线LAN)、Wi-Fi(无线保真)、Wi-Fi(无线保真)直连、DLNA(数字生活网络联盟)、WiBro(无线宽带)、WiMAX(全球互通微波访问)、HSDPA(高速下行分组介入)、HSUPA(高速上行分组介入)、LTE(长期演进)、LTE-A(长期高级演进)等。
接下来,控制器30执行整体控制,使得每个部件可以正常执行其功能。该控制器30可以以硬件或软件或其组合来实现。在一种实施例中,控制器30可以在微处理器中实现,但不限于此。
此外,控制器30可以控制输入模块10以接收用户的语音命令。
此外,控制器30可以控制通信模块20将语音命令发送到语音识别服务器200,并且从语音识别服务器200接收识别的语音命令。
此外,在输入按钮210被按下时,控制器30可以识别触摸显示器70上的屏幕上的每个对象(字母、数字、符号和图标)。在一个示例中,当显示如图3所示的屏幕时,控制器30可以识别图标形状的主页键310,“上一页”、“结束”、“下一页”、“帮助”、1号是“韩国国际展览中心湖公园”(Kintex Lake Park)、2号是“大化洞休闲公园”(Daehwa Leisure Park)、3号是“韩国国际展览中心公园卫理公园”(Kintex Onnuri Park)、4号是“一山活动广场”(Onemount Event Plaza)等。这种用于识别图像中的字母、数字、符号和图标的技术是众所周知的技术,因此省略详细描述。
此外,控制器30可以将识别结果存储在存储器40中。就此而言,存储器40可以包括至少一种存储器类型的存储介质类型,诸如闪存类型、硬盘类型、微型类型和卡类型(例如,SD卡(安全数字卡)或XD卡(eXtream数字卡))等等,以及RAM(随机存取存储器)、SRAM(静态RAM)、ROM(只读存储器)、PROM(可编程ROM)、EEPROM(电可擦除PROM)、MRAM(磁RAM)、磁盘和光盘型存储器。
在一个示例中,控制器30可以将从语音识别服务器200通过通信模块20接收到的识别的语音命令分为控制命令和触摸命令。就此而言,当所识别的语音命令中存在谓词时,控制器30可以将所识别的语音命令确定为控制命令,而当所识别的语音命令中没有谓词时,控制器30可以将所识别的语音命令确定为触摸命令。例如,包含诸如“给珍妮打电话”、“打开空调”、“打开加热器”等谓词的所识别的语音命令可以被识别为控制命令。此外,控制器30可以将用于车辆控制的语音命令、车辆手册相关的语音命令、用于请求可以通过网络收集的信息的语音命令等识别为控制命令。就此而言,可以通过网络收集的信息可以包括天气信息、著名餐馆信息、体育信息等。
此外,控制器30可以将控制命令发送到控制命令处理模块50,并且将触摸命令发送到触摸命令处理模块60。就此而言,控制命令处理模块50可以包括配置用于控制车辆中的各种***(空调***、通信***等)的控制器。另外,触摸命令处理模块60可以包括提供车辆手册和网络搜索功能的AVN(音频视频导航)***的控制器。
接下来,控制命令处理模块50可以执行与从控制器30接收到的控制命令(语音识别服务器200提供的语音识别结果)对应的控制操作。就此而言,控制命令处理模块50可以打开空调、打开加热器,或打电话给珍妮。
接下来,触摸命令处理模块60可以选择触摸显示器70上与从控制器30接收到的触摸命令(语音识别服务器200提供的语音识别结果)对应的对象。例如,参照图3,当触摸命令是“对象1”时,选择“对象1”。此外,当触摸命令为结束时,选择“结束”。就此而言,触摸命令处理模块60的选择可以与用户的触摸相同。
此外,在选择触摸显示器70上与从控制器30接收到的触摸命令(从语音识别服务器200接收的语音识别结果)对应的对象时,即使屏幕上标识的对象与作为所识别的语音命令的触摸命令不同,触摸命令处理模块60也可以基于所识别的语音命令在屏幕上标识的对象当中选择至少一个包含该触摸命令的对象。例如,参照图3,当作为所识别的语音命令的触摸命令是“湖公园”(Lake Park)时,可以选择包括“湖公园”(Lake Park)的“韩国国际展览中心湖公园”(Kintex Lake Park)。
此外,当触摸显示器70上不存在与从控制器30接收的触摸命令对应的对象(从语音识别服务器200接收的语音识别结果)时,触摸命令处理模块60可以将触摸命令确定为控制命令,并将触摸命令发送到控制命令处理模块50。
此外,当从控制器30接收到的触摸命令(从语音识别服务器200接收的语音识别结果)对应的触摸显示器70上的对象是可能无法从屏幕上的对象中选择的对象(简单显示的字符)时,触摸命令处理模块60可以将触摸命令确定为控制命令,并且将触摸命令发送到控制命令处理模块50。
接下来,触摸显示器70是安装在车辆上的显示器。此外,触摸显示器70可以包括集群、AVN(音视频导航)***的显示器、辅助显示器等。该触摸显示器70可以显示包括UI(用户界面)、GUI(图形用户界面)的各种屏幕。只要可以通过触摸选择屏幕,本发明可以应用于任何屏幕。
在一个示例中,当车辆上安装有多个显示器时,即使用户未进行选择,也可以与安装在车辆上的眼睛跟踪装置300紧密连接地选择用户所需的显示器。也就是说,由于用户在观看显示屏的同时说出触摸命令,因此可以经由眼睛跟踪装置300选择驾驶员眼睛所停留的显示器。
也就是说,当车辆上安装有多个显示器时,控制器30可以识别每个显示器屏幕上的文本和图标,并选择在用户的语音命令被输入时用户眼睛所停留的显示器作为目标显示器。
此后,触摸命令处理模块60可以在控制器30选择的显示器屏幕上选择与触摸命令对应的对象。
另外,当通过触摸显示器上的语音识别重复执行相同的屏幕操作时,控制器30可以将相同的屏幕操作转换为宏。例如,当重复执行上层中的选择和下层中的选择时,可以使用特定的触摸命令将这些选择转换为宏。因此,用户可以通过特定的触摸命令一次执行上层中的选择和下层中的选择。
图4是示出在本发明中使用的眼睛跟踪装置的配置的示例图示。
如图4所示,本发明中使用的眼睛跟踪装置300可以包括:控制器310、摄像头320、输出模块330、存储器340、特征检测器350、位置确定模块360、矢量计算模块370和眼睛跟踪装置380。就此而言,控制器310控制眼睛跟踪装置300的每个部件的操作。
摄像头320捕获图像,尤其是用户面部图像。在一个示例中,摄像头320可以捕获车辆上的驾驶员的面部图像。就此而言,摄像头320可包括至少两个摄像头。在一个示例中,摄像头320可以包括具有至少两个成像透镜的立体摄像头。就此而言,摄像头320可以包括CCD(电荷耦合元件)摄像头、CMOS(互补金属氧化物半导体)摄像头等等,但不限于此。
输出模块330可以输出由眼睛跟踪装置300得出的眼睛跟踪结果。就此而言,输出模块330可以将眼睛跟踪结果提供到通过无线通信连接的外部装置或经由电缆连接的外部装置。
在一个示例中,输出模块330可以将从眼睛跟踪装置300得到的眼睛跟踪结果提供到车载监视器,并且提供给基于驾驶员状况控制车辆行驶的车辆控制***。
存储器340可以存储用于眼睛跟踪装置300操作的预定值,以及眼睛跟踪装置300的每个部件的结果值。此外,存储器340可以存储用于实现眼睛跟踪装置300的每个部件的操作的程序或算法。在一个示例中,存储器340可以存储特征检测算法、位置估计算法、矢量计算算法、眼睛跟踪算法等。
特征检测器350从用户面部图像中检测特征。特征检测器350可以从用户面部图像的眼睛区域检测由摄像头320的照射产生的光反射点。
此外,特征检测器350可以从用户面部图像检测由至少两支光产生的至少两个光反射点。
此外,特征检测器350可以从用户面部图像的眼睛区域检测瞳孔的中心位置。
此外,特征检测器350可以检测其位置固定在用户面部图像内的至少两个特征。在一个示例中,特征检测器350可以从用户面部图像的眼睛区域检测用户眼睛的左端点和右端点。
此外,特征检测器350可以检测用户的面部特征(例如,痣、疤痕和眉毛等等)在用户面部图像内的特定位置,并检测用户佩戴的配件,例如眼镜等的特定位置。
就此而言,当从用户面部图像检测到要应用于眼睛跟踪的特征时,特征检测器350可以基于预先检测到的特征从用户的另一个面部图像中检测相同的特征。当然,当未从用户面部图像检测到相同的特征时,可以再次检测新的特征。
位置确定模块360使用由特征检测器350从用户面部图像的眼睛区域检测到的至少两个光反射点来确定角膜的中心位置。在下文中,其中由特征检测器350检测到至少两个光反射点的面部图像被称为第一面部图像。
在一个示例中,位置确定模块360可以将角膜的中心位置确定为延伸线彼此相交的点,其中延伸线将朝向用户角膜位置的、以不同方向发射光的至少两支光,分别连接到至少两个光反射点,所述光反射点经由该至少两支光的发射出现在第一面部图像的每个眼睛区域中。
另一方面,当特征检测器350未从用户面部图像的眼睛区域中的每个检测到至少两个反射点时,位置确定模块360可以向特征检测器350请求相应面部图像中的特征位置。在下文中,将特征检测器350未检测到至少两个光反射点的面部图像称为第二面部图像。就此而言,位置确定模块360可以使用特征检测器350在第二面部图像中检测到的特征和基于先前从第一面部图像检测到的角膜中心位置而计算的第一矢量来确定第二面部图像的角膜的中心位置。
矢量计算模块370可以计算从第一面部图像检测到的至少两个特征到由位置确定模块360确定的第一图像中角膜的中心位置的矢量。在一个示例中,矢量计算模块370可以计算从第一面部图像检测到的用户眼睛的左端点到角膜中心位置的矢量,并计算从用户眼睛的右端点到角膜中心的矢量。就此而言,所计算的矢量被称为第一矢量,并且第一矢量可以用于位置确定模块360,以从第二面部图像确定角膜的中心位置,如上所述。
在一个示例中,矢量计算模块370可以计算连接在第二面部图像的眼睛区域中检测到的瞳孔的中心位置与由位置确定模块360确定的角膜的中心位置的矢量。就此而言,所计算的矢量被称为第二矢量,并且第二矢量可以被发送到眼睛跟踪模块380以用于跟踪用户的眼睛。
眼睛跟踪模块380可以使用矢量计算模块370计算的第二矢量来跟踪第二面部图像中的用户眼睛的方向。就此而言,眼睛跟踪模块380可以基于延伸第二矢量的延伸线所到达的位置来跟踪用户的眼睛。眼睛跟踪模块380跟踪的用户眼睛信息可以存储在存储器340中,并且经由输出模块330被提供给车辆语音命令处理装置100的控制器30。
图5是根据本发明的一种实施例的车辆语音命令处理方法的流程图。
首先,输入模块10从用户接收语音命令(501)。
然后,控制器30标识触摸显示器70的屏幕上的每个对象(502)。也就是说,标识在触摸显示器70上显示的每个对象。
此后,通信模块20将从用户接收的语音命令发送到语音识别服务器,并从语音识别服务器接收识别的语音命令(503)。
此后,控制器30判断所识别的语音命令是控制命令还是触摸命令(504)。
作为判断(504)的结果,当所识别的语音命令是控制命令时,控制命令处理模块50执行与控制命令对应的控制操作(505)。
作为判断(504)的结果,当所识别的语音命令是触摸命令时,触摸命令处理模块60在屏幕上的对象当中选择与触摸命令对应的对象(506)。也就是说,从触摸显示器70上选择与触摸命令对应的对象。
图6是示出根据本发明的一种实施例的车辆语音命令处理方法的计算***的方框图。
参照图6,还可以通过计算***实现车辆语音命令处理方法。计算***1000可以包括经由***总线1200连接的至少一个处理器1100、存储器1300、用户界面输入装置1400、用户界面输出装置1500、存储器1600和网络接口1700。
处理器1100可以是中央处理单元(CPU)或半导体装置,其对存储在存储器1300和/或存储器1600中的指令执行处理。存储器1300和存储器1600可以包括各种类型的易失性或非易失性存储介质。例如,存储器1300可以包括ROM(只读存储器)和RAM(随机存取存储器)。
因此,结合本文中公开的实施例所描述的方法或算法的操作可直接体现为处理器1100执行的硬件或软件模块,或其组合。软件模块可以驻留在存储介质上,即存储器1300和/或存储器1600,例如RAM存储器、闪存、ROM存储器、EPROM存储器、EEPROM存储器、寄存器、硬盘、可移动磁盘、CD-ROM。示例性存储介质耦合到处理器1100,处理器1100可以从存储介质读取信息以及向存储介质写入信息。在另一种方法中,存储介质可以与处理器1100集成在一起。处理器和存储介质可以驻留在专用集成电路(ASIC)内。ASIC可以驻留在用户终端内。在另一种方法中,处理器和存储介质可以作为单独的组件驻留在用户终端中。
以上描述仅说明了本发明的技术构思,并且本领域技术人员可以在不脱离本发明的本质特征的情况下进行各种修改和改变。
因此,本发明中公开的示例性实施例不旨在限制本发明的技术构思,而是用于说明本发明,并且本发明的技术构思的范围不受示例性实施例的限制。本发明的范围应被解释为被所附权利要求的范围所涵盖,并且落入权利要求范围内的所有技术构思应被解释为包括在本发明的范围内。
根据本发明的一种实施例的车辆语音命令处理装置和方法可以将从用户接收的语音命令分为控制命令和触摸命令,并且分别处理控制命令和触摸命令。因此,所述装置和方法可以基于控制命令来操作装置,并且选择显示器上与触摸命令对应的对象。
在上文中,尽管已经参考示例性实施例和附图描述了本发明,但是本发明不限于此,在不脱离本发明的精神和范围的情况下,可以由本发明所属领域的技术人员进行各种修改和改变。

Claims (20)

1.一种车辆语音命令处理装置,所述装置包括:
通信模块,用于将从用户接收的语音命令发送到语音识别服务器,以及用于从所述语音识别服务器接收识别的语音命令;
控制器,用于标识在所述车辆的触摸显示器的屏幕上显示的对象,并且将所述识别的语音命令分为控制命令和触摸命令;
控制命令处理模块,用于执行与所述控制命令对应的控制操作;以及
触摸命令处理模块,用于在所述触摸显示器的所述屏幕上的所述对象中选择与所述触摸命令对应的对象。
2.根据权利要求1所述的装置,其中,当在所述识别的语音命令中存在谓词时,所述控制器用于将所述识别的语音命令确定为控制命令。
3.根据权利要求1所述的装置,还包括存储器,所述存储器用于存储显示在所述屏幕上的每个所标识的对象。
4.根据权利要求1所述的装置,其中,所述触摸命令处理模块用于基于所述识别的语音命令,在所述屏幕上的所标识的对象中选择至少一个包含所述触摸命令的对象。
5.根据权利要求1所述的装置,其中,当所述屏幕上的所标识的对象中不存在与基于所述识别的语音命令的触摸命令对应的对象时,所述触摸命令处理模块用于将所述触摸命令发送到所述控制命令处理模块。
6.根据权利要求1所述的装置,其中,当与所述触摸命令对应的对象不能在所述屏幕上的所标识的对象中选择时,所述触摸命令处理模块用于将所述触摸命令发送到所述控制命令处理模块。
7.根据权利要求1所述的装置,还包括眼睛跟踪装置,所述眼睛跟踪装置用于跟踪所述用户的眼睛。
8.根据权利要求7所述的装置,其中,当所述触摸显示器包括多个触摸显示器时,所述控制器用于使用所述眼睛跟踪装置在所述多个触摸显示器当中指定一个触摸显示器。
9.根据权利要求8所述的装置,其中,所述控制器用于当从所述用户输入所述语音命令时,基于所述用户的眼睛的注视,在所述多个触摸显示器当中选择触摸显示器。
10.根据权利要求1所述的装置,还包括输入模块,所述输入模块包括输入按钮,所述输入按钮用于通知来自所述用户的所述语音命令的输入。
11.根据权利要求10所述的装置,其中,所述控制器用于在所述输入按钮被按下时,标识所述触摸显示器的屏幕上的每个对象。
12.一种车辆语音命令处理方法,所述方法包括以下步骤:
由控制器标识触摸显示器的屏幕上所显示的对象;
由通信模块将从用户接收的语音命令发送到语音识别服务器;
由所述通信模块从所述语音识别服务器接收识别的语音命令;
由所述控制器将所述识别的语音命令分为控制命令和触摸命令;
由控制命令处理模块执行与所述控制命令对应的控制操作;以及
由触摸命令处理模块,从所述触摸显示器的屏幕选择与所述触摸命令对应的对象。
13.根据权利要求12所述的方法,其中,对所述识别的语音命令进行分类包括当所述识别的语音命令中存在谓词时,将所述识别的语音命令确定为控制命令。
14.根据权利要求12所述的方法,还包括由存储器存储显示在所述屏幕上的每个所标识的对象。
15.根据权利要求12所述的方法,其中,选择与所述触摸命令对应的对象包括基于所述识别的语音命令,在所述屏幕上的所标识的对象中选择至少一个包含所述触摸命令的对象。
16.根据权利要求12所述的方法,其中,选择与所述触摸命令对应的对象包括当所述屏幕上的所标识的对象中不存在与所述触摸命令对应的对象时,将所述触摸命令发送到所述控制命令处理模块。
17.根据权利要求12所述的方法,其中,选择与所述触摸命令对应的对象包括当与所述触摸命令对应的对象不能在所述屏幕上的所标识的对象中选择时,将所述触摸命令发送到所述控制命令处理模块。
18.根据权利要求12所述的方法,其中,当所述触摸显示器包括多个触摸显示器时,还包括使用眼睛跟踪装置在所述多个触摸显示器当中指定一个触摸显示器。
19.根据权利要求18所述的方法,其中,在所述多个触摸显示器当中指定一个触摸显示器包括当从所述用户输入所述语音命令时,基于所述用户的眼睛的注视选择所述一个触摸显示器。
20.根据权利要求12所述的方法,其中,标识所述触摸显示器上显示的对象包括当输入按钮被按下以输入所述用户的语音命令时,标识所述触摸显示器的屏幕上的每个对象。
CN201910541931.5A 2018-12-03 2019-06-21 车辆语音命令处理装置和方法 Active CN111261153B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020180153949A KR20200071841A (ko) 2018-12-03 2018-12-03 차량용 음성명령어 처리 장치 및 그 방법
KR10-2018-0153949 2018-12-03

Publications (2)

Publication Number Publication Date
CN111261153A CN111261153A (zh) 2020-06-09
CN111261153B true CN111261153B (zh) 2023-12-19

Family

ID=70849313

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910541931.5A Active CN111261153B (zh) 2018-12-03 2019-06-21 车辆语音命令处理装置和方法

Country Status (3)

Country Link
US (1) US11094325B2 (zh)
KR (1) KR20200071841A (zh)
CN (1) CN111261153B (zh)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11741951B2 (en) * 2019-02-22 2023-08-29 Lenovo (Singapore) Pte. Ltd. Context enabled voice commands
JP7483463B2 (ja) * 2020-03-30 2024-05-15 キヤノン株式会社 情報処理装置、制御方法、プログラム及び情報処理システム
CN114005445A (zh) * 2020-06-28 2022-02-01 广州小鹏汽车科技有限公司 信息处理方法、服务器和计算机可读存储介质
CN112193255A (zh) * 2020-09-24 2021-01-08 北京百度网讯科技有限公司 车机***的人机交互方法、装置、设备以及存储介质
KR20230094476A (ko) 2021-12-21 2023-06-28 현대자동차주식회사 운전자의 지시 이력을 반영한 명령실행장치 및 명령실행방법

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103839549A (zh) * 2012-11-22 2014-06-04 腾讯科技(深圳)有限公司 一种语音指令控制方法及***
CN103916688A (zh) * 2013-01-07 2014-07-09 三星电子株式会社 交互服务器、显示设备及其控制方法
CN105894766A (zh) * 2015-02-13 2016-08-24 圣约翰科技大学 应用于交通工具的声控指示***
CN106448678A (zh) * 2012-05-29 2017-02-22 三星电子株式会社 用于在电子装置中执行语音命令的方法和设备
CN108196534A (zh) * 2017-12-26 2018-06-22 广东工业大学 一种多旋翼无人机控制端、飞控***及控制方法

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7158871B1 (en) 1998-05-07 2007-01-02 Art - Advanced Recognition Technologies Ltd. Handwritten and voice control of vehicle components
JP2002012100A (ja) * 2000-06-29 2002-01-15 Jatco Transtechnology Ltd 車両制御装置
JP4380541B2 (ja) 2005-01-07 2009-12-09 トヨタ自動車株式会社 車両用エージェント装置
KR100712262B1 (ko) 2005-05-24 2007-04-27 계명대학교 산학협력단 텔레매틱스 단말기
KR20070060885A (ko) 2005-12-09 2007-06-13 한국전자통신연구원 다양한 인식 기술을 이용한 입력 인터페이스 제공 방법
DE102008051757A1 (de) * 2007-11-12 2009-05-14 Volkswagen Ag Multimodale Benutzerschnittstelle eines Fahrerassistenzsystems zur Eingabe und Präsentation von Informationen
JP2010215194A (ja) * 2009-03-19 2010-09-30 Hyundai Motor Co Ltd 車載機器の操作装置
US8294683B2 (en) * 2009-09-25 2012-10-23 Mitac International Corp. Method of processing touch commands and voice commands in parallel in an electronic device supporting speech recognition
KR20120090659A (ko) 2011-02-08 2012-08-17 현대모비스 주식회사 차량용 avn 시스템의 조작 방법 및 그 장치
JP5234160B2 (ja) * 2011-03-23 2013-07-10 株式会社デンソー 車両用装置および情報表示システム
DE102012013503B4 (de) * 2012-07-06 2014-10-09 Audi Ag Verfahren und Steuerungssystem zum Betreiben eines Kraftwagens
KR101444091B1 (ko) * 2013-08-06 2014-09-26 엘지전자 주식회사 이동 단말기 및 그것의 제어방법
KR102063766B1 (ko) * 2013-09-17 2020-01-08 엘지전자 주식회사 이동 단말기 및 그것의 제어방법
KR101678087B1 (ko) * 2015-02-16 2016-11-23 현대자동차주식회사 차량 및 그 제어방법
US9703472B2 (en) * 2015-03-18 2017-07-11 Alpine Electronics, Inc. Method and system for operating console with touch screen
KR101753997B1 (ko) 2015-12-04 2017-07-19 계명대학교 산학협력단 동작 인식을 이용한 음성 제어 장치 및 그 방법
KR102414122B1 (ko) * 2017-04-19 2022-06-29 삼성전자주식회사 사용자 발화를 처리하는 전자 장치 및 그 동작 방법
US20180357040A1 (en) * 2017-06-09 2018-12-13 Mitsubishi Electric Automotive America, Inc. In-vehicle infotainment with multi-modal interface
US10635462B2 (en) * 2018-05-23 2020-04-28 Microsoft Technology Licensing, Llc Skill discovery for computerized personal assistant

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106448678A (zh) * 2012-05-29 2017-02-22 三星电子株式会社 用于在电子装置中执行语音命令的方法和设备
CN103839549A (zh) * 2012-11-22 2014-06-04 腾讯科技(深圳)有限公司 一种语音指令控制方法及***
CN103916688A (zh) * 2013-01-07 2014-07-09 三星电子株式会社 交互服务器、显示设备及其控制方法
CN105894766A (zh) * 2015-02-13 2016-08-24 圣约翰科技大学 应用于交通工具的声控指示***
CN108196534A (zh) * 2017-12-26 2018-06-22 广东工业大学 一种多旋翼无人机控制端、飞控***及控制方法

Also Published As

Publication number Publication date
US20200175979A1 (en) 2020-06-04
US11094325B2 (en) 2021-08-17
KR20200071841A (ko) 2020-06-22
CN111261153A (zh) 2020-06-09

Similar Documents

Publication Publication Date Title
CN111261153B (zh) 车辆语音命令处理装置和方法
EP3183151B1 (en) Wearable device and method of controlling the same
KR102521922B1 (ko) 전자 장치 및 전자 장치의 액세스 포인트 정보 운용 방법
US10356093B2 (en) Connection management of smart devices with automobile head unit
CN107507003B (zh) 一种业务处理方法、设备及***
US9971562B2 (en) Apparatus and method for representing an image in a portable terminal
US10425410B2 (en) Identity authentication method and apparatus, and user equipment
EP2432221B1 (en) Mobile terminal, electronic system and method of transmitting and receiving data using the same
US9666076B2 (en) Warning method and system therefor
US9842259B2 (en) Captured image recognition device, captured image recognition system, and captured image recognition method
JP7419495B2 (ja) 投影方法および投影システム
US20190026930A1 (en) Digital information retrieval and rendering in a factory environment
US9848457B1 (en) Wireless connection system and method of controlling same
US20200169427A1 (en) Smart internet of things menus with cameras
US20130067535A1 (en) Apparatus and method for controlling a network connection
WO2015067187A1 (en) Determination of a communication object
US20150379322A1 (en) Method and apparatus for communication using fingerprint input
CN114265641A (zh) 控制方法、电子设备及计算机可读存储介质
US20150278207A1 (en) Electronic device and method for acquiring image data
US20220295017A1 (en) Rendezvous assistance apparatus, rendezvous assistance system, and rendezvous assistance method
EP3544860B1 (en) Vehicle operating method and vehicle operating apparatus
KR102317090B1 (ko) 스마트 키의 기능을 공유하는 방법 및 디바이스.
CN115226067A (zh) 离车寻物的实现方法、***、介质、云端服务器及智能终端
CN110891263A (zh) 连接建立方法、诊断设备和终端设备
US9930126B2 (en) Electronic apparatus and information processing method

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant