CN105183217A - 触控显示设备及触控显示方法 - Google Patents

触控显示设备及触控显示方法 Download PDF

Info

Publication number
CN105183217A
CN105183217A CN201510515461.7A CN201510515461A CN105183217A CN 105183217 A CN105183217 A CN 105183217A CN 201510515461 A CN201510515461 A CN 201510515461A CN 105183217 A CN105183217 A CN 105183217A
Authority
CN
China
Prior art keywords
touch
health
control
signal
display screen
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201510515461.7A
Other languages
English (en)
Other versions
CN105183217B (zh
Inventor
李文波
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
BOE Technology Group Co Ltd
Original Assignee
BOE Technology Group Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by BOE Technology Group Co Ltd filed Critical BOE Technology Group Co Ltd
Priority to CN201510515461.7A priority Critical patent/CN105183217B/zh
Publication of CN105183217A publication Critical patent/CN105183217A/zh
Priority to PCT/CN2016/071171 priority patent/WO2017028491A1/zh
Priority to US15/301,719 priority patent/US20170177144A1/en
Application granted granted Critical
Publication of CN105183217B publication Critical patent/CN105183217B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • G06F3/0418Control or interface arrangements specially adapted for digitisers for error correction or compensation, e.g. based on parallax, calibration or alignment
    • G06F3/04186Touch location disambiguation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0412Digitisers structurally integrated in a display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/043Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means using propagating acoustic waves
    • G06F3/0433Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means using propagating acoustic waves in which the acoustic waves are either generated by a movable member and propagated within a surface layer or propagated within a surface layer and captured by a movable member

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • User Interface Of Digital Computer (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)

Abstract

本发明提供了一种触控显示设备及触控显示方法,属于触控技术领域。触控显示设备包括:显示屏;设置在显示屏上的多个检测元件,用于获取在身体不同部位接触显示屏时所产生的声音振动信号;中央处理器,与检测元件连接,用于对检测元件传递的声音振动信号进行分析,确定身体触控类型,并生成包含有身体触控类型的指令信号;控制芯片,与中央处理器连接,用于接收中央处理器发送的指令信号,并根据指令信号生成影像数据和驱动信号;图像处理器,与控制芯片连接,用于接收控制芯片发送的影像数据和驱动信号,进而驱动显示屏显示相应的画面。本发明技术方案使用户能够利用身体的不同部位来进行触控操作,从而方便残疾人群使用触控显示设备。

Description

触控显示设备及触控显示方法
技术领域
本发明涉及触控技术领域,特别是指一种触控显示设备及触控显示方法。
背景技术
随着触控技术的发展,基于触控操作的触控装置逐渐成为各种便携移动终端的标准配置。通过触控屏,用户可以直接用手向移动终端输入坐标信息,它和鼠标、键盘一样,是一种输入设备。触控屏具有坚固耐用、反应速度快、节省空间、易于交流等许多优点。例如,采用触摸屏的智能手机,性能越来越强劲,屏幕越来越大。大屏幕便于用户全网页浏览、观看视频,带来良好的显示效果及观看舒适性。
触控技术类别较多,常见的有电阻式、电容式、红外式、电磁笔式等多种方式,技术涉及从单点触控到多点触控,灵敏度也提升显著,触控技术已逐渐趋于实用化、成熟化。
但是现有的触控技术一般都需要用户通过手来执行触控操作,比如通过手指或者触控笔来进行操控,这样对于残缺手脚的残疾人群,现有触控技术往往无法满足他们的操控需求。
发明内容
本发明要解决的技术问题是提供一种触控显示设备及触控显示方法,使用户能够利用身体的不同部位来进行触控操作,进而根据这些触控操作来控制显示屏进行相应画面的显示,从而方便残疾人群使用触控显示设备。
为解决上述技术问题,本发明的实施例提供技术方案如下:
一方面,提供一种触控显示设备,包括:
显示屏;
设置在所述显示屏上的多个检测元件,用于获取在身体不同部位接触所述显示屏时所产生的声音振动信号;
中央处理器,与所述检测元件连接,用于对所述检测元件传递的声音振动信号进行分析,确定身体触控类型,并生成包含有所述身体触控类型的指令信号;
控制芯片,与所述中央处理器连接,用于接收所述中央处理器发送的指令信号,并根据所述指令信号生成影像数据和驱动信号;
图像处理器,与所述控制芯片连接,用于接收所述控制芯片发送的所述影像数据和驱动信号,进而驱动所述显示屏显示相应的画面。
进一步地,触控显示设备还包括:
声音特征信号数据库,用于存储声音特征信号与身体触控类型之间的对应关系;
所述中央处理器具体用于根据所述声音振动信号获取声音特征信号,并根据所述对应关系确定与所述声音特征信号对应的身体触控类型。
进一步地,所述中央处理器还用于根据接收到的声音振动信号获取声音特征信号,并接收输入的与所述声音振动信号对应的身体触控类型,将所述声音特征信号和所述输入的身体触控类型发送给所述声音特征信号数据库;
所述声音特征信号数据库还用于根据接收到的声音特征信号和身体触控类型,更新声音特征信号与身体触控类型之间的对应关系。
进一步地,身体触控类型包括单一触控和多样触控,单一触控为单一身体部位触控,多样触控为至少两个身体部位触控的组合。
进一步地,所述中央处理器包括:
采样模块,用于接收所述检测元件发送的声音振动信号;
信号处理模块,用于对所述声音振动信号进行处理,获取所述声音振动信号的声音参数;
特征提取模块,用于根据所获取的声音参数对所述声音振动信号进行特征提取,获取声音特征信号;
比对模块,用于将所获取的声音特征信号与所述声音特征信号数据库中的数据进行比对,确定与所述声音特征信号对应的身体触控类型。
进一步地,触控显示设备还包括:
触发事件数据库,用于存储身体触控类型与触发事件之间的对应关系;
所述控制芯片具体用于将接收到的指令信号中包含的身体触控类型与所述触发事件数据库中的信息进行比对,确定与所述身体触控类型对应的影像数据和驱动信号。
进一步地,触控显示设备还包括:
设置在所述显示屏上的多个触控传感器,用于获取在身体不同部位接触所述显示屏时的触控点坐标位置;
所述中央处理器还与所述触控传感器连接,用于生成包含有所述身体触控类型和触控点坐标位置的指令信号。
进一步地,所述触发事件数据库中还存储有触控点坐标位置和身体触控类型与触发事件之间的对应关系;
所述控制芯片具体用于将接收到的指令信号中包含的身体触控类型和触控点位置坐标与所述触发事件数据库中的信息进行比对,确定与所述身体触控类型和触控点位置坐标对应的影像数据和驱动信号。
进一步地,触控显示设备还包括:
数据存储单元,与所述控制芯片连接,用于存储所述控制芯片接收到的当前帧的指令信号。
进一步地,触控显示设备还包括:
缓存单元,与所述控制芯片连接,用于对所述控制芯片接收到的下一帧的指令信号进行缓存。
本发明实施例还提供了一种触控显示方法,应用于如上所述的触控显示设备,所述方法包括:
获取在身体不同部位接触所述显示屏时所产生的声音振动信号;
对所述声音振动信号进行分析,确定身体触控类型,并生成包含有所述身体触控类型的指令信号;
根据所述指令信号生成对应的影像数据和驱动信号;
利用所述影像数据和驱动信号驱动所述显示屏显示相应的画面。
进一步地,所述方法还包括:
获取在身体不同部位接触所述显示屏时的触控点坐标位置;
所述生成包含有所述身体触控类型的指令信号的步骤,具体为:
生成包含有所述身体触控类型和触控点坐标位置的指令信号。
本发明的实施例具有以下有益效果:
上述方案中,在显示屏上设置有多个检测元件,能够获取在身体不同部位接触显示屏时所产生的声音振动信号;之后中央处理器可以根据声音振动信号确定身体触控类型,并生成相应的指令信号;控制芯片接收指令信号,并生成相应的影像数据和驱动信号;图像处理器接收影像数据和驱动信号,进而驱动显示屏显示相应的画面。本发明实施例能够识别接触显示屏的身体部位,这样就可以利用不同的身体部位可实现不同的触控操作,进而可以控制显示屏显示相应的画面。例如,用额头触控可实现确定功能,下巴触控可实现取消功能,鼻尖触控实现双击功能,脚趾触控可实现画画功能等,进而根据这些触控操作来控制显示屏进行相应画面的显示,从而方便残疾人群使用触控显示设备。
附图说明
图1为本发明实施例触控显示设备的结构示意图;
图2为本发明实施例中央处理器的结构示意图;
图3为本发明另一实施例触控显示设备的结构示意图;
图4为本发明实施例触控显示方法的流程示意图;
图5为本发明另一实施例触控显示方法的流程示意图;
图6为身体触控类型包括单一触控和多样触控的示意图。
具体实施方式
为使本发明的实施例要解决的技术问题、技术方案和优点更加清楚,下面将结合附图及具体实施例进行详细描述。
本发明的实施例针对现有技术中触控显示设备不方便残疾人群使用的问题,提供一种触控显示设备及触控显示方法,使用户能够利用身体的不同部位来进行触控操作,进而根据这些触控操作来控制显示屏进行相应画面的显示,从而方便残疾人群使用触控显示设备。
实施例一
本实施例提供了一种触控显示设备,如图1所示,包括:
显示屏50;
设置在显示屏50上的多个检测元件10,用于获取在身体不同部位接触显示屏50时所产生的声音振动信号,检测元件10可以成行成列地设置在显示屏50上,具体地,可以根据感应的精度来确定检测元件的个数,在需要的感应精度较高时,增加检测元件的个数,在需要的感应精度较低时,减少检测元件的个数,具体地,检测元件可以为声音传感器;
中央处理器20,与检测元件10连接,用于对检测元件10传递的声音振动信号进行分析,确定身体触控类型,并生成包含有身体触控类型的指令信号;
控制芯片30,与中央处理器20连接,用于接收中央处理器20发送的指令信号,并根据指令信号生成影像数据和驱动信号;
图像处理器40,与控制芯片30连接,用于接收控制芯片30发送的影像数据和驱动信号,进而驱动显示屏50显示相应的画面。
本实施例在显示屏上设置有多个检测元件,能够获取在身体不同部位接触显示屏时所产生的声音振动信号,之后中央处理器可以根据声音振动信号确定身体触控类型,并生成相应的指令信号;控制芯片接收指令信号,并生成相应的影像数据和驱动信号;图像处理器接收影像数据和驱动信号,进而驱动显示屏显示相应的画面。本发明实施例能够识别接触显示屏的身体部位,这样就可以利用不同的身体部位可实现不同的触控操作,进而可以控制显示屏显示相应的画面。例如,用额头触控可实现确定功能,下巴触控可实现取消功能,鼻尖触控实现双击功能,脚趾触控可实现画画功能等,进而根据这些触控操作来控制显示屏进行相应画面的显示,从而方便残疾人群使用触控显示设备。
进一步地,触控显示设备还包括:
声音特征信号数据库,用于存储声音特征信号与身体触控类型之间的对应关系。其中,身体触控类型分为单一触控和多样触控,如图6所示,单一触控为单一身体部位触控,例如可有额头触控、鼻尖触控、下巴触控、脚趾触控等,而多样触控为至少两个身体部位触控的组合,可以为上述方式的排列组合,身体不同部位接触显示屏时会发出不同的声音,每一身体触控类型对应有独特的声音特征信号,比如声音特征信号A对应的是额头触控、声音特征信号B对应的是鼻尖触控、声音特征信号C对应的是下巴触控、声音特征信号D对应的是脚趾触控、声音特征信号E对应的是额头+鼻尖触控、声音特征信号F对应的是下巴+鼻尖触控等等;
中央处理器20具体用于根据声音振动信号获取声音特征信号,并根据对应关系确定与声音特征信号对应的身体触控类型,比如中央处理器20根据声音振动信号获取到声音特征信号A,则可以确定身体触控类型为额头触控;中央处理器20根据声音振动信号获取到声音特征信号B,则可以确定身体触控类型为鼻尖触控;中央处理器20根据声音振动信号获取到声音特征信号C,则可以确定身体触控类型为下巴触控;中央处理器20根据声音振动信号获取到声音特征信号D,则可以确定身体触控类型为脚趾触控;中央处理器20根据声音振动信号获取到声音特征信号E,则可以确定身体触控类型为额头+鼻尖触控;中央处理器20根据声音振动信号获取到声音特征信号F,则可以确定身体触控类型为下巴+鼻尖触控。
进一步地,中央处理器20还用于根据接收到的声音振动信号获取声音特征信号,并接收输入的与声音振动信号对应的身体触控类型,将声音特征信号和输入的身体触控类型发送给声音特征信号数据库;
声音特征信号数据库还用于根据接收到的声音特征信号和身体触控类型,更新声音特征信号与身体触控类型之间的对应关系,这样声音特征信号数据库不但可以存储声音特征信号与身体触控类型之间的对应关系,还可以根据需要更新声音特征信号与身体触控类型之间的对应关系,并根据需要添加新的声音特征信号与身体触控类型之间的对应关系。
进一步地,如图2所示,中央处理器20包括:
采样模块21,用于接收检测元件10发送的声音振动信号。当身体的某一部位如额头、下巴、鼻尖等接触显示屏时,分布在显示屏上的检测元件会产生声音振动信号,采样模块主要对不同身体部位接触显示屏产生的原始声音振动信号进行收集,该原始声音振动信号无法直接进行身体触控类型的判断;
信号处理模块22,用于对采样模块21收集的声音振动信号进行处理,获取声音振动信号的声音参数。具体地,信号处理模块22可以对原始声音振动信号进行傅里叶转换等处理,获取主要关键参数,如声音振动信号的特征振幅、特征频率等信息;
特征提取模块23,用于根据信号处理模块22所获取的声音参数对声音振动信号进行特征提取,获取声音特征信号;
比对模块24,用于将所获取的声音特征信号与声音特征信号数据库中的数据进行比对,确定与声音特征信号对应的身体触控类型。
进一步地,触控显示设备还包括:
触发事件数据库,用于存储身体触控类型与触发事件之间的对应关系,比如额头触控对应确定功能、下巴触控对应取消功能、鼻尖触控对应双击功能、脚趾触控对应画画功能等等;
控制芯片30具体用于将接收到的指令信号中包含的身体触控类型与触发事件数据库中的信息进行比对,确定与身体触控类型对应的影像数据和驱动信号,比如在中央处理器20确定身体触控类型为额头触控时,控制芯片30将与确定功能对应的影像数据和驱动信号发送至图像处理器,进而驱动显示屏显示与确定功能对应的画面;在中央处理器20确定身体触控类型为下巴触控时,控制芯片30将与取消功能对应的影像数据和驱动信号发送至图像处理器,进而驱动显示屏显示与取消功能对应的画面;在中央处理器20确定身体触控类型为鼻尖触控时,控制芯片30将与双击功能对应的影像数据和驱动信号发送至图像处理器,进而驱动显示屏显示与双击功能对应的画面;在中央处理器20确定身体触控类型为脚趾触控时,控制芯片30将与画画功能对应的影像数据和驱动信号发送至图像处理器,进而驱动显示屏显示与画画功能对应的画面。
进一步地,如图3所示,触控显示设备还包括:
数据存储单元70,与控制芯片30连接,用于存储控制芯片30接收到的当前帧的指令信号,这样通过数据存储单元70可以记录历史数据。
进一步地,触控显示设备还包括:
缓存单元80,与控制芯片30连接,用于对控制芯片30接收到的下一帧的指令信号进行缓存,这样在下一帧时,控制芯片30可以直接利用缓存在缓存单元80中的指令信号生成对应的影像数据和驱动信号,能够加快身体部位识别以及触控触发的速度。
其中,缓存单元80、数据存储单元70和图像处理器40可以通过总线与控制芯片30连接。
本实施例能够识别接触显示屏的身体部位,这样就可以利用不同的身体部位可实现不同的触控操作,进而可以控制显示屏显示相应的画面。例如,用额头触控可实现确定功能,下巴触控可实现取消功能,鼻尖触控实现双击功能,脚趾触控可实现画画功能等,进而根据这些触控操作来控制显示屏进行相应画面的显示,从而方便残疾人群使用触控显示设备。
实施例二
本实施例提供了一种触控显示设备,如图3所示,包括:
显示屏50;
设置在显示屏50上的多个检测元件10,用于获取在身体不同部位接触显示屏50时所产生的声音振动信号,检测元件10可以成行成列地设置在显示屏50上,具体地,可以根据感应的精度来确定检测元件的个数,在需要的感应精度较高时,增加检测元件的个数,在需要的感应精度较低时,减少检测元件的个数,具体地,检测元件可以声音传感器;
设置在显示屏50上的多个触控传感器60,用于获取在身体不同部位接触显示屏50时的触控点坐标位置,触控传感器60可以成行成列地设置在显示屏50上,具体地,可以根据感应的精度来确定触控传感器的个数,在需要的感应精度较高时,增加触控传感器的个数,在需要的感应精度较低时,减少触控传感器的个数;
中央处理器20,与检测元件10和触控传感器60分别连接,用于对检测元件10传递的声音振动信号进行分析,确定身体触控类型,并生成包含有身体触控类型和触控点坐标位置的指令信号;
控制芯片30,与中央处理器20连接,用于接收中央处理器20发送的指令信号,并根据指令信号生成影像数据和驱动信号;
图像处理器40,与控制芯片30连接,用于接收控制芯片30发送的影像数据和驱动信号,进而驱动显示屏50显示相应的画面。
本实施例在显示屏上设置有多个检测元件和触控传感器,能够获取在身体不同部位接触显示屏时所产生的声音振动信号和触控点坐标位置,之后可以根据声音振动信号确定身体触控类型,生成与身体触控类型和触控点坐标位置对应的影像数据和驱动信号,进而驱动显示屏显示相应的画面,本发明实施例能够识别接触显示屏的身体部位和触控点坐标位置,这样就可以利用不同的身体部位可实现不同的触控操作,进而可以控制显示屏显示相应的画面。例如,用额头+触控点坐标位置可实现对额头触控点处图标的确定功能,下巴+触控点坐标位置可实现对下巴触控点处图标的取消功能,而鼻尖+触控点坐标位置可实现对鼻尖触控点处图标的双击功能,脚趾+触控点坐标位置可实现对脚趾触控点处画面的放大功能等,进而根据这些触控操作来控制显示屏进行相应画面的显示,从而方便残疾人群使用触控显示设备。
进一步地,触控显示设备还包括:
声音特征信号数据库,用于存储声音特征信号与身体触控类型之间的对应关系。其中,身体触控类型分为单一触控和多样触控,单一触控为单一身体部位触控,例如可有额头触控、鼻尖触控、下巴触控、脚趾触控等,而多样触控为至少两个身体部位触控的组合,可以为上述方式的排列组合。身体不同部位接触显示屏时会发出不同的声音,每一身体触控类型对应有独特的声音特征信号,比如声音特征信号A对应的是额头触控、声音特征信号B对应的是鼻尖触控、声音特征信号C对应的是下巴触控、声音特征信号D对应的是脚趾触控、声音特征信号E对应的是额头+鼻尖触控、声音特征信号F对应的是下巴+鼻尖触控等等;
中央处理器20具体用于根据声音振动信号获取声音特征信号,并根据对应关系确定与声音特征信号对应的身体触控类型,比如中央处理器20根据声音振动信号获取到声音特征信号A,则可以确定身体触控类型为额头触控;中央处理器20根据声音振动信号获取到声音特征信号B,则可以确定身体触控类型为鼻尖触控;中央处理器20根据声音振动信号获取到声音特征信号C,则可以确定身体触控类型为下巴触控;中央处理器20根据声音振动信号获取到声音特征信号D,则可以确定身体触控类型为脚趾触控;中央处理器20根据声音振动信号获取到声音特征信号E,则可以确定身体触控类型为额头+鼻尖触控;中央处理器20根据声音振动信号获取到声音特征信号F,则可以确定身体触控类型为下巴+鼻尖触控。
进一步地,中央处理器20还用于根据接收到的声音振动信号获取声音特征信号,并接收输入的与声音振动信号对应的身体触控类型,将声音特征信号和输入的身体触控类型发送给声音特征信号数据库;
声音特征信号数据库还用于根据接收到的声音特征信号和身体触控类型,更新声音特征信号与身体触控类型之间的对应关系,这样声音特征信号数据库不但可以存储声音特征信号与身体触控类型之间的对应关系,还可以根据需要更新声音特征信号与身体触控类型之间的对应关系,并根据需要添加新的声音特征信号与身体触控类型之间的对应关系。
进一步地,如图2所示,中央处理器20包括:
采样模块21,用于接收检测元件10发送的声音振动信号。当身体的某一部位如额头、下巴、鼻尖等接触显示屏时,分布在显示屏上的检测元件会产生声音振动信号,采样模块主要对不同身体部位接触显示屏产生的原始声音振动信号进行收集,该原始声音振动信号无法直接进行身体触控类型的判断。
信号处理模块22,用于对采样模块21收集的声音振动信号进行处理,获取声音振动信号的声音参数。具体地,信号处理模块可以对原始声音振动信号进行傅里叶转换等处理,获取主要关键参数,如声音振动信号的特征振幅、特征频率等信息。
特征提取模块23,用于根据信号处理模块22所获取的声音参数对声音振动信号进行特征提取,获取声音特征信号;
比对模块24,用于将所获取的声音特征信号与声音特征信号数据库中的数据进行比对,确定与声音特征信号对应的身体触控类型。
进一步地,触控显示设备还包括:
触发事件数据库,用于存储触控点坐标位置和身体触控类型与触发事件之间的对应关系,比如额头触控+触控点位置坐标对应对触控点处的图标实现确定功能、下巴触控+触控点位置坐标对应对触控点处的图标实现取消功能、鼻尖触控+触控点位置坐标对应对触控点处的图标实现双击功能、脚趾触控+触控点位置坐标对应对触控点处的画面实现放大功能等等;
控制芯片30具体用于将接收到的指令信号中包含的身体触控类型和触控点位置坐标与触发事件数据库中的信息进行比对,确定与身体触控类型和触控点位置坐标对应的影像数据和驱动信号,比如在中央处理器20确定身体触控类型为额头触控时,控制芯片30将与对触控点处图标实现确定功能对应的影像数据和驱动信号发送至图像处理器,进而驱动显示屏显示与确定功能对应的画面;在中央处理器20确定身体触控类型为下巴触控时,控制芯片30将与对触控点处图标实现取消功能对应的影像数据和驱动信号发送至图像处理器,进而驱动显示屏显示与取消功能对应的画面;在中央处理器20确定身体触控类型为鼻尖触控时,控制芯片30将与对触控点处图标实现双击功能对应的影像数据和驱动信号发送至图像处理器,进而驱动显示屏显示与双击功能对应的画面;在中央处理器20确定身体触控类型为脚趾触控时,控制芯片30将与对触控点处画面实现放大功能对应的影像数据和驱动信号发送至图像处理器,进而驱动显示屏显示与放大功能对应的画面。
本实施例能够识别接触显示屏的身体部位和触控点位置坐标,这样就可以利用不同的身体部位可实现不同的触控操作,进而可以控制显示屏显示相应的画面。例如,用额头触控可实现确定功能,下巴触控可实现取消功能,而鼻尖触控实现双击功能,脚趾触控可实现放大功能等,进而根据这些触控操作来控制显示屏进行相应画面的显示,从而方便残疾人群使用触控显示设备。
进一步地,如图3所示,触控显示设备还包括:
数据存储单元70,与控制芯片30连接,用于存储控制芯片30接收到的当前帧的指令信号,这样通过数据存储单元70可以记录历史数据。
进一步地,触控显示设备还包括:
缓存单元80,与控制芯片30连接,用于对控制芯片30接收到的下一帧的指令信号进行缓存,这样在下一帧时,控制芯片30可以直接利用缓存在缓存单元80中的指令信号生成对应的影像数据和驱动信号,能够加快身体部位识别以及触控触发的速度。
其中,缓存单元80、数据存储单元70和图像处理器40可以通过总线与控制芯片30连接。
实施例三
本实施例提供了一种触控显示方法,应用于实施例一的触控显示设备,如图4所示,所述方法包括:
步骤101:获取在身体不同部位接触显示屏时所产生的声音振动信号;
显示屏上分布有多个检测元件,在用户利用身体部位接触显示屏进行触控操作时,利用声振传感器可以感应身体不同部位如额头、下巴、鼻尖等接触显示屏时所产生的不同声音振动信号。
步骤102:对声音振动信号进行分析,确定身体触控类型,并生成包含有身体触控类型的指令信号;
声音特征信号数据库中存储有声音特征信号与身体触控类型之间的对应关系。其中,身体触控类型分为单一触控和多样触控,单一触控为单一身体部位触控,例如可有额头触控、鼻尖触控、下巴触控、脚趾触控等,而多样触控为至少两个身体部位触控的组合,可以为上述方式的排列组合,身体不同部位接触显示屏时会发出不同的声音,每一身体触控类型对应有独特的声音特征信号,比如声音特征信号A对应的是额头触控、声音特征信号B对应的是鼻尖触控、声音特征信号C对应的是下巴触控、声音特征信号D对应的是脚趾触控、声音特征信号E对应的是额头+鼻尖触控、声音特征信号F对应的是下巴+鼻尖触控等等。
中央处理器收集原始声音振动信号,可以对原始声音振动信号进行傅里叶转换等处理,获取主要关键参数,如声音振动信号的特征振幅、特征频率等信息,进行特征提取,获取声音特征信号,并根据声音特征信号数据库中存储的对应关系确定与声音特征信号对应的身体触控类型,比如中央处理器根据声音振动信号获取到声音特征信号A,则可以确定身体触控类型为额头触控;中央处理器根据声音振动信号获取到声音特征信号B,则可以确定身体触控类型为鼻尖触控;中央处理器根据声音振动信号获取到声音特征信号C,则可以确定身体触控类型为下巴触控;中央处理器根据声音振动信号获取到声音特征信号D,则可以确定身体触控类型为脚趾触控;中央处理器根据声音振动信号获取到声音特征信号E,则可以确定身体触控类型为额头+鼻尖触控;中央处理器根据声音振动信号获取到声音特征信号F,则可以确定身体触控类型为下巴+鼻尖触控。
中央处理器识别出身体触控类型后,将包含有身体触控类型的指令信号发送给控制芯片。
步骤103:根据指令信号生成对应的影像数据和驱动信号;
触发事件数据库中存储有身体触控类型与触发事件之间的对应关系,比如额头触控对应确定功能、下巴触控对应取消功能、鼻尖触控对应双击功能、脚趾触控对应画画功能等等,控制芯片将接收到的指令信号中包含的身体触控类型与触发事件数据库中的信息进行比对,确定与身体触控类型对应的影像数据和驱动信号,比如在中央处理器确定身体触控类型为额头触控时,控制芯片将与确定功能对应的影像数据和驱动信号发送至图像处理器,进而驱动显示屏显示与确定功能对应的画面;在中央处理器确定身体触控类型为下巴触控时,控制芯片将与取消功能对应的影像数据和驱动信号发送至图像处理器,进而驱动显示屏显示与取消功能对应的画面;在中央处理器确定身体触控类型为鼻尖触控时,控制芯片将与双击功能对应的影像数据和驱动信号发送至图像处理器,进而驱动显示屏显示与双击功能对应的画面;在中央处理器确定身体触控类型为脚趾触控时,控制芯片将与画画功能对应的影像数据和驱动信号发送至图像处理器,进而驱动显示屏显示与画画功能对应的画面。
步骤104:利用影像数据和驱动信号驱动显示屏显示相应的画面。
图像处理器接收到控制芯片发送的影像数据和驱动信号后,利用影像数据和驱动信号驱动显示屏显示相应的画面。
进一步地,中央处理器还可以根据接收到的声音振动信号获取声音特征信号,并接收用户输入的与声音振动信号对应的身体触控类型,将声音特征信号和输入的身体触控类型发送给声音特征信号数据库,声音特征信号数据库根据接收到的声音特征信号和身体触控类型,更新声音特征信号与身体触控类型之间的对应关系,这样声音特征信号数据库不但可以存储声音特征信号与身体触控类型之间的对应关系,还可以根据需要更新声音特征信号与身体触控类型之间的对应关系,并根据需要添加新的声音特征信号与身体触控类型之间的对应关系。
本实施例能够识别接触显示屏的身体部位,这样就可以利用不同的身体部位可实现不同的触控操作,进而可以控制显示屏显示相应的画面。例如,用额头触控可实现确定功能,下巴触控可实现取消功能,鼻尖触控实现双击功能,脚趾触控可实现画画功能等,进而根据这些触控操作来控制显示屏进行相应画面的显示,从而方便残疾人群使用触控显示设备。
实施例四
本实施例提供了一种触控显示方法,应用于实施例二的触控显示设备,如图5所示,所述方法包括:
步骤201:获取在身体不同部位接触显示屏时所产生的声音振动信号和触控点位置坐标;
显示屏上分布有多个检测元件,在用户利用身体部位接触显示屏进行触控操作时,利用声振传感器可以感应身体不同部位如额头、下巴、鼻尖等接触显示屏时所产生的不同声音振动信号。
显示屏上还分布有多个触控传感器,在用户利用身体部位接触显示屏进行触控操作时,利用触控传感器可以获知触控位置的变化,感知触控点的坐标位置,触控传感器所采用的感应方式包括但不限定于电容式、电阻式、光学式等。
步骤202:对声音振动信号进行分析,确定身体触控类型,并生成包含有身体触控类型和触控点坐标位置的指令信号;
声音特征信号数据库中存储有声音特征信号与身体触控类型之间的对应关系。其中,身体触控类型分为单一触控和多样触控,单一触控为单一身体部位触控,例如可有额头触控、鼻尖触控、下巴触控、脚趾触控等,而多样触控为至少两个身体部位触控的组合,可以为上述方式的排列组合,身体不同部位接触显示屏时会发出不同的声音,每一身体触控类型对应有独特的声音特征信号,比如声音特征信号A对应的是额头触控、声音特征信号B对应的是鼻尖触控、声音特征信号C对应的是下巴触控、声音特征信号D对应的是脚趾触控、声音特征信号E对应的是额头+鼻尖触控、声音特征信号F对应的是下巴+鼻尖触控等等。
中央处理器收集原始声音振动信号,可以对原始声音振动信号进行傅里叶转换等处理,获取主要关键参数,如声音振动信号的特征振幅、特征频率等信息,进行特征提取,获取声音特征信号,并根据声音特征信号数据库中存储的对应关系确定与声音特征信号对应的身体触控类型,比如中央处理器根据声音振动信号获取到声音特征信号A,则可以确定身体触控类型为额头触控;中央处理器根据声音振动信号获取到声音特征信号B,则可以确定身体触控类型为鼻尖触控;中央处理器根据声音振动信号获取到声音特征信号C,则可以确定身体触控类型为下巴触控;中央处理器根据声音振动信号获取到声音特征信号D,则可以确定身体触控类型为脚趾触控;中央处理器根据声音振动信号获取到声音特征信号E,则可以确定身体触控类型为额头+鼻尖触控;中央处理器根据声音振动信号获取到声音特征信号F,则可以确定身体触控类型为下巴+鼻尖触控。
中央处理器识别出身体触控类型后,生成包含有身体触控类型和触控点坐标位置的指令信号,并将指令信号发送给控制芯片。
步骤203:根据指令信号生成对应的影像数据和驱动信号;
触发事件数据库存储有触控点坐标位置和身体触控类型与触发事件之间的对应关系,比如额头触控+触控点位置坐标对应对触控点处的图标实现确定功能、下巴触控+触控点位置坐标对应对触控点处的图标实现取消功能、鼻尖触控+触控点位置坐标对应对触控点处的图标实现双击功能、脚趾触控+触控点位置坐标对应对触控点处的画面实现放大功能等等;
控制芯片将接收到的指令信号中包含的身体触控类型和触控点位置坐标与触发事件数据库中的信息进行比对,确定与身体触控类型和触控点位置坐标对应的影像数据和驱动信号,比如在中央处理器确定身体触控类型为额头触控时,控制芯片将与对触控点处图标实现确定功能对应的影像数据和驱动信号发送至图像处理器,进而驱动显示屏显示与确定功能对应的画面;在中央处理器确定身体触控类型为下巴触控时,控制芯片将与对触控点处图标实现取消功能对应的影像数据和驱动信号发送至图像处理器,进而驱动显示屏显示与取消功能对应的画面;在中央处理器确定身体触控类型为鼻尖触控时,控制芯片将与对触控点处图标实现双击功能对应的影像数据和驱动信号发送至图像处理器,进而驱动显示屏显示与双击功能对应的画面;在中央处理器确定身体触控类型为脚趾触控时,控制芯片将与对触控点处画面实现放大功能对应的影像数据和驱动信号发送至图像处理器,进而驱动显示屏显示与放大功能对应的画面。
步骤204:利用影像数据和驱动信号驱动显示屏显示相应的画面。
图像处理器接收到控制芯片发送的影像数据和驱动信号后,利用影像数据和驱动信号驱动显示屏显示相应的画面。
进一步地,中央处理器还可以根据接收到的声音振动信号获取声音特征信号,并接收用户输入的与声音振动信号对应的身体触控类型,将声音特征信号和输入的身体触控类型发送给声音特征信号数据库,声音特征信号数据库根据接收到的声音特征信号和身体触控类型,更新声音特征信号与身体触控类型之间的对应关系,这样声音特征信号数据库不但可以存储声音特征信号与身体触控类型之间的对应关系,还可以根据需要更新声音特征信号与身体触控类型之间的对应关系,并根据需要添加新的声音特征信号与身体触控类型之间的对应关系。
本实施例能够识别接触显示屏的身体部位和触控点位置坐标,这样就可以利用不同的身体部位可实现不同的触控操作,进而可以控制显示屏显示相应的画面。例如,用额头触控可实现确定功能,下巴触控可实现取消功能,鼻尖触控实现双击功能,脚趾触控可实现放大功能等,进而根据这些触控操作来控制显示屏进行相应画面的显示,从而方便残疾人群使用触控显示设备。
此说明书中所描述的许多功能部件都被称为模块、单元,以便更加特别地强调其实现方式的独立性。
本发明实施例中,模块、单元可以用软件实现,以便由各种类型的处理器执行。举例来说,一个标识的可执行代码模块、单元可以包括计算机指令的一个或多个物理或者逻辑块,举例来说,其可以被构建为对象、过程或函数。尽管如此,所标识模块、单元的可执行代码无需物理地位于一起,而是可以包括存储在不同物理上的不同的指令,当这些指令逻辑上结合在一起时,其构成模块、单元并且实现该模块、单元的规定目的。
实际上,可执行代码模块、单元可以是单条指令或者是许多条指令,并且甚至可以分布在多个不同的代码段上,分布在不同程序当中,以及跨越多个存储器设备分布。同样地,操作数据可以在模块、单元内被识别,并且可以依照任何适当的形式实现并且被组织在任何适当类型的数据结构内。所述操作数据可以作为单个数据集被收集,或者可以分布在不同位置上(包括在不同存储设备上),并且至少部分地可以仅作为电子信号存在于***或网络上。
在模块、单元可以利用软件实现时,考虑到现有硬件工艺的水平,所以可以以软件实现的模块、单元,在不考虑成本的情况下,本领域技术人员都可以搭建对应的硬件电路来实现对应的功能,所述硬件电路包括常规的超大规模集成(VLSI)电路或者门阵列以及诸如逻辑芯片、晶体管之类的现有半导体或者是其它分立的元件。模块、单元还可以用可编程硬件设备,诸如现场可编程门阵列、可编程阵列逻辑、可编程逻辑设备等实现。
在本发明各方法实施例中,所述各步骤的序号并不能用于限定各步骤的先后顺序,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,对各步骤的先后变化也在本发明的保护范围之内。
以上所述是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明所述原理的前提下,还可以作出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。

Claims (12)

1.一种触控显示设备,其特征在于,包括:
显示屏;
设置在所述显示屏上的多个检测元件,用于获取在身体不同部位接触所述显示屏时所产生的声音振动信号;
中央处理器,与所述检测元件连接,用于对所述检测元件传递的声音振动信号进行分析,确定身体触控类型,并生成包含有所述身体触控类型的指令信号;
控制芯片,与所述中央处理器连接,用于接收所述中央处理器发送的指令信号,并根据所述指令信号生成影像数据和驱动信号;
图像处理器,与所述控制芯片连接,用于接收所述控制芯片发送的所述影像数据和驱动信号,进而驱动所述显示屏显示相应的画面。
2.根据权利要求1所述的触控显示设备,其特征在于,还包括:
声音特征信号数据库,用于存储声音特征信号与身体触控类型之间的对应关系;
所述中央处理器具体用于根据所述声音振动信号获取声音特征信号,并根据所述对应关系确定与所述声音特征信号对应的身体触控类型。
3.根据权利要求2所述的触控显示设备,其特征在于,
所述中央处理器还用于根据接收到的声音振动信号获取声音特征信号,并接收输入的与所述声音振动信号对应的身体触控类型,将所述声音特征信号和所述输入的身体触控类型发送给所述声音特征信号数据库;
所述声音特征信号数据库还用于根据接收到的声音特征信号和身体触控类型,更新声音特征信号与身体触控类型之间的对应关系。
4.根据权利要求1所述的触控显示设备,其特征在于,身体触控类型包括单一触控和多样触控,单一触控为单一身体部位触控,多样触控为至少两个身体部位触控的组合。
5.根据权利要求2所述的触控显示设备,其特征在于,所述中央处理器包括:
采样模块,用于接收所述检测元件发送的声音振动信号;
信号处理模块,用于对所述声音振动信号进行处理,获取所述声音振动信号的声音参数;
特征提取模块,用于根据所获取的声音参数对所述声音振动信号进行特征提取,获取声音特征信号;
比对模块,用于将所获取的声音特征信号与所述声音特征信号数据库中的数据进行比对,确定与所述声音特征信号对应的身体触控类型。
6.根据权利要求1-5中任一项所述的触控显示设备,其特征在于,还包括:
触发事件数据库,用于存储身体触控类型与触发事件之间的对应关系;
所述控制芯片具体用于将接收到的指令信号中包含的身体触控类型与所述触发事件数据库中的信息进行比对,确定与所述身体触控类型对应的影像数据和驱动信号。
7.根据权利要求6所述的触控显示设备,其特征在于,还包括:
设置在所述显示屏上的多个触控传感器,用于获取在身体不同部位接触所述显示屏时的触控点坐标位置;
所述中央处理器还与所述触控传感器连接,用于生成包含有所述身体触控类型和触控点坐标位置的指令信号。
8.根据权利要求7所述的触控显示设备,其特征在于,
所述触发事件数据库中还存储有触控点坐标位置和身体触控类型与触发事件之间的对应关系;
所述控制芯片具体用于将接收到的指令信号中包含的身体触控类型和触控点位置坐标与所述触发事件数据库中的信息进行比对,确定与所述身体触控类型和触控点位置坐标对应的影像数据和驱动信号。
9.根据权利要求1所述的触控显示设备,其特征在于,还包括:
数据存储单元,与所述控制芯片连接,用于存储所述控制芯片接收到的当前帧的指令信号。
10.根据权利要求1所述的触控显示设备,其特征在于,还包括:
缓存单元,与所述控制芯片连接,用于对所述控制芯片接收到的下一帧的指令信号进行缓存。
11.一种触控显示方法,其特征在于,应用于如权利要求1-10中任一项所述的触控显示设备,所述方法包括:
获取在身体不同部位接触所述显示屏时所产生的声音振动信号;
对所述声音振动信号进行分析,确定身体触控类型,并生成包含有所述身体触控类型的指令信号;
根据所述指令信号生成对应的影像数据和驱动信号;
利用所述影像数据和驱动信号驱动所述显示屏显示相应的画面。
12.根据权利要求11所述的触控显示方法,其特征在于,所述方法还包括:
获取在身体不同部位接触所述显示屏时的触控点坐标位置;
所述生成包含有所述身体触控类型的指令信号的步骤,具体为:
生成包含有所述身体触控类型和触控点坐标位置的指令信号。
CN201510515461.7A 2015-08-20 2015-08-20 触控显示设备及触控显示方法 Active CN105183217B (zh)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN201510515461.7A CN105183217B (zh) 2015-08-20 2015-08-20 触控显示设备及触控显示方法
PCT/CN2016/071171 WO2017028491A1 (zh) 2015-08-20 2016-01-18 触控显示设备及触控显示方法
US15/301,719 US20170177144A1 (en) 2015-08-20 2016-01-18 Touch display device and touch display method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201510515461.7A CN105183217B (zh) 2015-08-20 2015-08-20 触控显示设备及触控显示方法

Publications (2)

Publication Number Publication Date
CN105183217A true CN105183217A (zh) 2015-12-23
CN105183217B CN105183217B (zh) 2016-11-09

Family

ID=54905335

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201510515461.7A Active CN105183217B (zh) 2015-08-20 2015-08-20 触控显示设备及触控显示方法

Country Status (3)

Country Link
US (1) US20170177144A1 (zh)
CN (1) CN105183217B (zh)
WO (1) WO2017028491A1 (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017028491A1 (zh) * 2015-08-20 2017-02-23 京东方科技集团股份有限公司 触控显示设备及触控显示方法
CN107704108A (zh) * 2017-07-06 2018-02-16 中国科学院合肥物质科学研究院 一种基于柔性压力传感器的足部书写板
CN113778249A (zh) * 2020-06-09 2021-12-10 京东方科技集团股份有限公司 触控显示驱动模组、方法和显示装置
CN113867158A (zh) * 2020-06-12 2021-12-31 青岛海尔电冰箱有限公司 厨房电器运行状态判断方法、检测装置、冰箱及可读存储介质

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111596798A (zh) * 2020-05-18 2020-08-28 京东方科技集团股份有限公司 显示装置及其发声方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103995587A (zh) * 2014-05-13 2014-08-20 联想(北京)有限公司 一种信息控制方法及电子设备
CN104049795A (zh) * 2013-03-14 2014-09-17 英默森公司 基于接触物的触觉反馈生成

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5157886B2 (ja) * 2008-12-25 2013-03-06 日本電気株式会社 携帯情報端末の報知方法、携帯情報端末およびプログラム
CN101794173B (zh) * 2010-03-23 2011-10-05 浙江大学 无手残疾人专用电脑输入装置及其方法
CN202334482U (zh) * 2011-11-25 2012-07-11 上海天逸电器有限公司 声光振一体式触摸开关
KR20140106801A (ko) * 2013-02-27 2014-09-04 삼성전자주식회사 시각 장애인들을 위한 휴대 단말기의 음성 서비스 지원 방법 및 장치
US20150035759A1 (en) * 2013-08-02 2015-02-05 Qeexo, Co. Capture of Vibro-Acoustic Data Used to Determine Touch Types
US9740046B2 (en) * 2013-11-12 2017-08-22 Nvidia Corporation Method and apparatus to provide a lower power user interface on an LCD panel through localized backlight control
CN104298397B (zh) * 2014-09-24 2017-04-05 合肥鑫晟光电科技有限公司 触摸屏及其定位方法
CN105183217B (zh) * 2015-08-20 2016-11-09 京东方科技集团股份有限公司 触控显示设备及触控显示方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104049795A (zh) * 2013-03-14 2014-09-17 英默森公司 基于接触物的触觉反馈生成
CN103995587A (zh) * 2014-05-13 2014-08-20 联想(北京)有限公司 一种信息控制方法及电子设备

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017028491A1 (zh) * 2015-08-20 2017-02-23 京东方科技集团股份有限公司 触控显示设备及触控显示方法
CN107704108A (zh) * 2017-07-06 2018-02-16 中国科学院合肥物质科学研究院 一种基于柔性压力传感器的足部书写板
CN113778249A (zh) * 2020-06-09 2021-12-10 京东方科技集团股份有限公司 触控显示驱动模组、方法和显示装置
CN113778249B (zh) * 2020-06-09 2024-01-23 京东方科技集团股份有限公司 触控显示驱动模组、方法和显示装置
CN113867158A (zh) * 2020-06-12 2021-12-31 青岛海尔电冰箱有限公司 厨房电器运行状态判断方法、检测装置、冰箱及可读存储介质
CN113867158B (zh) * 2020-06-12 2023-10-24 青岛海尔电冰箱有限公司 厨房电器运行状态判断方法、检测装置、冰箱及可读存储介质

Also Published As

Publication number Publication date
CN105183217B (zh) 2016-11-09
US20170177144A1 (en) 2017-06-22
WO2017028491A1 (zh) 2017-02-23

Similar Documents

Publication Publication Date Title
US7760189B2 (en) Touchpad diagonal scrolling
CN106227520B (zh) 一种应用界面切换方法及装置
CN105183217A (zh) 触控显示设备及触控显示方法
CN104049745A (zh) 输入控制方法和支持该输入控制方法的电子装置
CN103455274A (zh) 对用户输入的意图进行分类
RU2689430C1 (ru) Система и способ управления сенсорным экраном с помощью двух костяшек пальцев
CN105474141A (zh) 信息处理设备和信息处理方法
CN104885051A (zh) 锚拖动触摸符号辨识
US9588678B2 (en) Method of operating electronic handwriting and electronic device for supporting the same
CN108111689A (zh) 压力触控的动态调节方法、装置及移动终端
CN106681636A (zh) 一种防误触的方法、装置及移动终端
CN104516499A (zh) 利用用户接口的事件的设备和方法
CN104123072A (zh) 一种用于提供移动设备中的虚拟键盘的方法和设备
CN108874284A (zh) 手势触发方法
CN104407793A (zh) 触摸信号处理方法及设备
CN103294175A (zh) 一种电子设备及其自动切换输入模式的方法
CN104133578A (zh) 触摸屏面板显示器和触摸键输入***
KR20190038422A (ko) 터치 입력 제스처를 검출하는 방법 및 장치
CN105549894A (zh) 触摸信息处理、获取的方法、装置及触摸信息处理***
CN106557175A (zh) 文字输入方法和电子设备
CN104169858A (zh) 一种终端设备识别用户手势的方法和设备
CN103809909A (zh) 一种信息处理方法及电子设备
CN110908568B (zh) 一种虚拟对象的控制方法和装置
CN108710477B (zh) 显示方法、移动终端及存储介质
US20110199309A1 (en) Input Device

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant