CN109308142B - 单主机多触控屏人机交互***及其实现方法 - Google Patents

单主机多触控屏人机交互***及其实现方法 Download PDF

Info

Publication number
CN109308142B
CN109308142B CN201811012550.XA CN201811012550A CN109308142B CN 109308142 B CN109308142 B CN 109308142B CN 201811012550 A CN201811012550 A CN 201811012550A CN 109308142 B CN109308142 B CN 109308142B
Authority
CN
China
Prior art keywords
touch
information
touch screen
equipment
contact
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201811012550.XA
Other languages
English (en)
Other versions
CN109308142A (zh
Inventor
冯少冲
陈志佳
孟宪国
朱元昌
邸彦强
崔浩浩
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Army Engineering University of PLA
Original Assignee
Army Engineering University of PLA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Army Engineering University of PLA filed Critical Army Engineering University of PLA
Priority to CN201811012550.XA priority Critical patent/CN109308142B/zh
Publication of CN109308142A publication Critical patent/CN109308142A/zh
Application granted granted Critical
Publication of CN109308142B publication Critical patent/CN109308142B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/4401Bootstrapping
    • G06F9/4411Configuring for operating with peripheral devices; Loading of device drivers

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Security & Cryptography (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

一种单主机多触控屏人机交互***及其实现方法,单主机多触控屏人机交互***包括一个主机;以及至少两个触控屏,分别与所述主机联接;其中,所述主机包括处理器,所述处理器配置为使得所述至少两个触控屏能够同时进行触控交互操作。

Description

单主机多触控屏人机交互***及其实现方法
技术领域
本发明涉及人机交互技术领域,具体涉及一种单主机多触控屏人机交互***及其实现方法。
背景技术
在现有的windows的操作***下,对于多人对多个触控屏同时进行操作的情形,需要配备相同数量的主机分别一一对应联接多个触控屏来完成操作,设备成本较高。若一台主机联接多个触控屏,此时,同一时刻只能允许一个触控屏响应触摸输入,多个触控屏同时触摸输入会产生冲突。
发明内容
鉴于上述技术问题,为了克服上述现有技术的不足,本发明提出了一种单主机多触控屏人机交互***及其实现方法。
本发明的一个方面提供一种单主机多触控屏人机交互***,单主机多触控屏人机交互***包括:一个主机;以及至少两个触控屏,分别与所述主机联接;其中,所述主机包括处理器,所述处理器配置为使得所述至少两个触控屏能够同时进行触控交互操作。
在一些实施例中,所述至少两个触控屏的数量为2-10个。
本发明的另一个方面提供一种单主机多触控屏人机交互***的实现方法,所述实现方法包括:利用单一主机初始化至少两个触控屏的设备信息;对于同一个触摸时刻截获每个触控屏中输入的原始触点信息;将每个触控屏的原始触点信息分别解析为自定义的触点信息;针对每个触控屏,将解析后自定义的触点信息分析组合转化为手势动作信息;以及使用所述手势信息驱动仿真引擎中的模型作出运动。
在一些实施例中,初始化至少两个触控屏的设备信息包括:使用单一主机中的Windows操作***提供的第一接口获取输入设备列表;使用所述Windows操作***提供的第二接口获取输入设备列表中各输入设备的设备信息;根据设备信息中的设备类型,从设备列表中筛选取出触控屏;以及使用所述Windows操作***提供的第三接口对筛选出的所述触控屏进行注册。
在一些实施例中,对于一个触摸时刻截获每个触控屏中输入的原始触点信息包括:使用所述Windows操作***提供的第四接口获取触控窗口的句柄;使用所述句柄,通过委托机制实现所述触控窗口消息循环,用来截获所述触控窗口接收到的Windows操作***消息;在触控窗口消息循环提供的回调函数中截获输入设备消息;使用所述Windows操作***提供的第五接口从截获的输入设备消息中提取出设备信息;以及判断设备信息中的设备类型,若该设备类型为触控屏,则记录该触控屏的设备编号并从输入设备消息中获取对应的原始触点信息。
在一些实施例中,将每个触控屏的原始触点信息分别解析为自定义的触点信息包括针对每个触控屏执行如下步骤:获取原始触点信息中触点个数;计算每个触点在相应的触控屏中的x坐标和y坐标;获取每个触点的触点状态和响应时间;以及将触点个数、触点坐标、触点状态和响应时间储存为自定义的触点信息结构。
在一些实施例中,针对每个触控屏,将解析后自定义的触点信息分析组合转化为手势动作信息包括:对每个触控屏执行如下步骤:获取解析后的自定义的触点信息;使用所述Windows操作***提供的第六接口将其中的触点坐标转换为触控窗口中的坐标;根据触点状态、触点在触控窗口中的坐标生成手势动作信息。
在一些实施例中,使用所述手势信息驱动仿真引擎中的模型作出运动包括:仿真引擎获取手势动作信息中的手势的坐标位置;仿真引擎在场景中该位置检测是否存在可操作的对象模型若检测到模型,对该模型进行与手势相匹配的动作。
附图说明
图1为本发明一实施例提供的单主机多触控屏人机交互***的结构示意图;
图2为本发明一实施例提供的单主机多触控屏人机交互***的实现方法的流程图;
图3-7示出了图2中各步骤的具体流程图。
具体实施方式
本发明某些实施例于后方将参照所附附图做更全面性地描述,其中一些但并非全部的实施例将被示出。实际上,本发明的各种实施例可以许多不同形式实现,而不应被解释为限于此数所阐述的实施例;相对地,提供这些实施例使得本发明满足适用的法律要求。
为使本发明的目的、技术方案和优点更加清楚明白,以下结合具体实施例,并参照附图,对本发明进一步详细说明。
本发明一实施例提供一种单主机多触控屏人机交互***,图1为本发明一实施例提供的单主机多触控屏人机交互***的结构示意图,如图1所示,单主机多触控屏人机交互***100包括一台主机10以及至少两个触控屏20,触控屏的数量可以为2-10个,例如为3个。考虑到效率问题,触控屏个数一般不超过10个,每个屏幕可以有一个用户操作。屏幕数量越多,***运行效率会降低。至少两个触控屏20分别与主机10联接。所述主机包括处理器1,所述处理器1配置为使得所述至少两个触控屏20能够同时进行触控交互操作。即本实施例中的单主机多触控屏人机交互***100可以实现在Windows操作***中Unity仿真引擎对触控屏设备多触点与手势识别的支持,并且实现了在Unity仿真引擎中使用多个触控屏的情况下各触控屏对触点与手势的响应相互独立,可以实现多人同时进行手势操作,且各人之间的操作并行且独立。
该单主机多触控屏人机交互***100支持多种手势操作,如单击、双击、拖动、放大、缩小、多指滑动等手势,且手势可自定义扩展。
本发明一实施例提供一种单主机多触控屏人机交互***的实现方法,图2示出了个一种单主机多触控屏人机交互***的实现方法的流程图。如图2所示,单主机多触控屏人机交互***的实现方法包括以下步骤:
S10:利用单一主机初始化至少两个触控屏的设备信息。
触控屏的设备信息包括触控屏产品信息,例如设备类型,触控屏型号,触控屏版本号等硬件设备相关信息。
S20:对于同一个触摸时刻截获每个触控屏中输入的原始触点信息;
原始触点信息为直接截获的触控屏在进行人机交互时输入的信息,例如触摸,原始触点信息的编码格式与触控屏类型与品牌相关,无法直接使用,需要解析为具有***对应的结构的可识别的自定义的触点信息。
多个触控屏可以同时进行触摸输入,所有进行触摸输入的触控屏的原始触点信息均可以在同一触摸时刻截获。
S30:将每个触控屏的原始触点信息分别解析为自定义的触点信息;
***中自定义可识别的触点信息包含:触点个数、触点ID、触点状态(按下、弹起)、触点坐标、触点按下持续时间等。
S40:针对每个触控屏,将解析后自定义的触点信息分析组合转化为手势动作信息。
S50:使用所述手势信息驱动仿真引擎中的模型作出运动。
在本实施例的单主机多触控屏人机交互***中,多个触控屏可以同时进行触摸输入操作,每个触控屏上的触摸输入操作可以均对应仿真引擎中的模型的一个特定运动,响应于多个触控屏的同时触摸输入操作,仿真引擎中的模型的多个特定运动可以同时执行。
具体地,步骤S10:初始化至少两个触控屏的设备信息包括以下子步骤:
S11:使用单一主机中的Windows操作***提供的第一接口获取输入设备列表;
在此步骤中,Windows操作***提供的第一接口例如为GetRawInputDeviceList。与主机联接的输入设备,例如触控屏,鼠标,键盘等均会体现在输入设备列表中。
S12:使用所述Windows操作***提供的第二接口获取输入设备列表中各输入设备的设备信息;
在此步骤中,Windows操作***提供的第二接口例如为GetRawInputDeviceInfo。输入设备的设备信息包括输入设备产品信息,例如设备类型,设备型号,设备版本号等硬件设备相关信息。
S13:根据设备信息中的设备类型,从设备列表中筛选取出触控屏;
S14:使用所述Windows操作***提供的第三接口对筛选出的所述触控屏进行注册。
在此步骤中,Windows操作***提供的第三接口例如为RegisterRawInputDevices。
步骤S20:对于一个触摸时刻截获每个触控屏中输入的原始触点信息包括以下子步骤:
S21:使用所述Windows操作***提供的第四接口获取触控窗口的句柄;
在此步骤中,Windows操作***提供的第四接口例如为GetForegroundWindow,触控窗口是主机中的应用程序的窗口触控窗口接收从每个触控屏传来的原始触点信息,句柄是触控窗口的唯一标识,本步骤实质就是获取该触控窗口。
S22:使用所述句柄,通过委托机制实现所述触控窗口消息循环,用来截获所述触控窗口接收到的Windows操作***消息;
委托是一种存储函数引用的类型。委托允许将一个对象中的方法传递给另一个能调用该方法的类的某个对象。委托是通过继承System.Delegate中的一个类来实现的。
触控窗口消息循环会提供一个回调函数,回调函数是编程语言的一种机制,在此处该函数是接收***向触控窗口发送的消息。一旦Windows操作***对该触控窗口进行操作,该回调函数就会将其操作消息截获下来。
S23:在触控窗口消息循环提供的回调函数中截获输入设备消息;
只要输入设备进行输入动作,其相应的输入设备消息即被截获。
输入设备消息是windows操作***定义的消息,该消息中包含输入设备信息和其相应的输入操作信息,例如触控屏的原始触点信息。
S24:使用所述Windows操作***提供的第五接口从截获的输入设备消息中提取出设备信息;
本步骤中,Windows操作***提供的第五接口例如为GetRawInputData。
S25:判断设备信息中的设备类型,若该设备类型为触控屏,则记录该触控屏的设备编号并从输入设备消息中获取对应的原始触点信息。
S30:将每个触控屏的原始触点信息分别解析为自定义的触点信息包括以下子步骤:
S31:获取原始触点信息中触点个数;
每个触控屏在进行触摸操作时,触点个数对应该触控屏同时接收到的触摸点的个数,例如进行单指点击操作或滑动操作时,触点个数为1个,进行两手指捏合操作时,触点个数为2个。
S32:计算每个触点在相应的触控屏中的x坐标和y坐标;
原始触点信息中触点X坐标和Y坐标是以二进制形式存储,需要将其通过计算转换为十进制,作为触点坐标。
S33:获取每个触点的触点状态和响应时间;
触点状态包括按下、弹起等,响应时间包括触点状态持续时间,主要是指触点按下状态的持续时间。
S34:将触点个数、触点坐标、触点状态和响应时间储存为自定义的触点信息结构。
步骤S40:针对每个触控屏,将解析后自定义的触点信息分析组合转化为手势动作信息包括以下子步骤:
S41:获取解析后的自定义的触点信息;
触点信息包含:触点个数、触点ID、触点状态(按下、弹起等)、触点坐标、触点按下持续时间等。
S42:使用所述Windows操作***提供的第六接口将其中的触点坐标转换为在触控窗口中的坐标;
Windows操作***提供的第六接口例如是ScreenToClient。触控窗口坐标是指在应用程序窗口中的坐标,以该应用程序窗口为标准,一般认为应用程序窗口左上角为(0,0)点。
S43:根据触点状态、触点在触控窗口中的坐标生成手势动作信息。
为了方便理解,以下以点击、平移及缩放手势为例对根据触点状态、触点在触控窗口中的坐标生成手势动作信息的方式进行解释。
例如查看触点个数,若触点个数为1,则当触点状态由按下变为弹起时,在触控窗口中的坐标处形成点击手势。
例如若触点个数为2,当全部触点状态均为按下时,记录两个触点在触控窗口中的坐标和两个触点之间距离;当有触点状态为移动时,再次计算两个触点之间的距离并与记录的两个触点之间距离做比较,若其差值绝对值增大且大于阈值,形成放大手势,若差值绝对值变小,且小于阈值,形成缩小手势,通过计算各触点前后触点中心位置的差值,可以计算出缩放变化量。
例如若触点个数大于2,当全部触点状态均为按下时,记录全部触点在触控窗口中的坐标和全部触点的中心位置,当有触点状态为移动时,再次计算全部触点的中心位置并与记录的中心位置做比较,若其差值大于阈值,形成平移手势,计算各触点前后触点中心位置的差值,可以计算出平移变化量。
在上述情形中,当触点状态为弹起时,手势动作结束。
步骤S50:使用所述手势信息驱动仿真引擎中的模型作出运动包括以下子步骤:
S51:仿真引擎获取手势动作信息中的手势的坐标位置;
S52:仿真引擎在场景中该位置检测是否存在可操作的对象模型;
在一实施例中,对象模型例如可以为在停车场场景中的汽车。
S53:若检测到模型,对该模型进行与手势相匹配的动作。
与手势相匹配的动作可以是打开或关闭车门,例如一个触控屏的点击触摸对应打开车辆左侧车门,另一个触控屏的点击触摸对应打开车辆左侧车门,当两个触控屏的点击触摸同时操作时,仿真引擎中的车辆的左侧车门和右侧车门同时打开。
采用本实施例提供单主机多触控屏人机交互***的实现方法中,多个触控屏可以同时进行触摸输入操作,每个触控屏上的触摸输入操作可以均对应仿真引擎中的模型的一个特定运动,响应于多个触控屏的同时触摸输入操作,仿真引擎中的模型的多个特定运动可以同时执行。
应注意,附图中各部件的形状和尺寸不反映真实大小和比例,而仅示意本发明实施例的内容。
实施例中提到的方向用语,例如“上”、“下”、“前”、“后”、“左”、“右”等,仅是参考附图的方向,并非用来限制本发明的保护范围。并且上述实施例可基于设计及可靠度的考虑,彼此混合搭配使用或与其他实施例混合搭配使用,即不同实施例中的技术特征可以自由组合形成更多的实施例。
实施例中涉及的方法步骤并不限于其描述的顺序,各步骤的顺序根据实际需要的来进行调整。
需要说明的是,在附图或说明书正文中,未绘示或描述的实现方式,均为所属技术领域中普通技术人员所知的形式,并未进行详细说明。此外,上述对各元件和方法的定义并不仅限于实施例中提到的各种具体结构、形状或方式,本领域普通技术人员可对其进行简单地更改或替换。
以上所述的具体实施例,对本发明的目的、技术方案和有益效果进行了进一步详细说明,应理解的是,以上所述仅为本发明的具体实施例而已,并不用于限制本发明,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (6)

1.一种单主机多触控屏人机交互***的实现方法,其特征在于,所述实现方法包括:
利用单一主机初始化至少两个触控屏的设备信息;
对于同一个触摸时刻截获每个触控屏中输入的原始触点信息;
将每个触控屏的原始触点信息分别解析为自定义的触点信息;
针对每个触控屏,将解析后自定义的触点信息分析组合转化为手势动作信息;以及
使用所述手势信息驱动仿真引擎中的模型作出运动。
2.根据权利要求1所述的实现方法,其特征在于,初始化至少两个触控屏的设备信息包括:
使用单一主机中的Windows操作***提供的第一接口获取输入设备列表;
使用所述Windows操作***提供的第二接口获取输入设备列表中各输入设备的设备信息;
根据设备信息中的设备类型,从设备列表中筛选取出触控屏;以及
使用所述Windows操作***提供的第三接口对筛选出的所述触控屏进行注册。
3.根据权利要求2所述的实现方法,其特征在于,对于一个触摸时刻截获每个触控屏中输入的原始触点信息包括:
使用所述Windows操作***提供的第四接口获取触控窗口的句柄;
使用所述句柄,通过委托机制实现所述触控窗口消息循环,用来截获所述触控窗口接收到的Windows操作***消息;
在触控窗口消息循环提供的回调函数中截获输入设备消息;
使用所述Windows操作***提供的第五接口从截获的输入设备消息中提取出设备信息;以及
判断设备信息中的设备类型,若该设备类型为触控屏,则记录该触控屏的设备编号并从输入设备消息中获取对应的原始触点信息。
4.根据权利要求1所述的实现方法,其特征在于,将每个触控屏的原始触点信息分别解析为自定义的触点信息包括针对每个触控屏执行如下步骤:
获取原始触点信息中触点个数;
计算每个触点在相应的触控屏中的x坐标和y坐标;
获取每个触点的触点状态和响应时间;以及
将触点个数、触点坐标、触点状态和响应时间储存为自定义的触点信息结构。
5.根据权利要求2所述的实现方法,其特征在于,针对每个触控屏,将解析后自定义的触点信息分析组合转化为手势动作信息包括:对每个触控屏执行如下步骤:
获取解析后的自定义的触点信息;
使用所述Windows操作***提供的第六接口将其中的触点坐标转换为触控窗口中的坐标;以及
根据触点状态、触点在触控窗口中的坐标生成手势动作信息。
6.根据权利要求1所述的实现方法,其特征在于,使用所述手势信息驱动仿真引擎中的模型作出运动包括:
仿真引擎获取手势动作信息中的手势的坐标位置;
仿真引擎在场景中该坐标位置检测是否存在可操作的对象模型;以及
若检测到模型,对该模型进行与手势相匹配的动作。
CN201811012550.XA 2018-08-31 2018-08-31 单主机多触控屏人机交互***及其实现方法 Active CN109308142B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811012550.XA CN109308142B (zh) 2018-08-31 2018-08-31 单主机多触控屏人机交互***及其实现方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811012550.XA CN109308142B (zh) 2018-08-31 2018-08-31 单主机多触控屏人机交互***及其实现方法

Publications (2)

Publication Number Publication Date
CN109308142A CN109308142A (zh) 2019-02-05
CN109308142B true CN109308142B (zh) 2022-03-15

Family

ID=65224572

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811012550.XA Active CN109308142B (zh) 2018-08-31 2018-08-31 单主机多触控屏人机交互***及其实现方法

Country Status (1)

Country Link
CN (1) CN109308142B (zh)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0887233A (ja) * 1994-09-14 1996-04-02 Ishikawajima Harima Heavy Ind Co Ltd 操船シミュレータ
CN1356612A (zh) * 2002-01-10 2002-07-03 钟德超 一个控制器带多个触摸屏的触摸***
CN2704880Y (zh) * 2004-04-19 2005-06-15 钟德超 触摸屏分配器
CN201853162U (zh) * 2010-08-13 2011-06-01 苏州瀚瑞微电子有限公司 双屏计算机
CN105892895A (zh) * 2015-10-23 2016-08-24 乐卡汽车智能科技(北京)有限公司 多指滑动手势的识别方法、装置及终端设备
CN106569613A (zh) * 2016-11-14 2017-04-19 中国电子科技集团公司第二十八研究所 一种多模态人机交互***及其控制方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0887233A (ja) * 1994-09-14 1996-04-02 Ishikawajima Harima Heavy Ind Co Ltd 操船シミュレータ
CN1356612A (zh) * 2002-01-10 2002-07-03 钟德超 一个控制器带多个触摸屏的触摸***
CN2704880Y (zh) * 2004-04-19 2005-06-15 钟德超 触摸屏分配器
CN201853162U (zh) * 2010-08-13 2011-06-01 苏州瀚瑞微电子有限公司 双屏计算机
CN105892895A (zh) * 2015-10-23 2016-08-24 乐卡汽车智能科技(北京)有限公司 多指滑动手势的识别方法、装置及终端设备
CN106569613A (zh) * 2016-11-14 2017-04-19 中国电子科技集团公司第二十八研究所 一种多模态人机交互***及其控制方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
"Linux获取触控设备信息,查看触控数据";Alex--hao;《https://blog.csdn.net/hxszk/article/details/80420793》;20180523;正文1-3页 *
关于原始输入;__Ihy;《CSDN》;20110501;全文 *

Also Published As

Publication number Publication date
CN109308142A (zh) 2019-02-05

Similar Documents

Publication Publication Date Title
TWI413922B (zh) 觸控板之控制方法與應用該方法之觸控裝置
US6791536B2 (en) Simulating gestures of a pointing device using a stylus and providing feedback thereto
US8717323B2 (en) Determining when a touch is processed as a mouse event
US20110018828A1 (en) Touch device, control method and control unit for multi-touch environment
CN106970720B (zh) 一种虚拟仿真器及单机多鼠标独立并行操控方法
US9454257B2 (en) Electronic system
CN101609380A (zh) 一种在触摸屏上文件操作的方法
CN102253744B (zh) 触控板的控制方法以及应用该方法的触控装置
US20120297336A1 (en) Computer system with touch screen and associated window resizing method
US9128609B2 (en) Touch interpretive architecture and touch interpretive method by using multi-fingers gesture to trigger application program
WO2018177157A1 (zh) 一种移动终端的字符输入方法及移动终端
TWI401585B (zh) 具指標器之電子裝置及指標器操作方法
CN103150103B (zh) 手势操作物件与视窗的方法及***
WO2019185007A1 (zh) 一种窗口控制栏的布局方法、装置及设备
TW201346656A (zh) 觸控輸入裝置的訊號發送方法
CN103472931A (zh) 鼠标仿真触控屏幕操作的方法
CN109308142B (zh) 单主机多触控屏人机交互***及其实现方法
US10365736B2 (en) Morphing pad, system and method for implementing a morphing pad
TWI638282B (zh) 行動裝置、電腦輸入系統及電腦程式產品
US20200050314A1 (en) Touch sensing method, electronic device and non-transitory computer readable recording medium device
CN110727522A (zh) 一种控制方法及电子设备
KR101381878B1 (ko) 마우스를 이용하여 터치 입력을 구현하기 위한 방법, 장치, 및 컴퓨터 판독 가능한 기록 매체
CN111078112A (zh) 终端设备控制方法、装置、计算机设备及存储介质
JP2008152572A (ja) 電子装置のタッチパネル機能拡充システム、その方法、及びその電子装置
CN115016703B (zh) 扩展屏幕模式下选择应用程序显示屏幕的控制方法及***

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant