CN112181211A - 触控定位方法、装置及终端设备 - Google Patents
触控定位方法、装置及终端设备 Download PDFInfo
- Publication number
- CN112181211A CN112181211A CN201910594180.3A CN201910594180A CN112181211A CN 112181211 A CN112181211 A CN 112181211A CN 201910594180 A CN201910594180 A CN 201910594180A CN 112181211 A CN112181211 A CN 112181211A
- Authority
- CN
- China
- Prior art keywords
- touch
- target
- point
- area
- depth camera
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/042—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
- G06F3/0425—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/0416—Control or interface arrangements specially adapted for digitisers
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本发明适用于触控技术领域,提供了触控定位方法、装置及终端设备,包括:通过深度相机获取在目标触控区域上检测到的触控点的三维信息,所述深度相机位于所述目标触控区域外部,且所述深度相机的拍摄方向为所述目标触控区域的坐标原点指向所述目标触控区域的中心点的方向;基于所述触控点的三维信息,计算所述触控点所在向量与所述目标触控区域的水平坐标轴所在向量之间的夹角,其中所述触控点所在向量为由所述目标触控区域的坐标原点指向所述触控点的向量;基于所述触控点的三维信息及所述夹角,得到所述触控点在所述目标触控区域上的坐标。本发明能够降低触控定位的成本。
Description
技术领域
本发明属于触控技术领域,尤其涉及一种触控定位方法、装置及终端设备。
背景技术
随着科技的发展,触控技术越来越被广泛应用,例如手机、平板电脑等智能终端都离不开触控技术的支持,用户在终端屏幕上进行触控操作就能触发相应的功能。
现有的触控技术一般是在智能终端上集成电容或电阻触摸屏,或者集成红外定位***,从而识别定位用户在屏幕上的触控手势,触发相应的操作。然而这两种方式都需要终端设备上预先集成元器件,存在着硬件成本高、精度低的缺陷。
发明内容
有鉴于此,本发明实施例提供了触控定位方法、装置及终端设备,以解决现有技术中如何降低触控定位的硬件成本同时提高触控定位的精度及便捷性的问题。
本发明实施例的第一方面提供了一种触控定位方法,包括:
通过深度相机获取在目标触控区域上检测到的触控点的三维信息,所述深度相机位于所述目标触控区域外部,且所述深度相机的拍摄方向为所述目标触控区域的坐标原点指向所述目标触控区域的中心点的方向;
基于所述触控点的三维信息,计算所述触控点所在向量与所述目标触控区域的水平坐标轴所在向量之间的夹角,其中所述触控点所在向量为由所述目标触控区域的坐标原点指向所述触控点的向量;
基于所述触控点的三维信息及所述夹角,得到所述触控点在所述目标触控区域上的坐标。
本发明实施例的第二方面提供了一种触控定位***,所述***包括触控定位装置及目标设备,所述触控定位装置与所述目标设备通过有线或者无线的方式相连接,其中:
所述触控定位装置,用于执行如上述触发定位方法的步骤;
所述目标设备,用于获取所述触控定位装置发送的触控点坐标,根据所述触控点坐标执行目标操作。
本发明实施例的第三方面提供了一种终端设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现如所述触控定位方法的步骤。
本发明实施例的第四方面提供了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现如所述触控定位方法的步骤。
本发明实施例与现有技术相比存在的有益效果是:本发明实施例中,通过深度相机在目标触控区域上检测到的触控点的三维信息,计算触控点在目标触控区域上的坐标,由于无需提前在目标触控区域上集成元器件,因此可以降低触控定位的硬件成本,提高触控定位的便捷性;同时,由于通过深度相机中获取到的三维信息计算触控点在目标触控区域上的坐标,使得计算出的坐标精度更高,因此能够提高触控定位的精度。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明实施例提供的第一种触控定位方法的实现流程示意图;
图2是本发明实施例提供的一种触控点所在向量与目标触控区域的水平坐标轴所在向量之间的夹角的示意图;
图3是本发明实施例提供的第二种触控定位方法的实现流程示意图;
图4是本发明实施例提供的第一种平面坐标系示意图;
图5是本发明实施例提供的第二种平面坐标系示意图;
图6是本发明实施例提供的第三种平面坐标系示意图;
图7是本发明实施例提供的第三种触控定位方法的实现流程示意图;
图8是本发明实施例提供的一种深度相机的镜头夹具安装位置示意图;
图9是本发明实施例提供的一种镜头夹具的侧视图;
图10是本发明实施例提供的第四种触控定位方法的实现流程示意图;
图11是本发明实施例提供的一种触控定位***的***结构示意图;
图12是本发明实施例提供的终端设备的示意图。
具体实施方式
以下描述中,为了说明而不是为了限定,提出了诸如特定***结构、技术之类的具体细节,以便透彻理解本发明实施例。然而,本领域的技术人员应当清楚,在没有这些具体细节的其它实施例中也可以实现本发明。在其它情况中,省略对众所周知的***、装置、电路以及方法的详细说明,以免不必要的细节妨碍本发明的描述。
为了说明本发明所述的技术方案,下面通过具体实施例来进行说明。
应当理解,当在本说明书和所附权利要求书中使用时,术语“包括”指示所描述特征、整体、步骤、操作、元素和/或组件的存在,但并不排除一个或多个其它特征、整体、步骤、操作、元素、组件和/或其集合的存在或添加。
还应当理解,在此本申请说明书中所使用的术语仅仅是出于描述特定实施例的目的而并不意在限制本申请。如在本申请说明书和所附权利要求书中所使用的那样,除非上下文清楚地指明其它情况,否则单数形式的“一”、“一个”及“该”意在包括复数形式。
还应当进一步理解,在本申请说明书和所附权利要求书中使用的术语“和/或”是指相关联列出的项中的一个或多个的任何组合以及所有可能组合,并且包括这些组合。
如在本说明书和所附权利要求书中所使用的那样,术语“如果”可以依据上下文被解释为“当...时”或“一旦”或“响应于确定”或“响应于检测到”。类似地,短语“如果确定”或“如果检测到[所描述条件或事件]”可以依据上下文被解释为意指“一旦确定”或“响应于确定”或“一旦检测到[所描述条件或事件]”或“响应于检测到[所描述条件或事件]”。
另外,在本申请的描述中,术语“第一”、“第二”、“第三”等仅用于区分描述,而不能理解为指示或暗示相对重要性。
实施例一:
图1示出了本申请实施例提供的第一种触控定位方法的流程示意图,详述如下:
在S101中,通过深度相机获取在目标触控区域上检测到的触控点的三维信息,所述深度相机位于所述目标触控区域外部,且所述深度相机的拍摄方向为所述目标触控区域的坐标原点指向所述目标触控区域的中心点的方向。
目标触控区域为接收触控操作(用户的点击、划动操作)的区域,该目标触控区域可以为指定终端设备(例如电脑、电视、手机等)的屏幕、LED电子显示屏、广告牌、玻璃橱柜的外表面、投影幕布、投影墙壁或木板等任意材质物体上的表面区域,目标触控区域的形状可以为四边形、圆形或者其它不规则形状等,此处不作限定。
目标触控区域上需提前建立二维的平面坐标系,以便表示目标触控区域上的位置信息。深度相机位于目标触控区域的外部,且深度相机的拍摄方向为所述目标触控区域的坐标原点指向所述目标触控区域的中心点的方向,以使深度相机的拍摄方向平行于目标触控区域并且拍摄范围包括目标触控区域。
当用户执行触控操作时,深度相机获取落在目标触控区域上的触控点的三维信息。具体地,触控点的三维信息为该触控点P的三维坐标P(xp,yp,zp),或者具体包括触控点P的三维坐标P(xp,yp,zp)以及触控点P的深度值d。具体地,三维坐标P(xp,yp,zp)为触控点P在深度相机的相机坐标系(相机坐标系的原点为深度相机的光心)中的坐标值,可通过深度相机生成的点云数据获得该三维坐标,该点云数据可以由深度相机直接生成或者根据深度相机拍摄的深度图转换得到,或者根据深度相机检测到的深度信息结合其它物理参数计算得到。
可选地,所述深度相机可以为基于飞行时间(Time of Flight,TOF)的TOF深度相机、基于结构光的结构光深度相机或者双目深度相机等。优选地,所述深度相机为TOF深度相机。由于结构光深度相机和双目深度相机都需要在获取图像信息后再一帧一帧地分析得到图像中的深度信息才能得到点云数据,需要用算法处理大量的图像,而TOF深度相机利用的是光在空间中飞行的时间乘以光的速度的原理,直接得到被测物体的深度信息从而得到点云数据,因此TOF深度相机相对于结构光深度相机及双目深度相机的计算能耗小、三维信息的获取速度更快。
可选地,所述通过深度相机获取在目标触控区域上检测到的触控点的三维信息之前,还包括:
通过深度相机感测到所述目标触控区域所在平面有触控操作;
若对应的触控点落在所述目标触控区域之外,则结束。
由于深度相机的拍摄范围可能大于目标触控区域,即深度相机的拍摄范围还包括位于目标触控区域所在的平面但在目标触控区域之外的区域,因此当深度相机感测到触控点时,判断该触控点是否落在目标触控区域内。若该触控点落在目标触控区域内,则继续接下来的执行步骤。若该触控点落在目标触控区域之外,则直接结束,不执行接下来的坐标转换步骤。具体地,可以获取该触控点的三维坐标以及目标触控区域对应的边界点的三维坐标,判断该触控点的三维坐标是否落在目标触控区域对应的边界点的三维坐标的范围内,若不是,则直接结束。
在S102中,基于所述触控点的三维信息,计算所述触控点所在向量与所述目标触控区域的水平坐标轴所在向量之间的夹角,其中所述触控点所在向量为由所述目标触控区域的坐标原点指向所述触控点的向量。
如图2所示,基于触控点P的三维信息,具体地,基于触控点P的三维坐标P(xp,yp,zp)和目标触控区域的坐标原点O(xo,yo,zo),确定触控点所在向量触控点所在向量为由所述目标触控区域的坐标原点指向所述触控点的向量
目标触控区域的水平坐标轴所在向量具体为以目标触控区域的坐标原点为起点,以任一确定的、落在目标触控区域的水平坐标轴的正半轴上的点为终点的向量。如图2所示,根据目标触控区域的平面坐标系XOY上的水平坐标轴X的正半轴上的一点k确定目标触控区域的水平坐标轴所在向量
在步骤S103中,基于所述触控点的三维信息及所述夹角,得到所述触控点在所述目标触控区域上的坐标。
基于触控点的三维信息获得触控点与目标触控区域的坐标原点的距离,根据该距离L及夹角∠POk,求得触控点在目标触控区域上的坐标。
具体地,所述步骤S103包括:
基于所述触控点的三维信息及目标触控区域的坐标原点的三维信息,得到所述触控点与所述目标触控区域的坐标原点的距离;
根据所述距离及所述夹角,得到所述触控点在所述目标触控区域上的坐标。
根据距离L及夹角∠POk,求得触控点在目标触控区域上的触点坐标(XP,YP),其中:
Xp=L×cot∠POk
Yp=L×tan∠POk。
本发明实施例中,通过深度相机在目标触控区域上检测到的触控点的三维信息,计算触控点在目标触控区域上的坐标,由于无需提前在目标触控区域上集成元器件,因此可以降低触控定位的硬件成本,提高触控定位的便捷性;同时,由于通过深度相机中获取到的三维信息计算触控点在目标触控区域上的坐标,使得计算出的坐标精度更高,因此能够提高触控定位的精度。
实施例二:
图3示出了本申请实施例提供的第二种触控定位方法的流程示意图,详述如下:
在S301中,在待检测平面上设置深度相机。
待检测平面为指定的目标物体上的平面,例如,终端设备(如电脑、电视、手机等)的屏幕、LED电子显示屏、广告牌、玻璃橱柜、投影幕布、投影墙壁或者木板等任意材质的目标物体的外表面的所在平面。在待测平面上设置深度相机,以使得深度相机能够拍摄待检测平面上的触控点。
在S302中,设定所述深度相机的拍摄区域,所述深度相机的拍摄区域中的每一点到所述待检测平面上的垂直距离小于预设距离,且大于或者等于0。
设定深度相机的拍摄区域,该拍摄区域中的每一点到待检测平面上的垂直距离小于预设距离且大于或者等于0,该预设距离可以为几毫米,例如5mm,使得深度相机只检测贴近待检测平面((垂直距离大于0且小于预设距离的情况)或者刚好落在待检测平面(垂直距离等于0的情况)的触点信息,从而使得深度相机对触控点的检测更加准确。
具体地,可以通过软件设定深度相机的拍摄敏感区或者通过硬件限制镜头视野的方式来约束拍摄区域中的每一点与待检测平面的垂直距离。或者,还可以通过让深度相机采用特定的拍摄芯片,例如epc901的TOF芯片,其拍摄的图像为1000*1的像素规格,从而使得无需通过软件或硬件设定,该深度相机就自动地只拍摄与待检测平面的垂直距离为1个像素以内的图像,即自动限定了深度相机拍摄到的点与待检测平面的垂直距离。
在S303中,基于所述深度相机的拍摄区域在所述待检测平面上确定所述目标触控区域,所述拍摄区域至少包括所述目标触控区域。
通过深度相机获取在拍摄区域内的界定操作,在待检测平面上确定目标触控区域,即目标触控区域是通过在拍摄区域内检测到的操作而划定的有效触控区域,因此拍摄区域包括目标触控区域,拍摄区域还可以包括目标触控区域之外的区域。
可以通过发出语音或者文字显示信息的提示方式,提示用户在拍摄区域内的待检测平面上进行界定操作从而界定目标触控区域的边界,该界定操作为根据提示在待检测平面上执行的触控操作,可包括在目标物体上的点击、划动操作等。可选地,在发出该提示之前,可以接收目标触控区域类型选择指令。若用户选择的目标触控区域类型为四边形,则提示用户在待检测平面上的四个目标顶点上进行点击,从而根据在四个目标顶点上的触点信息划定四边形目标触控区域;若用户选择的目标触控区域类型为圆形,则提示用户依次在待检测平面上点击目标圆心及目标圆上点,从而根据目标圆心及目标圆上点的触点信息划定圆形目标触控区域。若用户未进行选择,则默认目标触控区域类型为四边形。
在确定目标触控区域后,还包括:建立所述目标触控区域的平面坐标系。为了便于坐标计算,当目标触控区域为四边形时,可以目标触控区域的一个顶点为坐标原点O,以四边形目标触控区域的一条边界线所在的直线作为其中的一个坐标轴建立平面坐标系,如图4所示;当目标触控区域为矩形时,以目标触控区域的一个顶点为坐标原点O,以矩形目标触控区域的两直角边所在的直线分别作为两个坐标轴建立平面坐标系,如图5所示;当目标触控区域为圆形时,可以以圆形目标触控区域的两条垂直相交的切线的交点作为坐标原点O,以这两条切线所在的直线分别作为两个坐标轴建立平面坐标系,如图6所示。
在S304中,通过深度相机获取在目标触控区域上检测到的触控点的三维信息,所述深度相机位于所述目标触控区域外部,且所述深度相机的拍摄方向为所述目标触控区域的坐标原点指向所述目标触控区域的中心点的方向。
本实施例中S304与实施例一中的S101相同,具体请参阅实施例一中S101的相关描述,此处不赘述。
在S305中,基于所述触控点的三维信息,计算所述触控点所在向量与所述目标触控区域的水平坐标轴所在向量之间的夹角,其中所述触控点所在向量为由所述目标触控区域的坐标原点指向所述触控点的向量。
本实施例中S305与实施例一中的S102相同,具体请参阅实施例一中S102的相关描述,此处不赘述。
在S306中,基于所述触控点的三维信息及所述夹角,得到所述触控点在所述目标触控区域上的坐标。
本实施例中S306与实施例一中的S103相同,具体请参阅实施例一中S103的相关描述,此处不赘述。
本发明实施例中,通过深度相机在目标触控区域上检测到的触控点的三维信息,计算触控点在目标触控区域上的坐标,由于无需提前在目标触控区域上集成元器件,因此可以降低触控定位的硬件成本,提高触控定位的便捷性;同时,由于通过深度相机中获取到的三维信息计算触控点在目标触控区域上的坐标,使得计算出的坐标精度更高,因此能够提高触控定位的精度;另外,通过设定拍摄区域,确定目标触控区域,可以使触点的检测、坐标获取更加准确。
实施例三:
图7示出了本申请实施例提供的第三种触控定位方法的流程示意图,详述如下:
在S701中,在待检测平面上设置深度相机。
本实施例中S701与实施例二中的S301相同,具体请参阅实施例二中S301的相关描述,此处不赘述。
在S702中,设定所述深度相机的拍摄区域,且所述深度相机的拍摄区域中的每一点到所述待检测平面上的垂直距离小于预设距离,且大于或者等于0。
本实施例中S702与实施例二中的S302相同,具体请参阅实施例二中S302的相关描述,此处不赘述。
可选地,所述设定所述深度相机的拍摄区域,包括:
通过在所述深度相机安装镜头夹具设定拍摄区域,所述镜头夹具的缝隙小于第二预设值。
如图8所示,在深度相机81上安装镜头夹具82,该镜头夹具的缝隙小于第二预设值,以约束拍摄区域为与待检测平面的垂直距离小于第二预设值的区域。该第二预设值可以为几毫米,例如5mm,使得深度相机只检测贴近待检测平面上的触点信息,从而使得深度相机对触控点的检测更加准确。该第二预设值可以与实施例二中所述的预设距离相等。
具体地,该镜头夹具82为中空结构,如图9所示,AB端为镜头夹具靠近深度相机镜头的一端,镜头夹具远离深度相机的一端形成缝隙EFGH,该缝隙的宽度为几个毫米,例如5mm,且该缝隙所约束的近似平面与待检测平面平行,具体地可以标定GE所在的平面与待检测平面平行。设待检测平面为y=y0平面,该缝隙的宽度为m,通过该缝隙约束拍摄区域为与待检测平面的垂直距离小于m的区域,拍摄区域内的三维坐标的x值、z值为任意值,y值满足y0≤y≤y0+m,即拍摄区域为在y=y0平面及y=y0+m两个平面之间围成的空间区域(包括这两个平面)。安装镜头夹具82后,深度相机拍摄到的深度图像如图9的abcd区域所示,其中efgh区域为缝隙EFGH约束拍摄区域后对应的深度图像区域,深度图像中,只有efgh区域具有深度信息,而abge区域及hfcd区域为落在约束的拍摄区域之外的空间对应的深度图像区域,因而不具有深度信息。
在S703中,根据所述深度相机所在位置在所述待检测平面上确定第一目标点,所述深度相机与所述第一目标点之间的水平距离小于第一预设值。
如图8所示,根据深度相机的所在位置,在待检测平面上确定与该深度相机的水平距离小于第一预设值的第一目标点o。即第一目标点o为位于深度相机附近,使得深度相机的镜头与目标触控区域的坐标原点o之间的距离小于第一预设值,从而使得深度相机的拍摄区域靠近目标触控区域。例如,该第一预设值可以为1毫米。该第一预设值可通过接收用户的第一预设值设定指令获得。其中,深度相机的拍摄方向为坐标原点o指向四边形目标触控区域中心的方向。
在S704中,根据所述深度相机所在位置在所述待检测平面上确定第二目标点、第三目标点及第四目标点,将所述第一目标点、第二目标点、第三目标点及第四目标点连线围成一矩形区域,以所述矩形区域作为所述目标触控区域,以所述第一目标点作为所述目标触控区域的坐标原点。
如图8所示,以屏幕所在平面为待检测平面,根据深度相机所在位置,在拍摄区域内,依次在待检测平面上确定第二目标点i、第三目标点j及第四目标点k。确定四个目标点之后,将四个目标点作为矩形的四个顶点,连线形成矩形区域,以该矩形区域作为目标触控区域。如图8所示,由o、i、j、k四个目标点组成的矩形区域oijk即为目标触控区域。
并且,以第一目标点作为目标触控区域的坐标原点,在目标触控区域上建立平面直角坐标系。例如,如图8所示,以点o作为目标触控区域的坐标原点,以o到k的方向为X轴正方向,线段ok所在直线作为目标触控区域的X轴,以o到i的方向作为Y轴正方向,线段oi所在直线作为目标触控区域的Y轴,建立目标触控区域的平面直角坐标系。
在S705中,获取所述第一目标点、第二目标点、第三目标点及第四目标点的三维坐标。
确定目标触控区域后,获取第一目标点o的三维坐标,该第一目标点的三维坐标即为目标触控区域的坐标原点的三维坐标O(xo,yo,zo),以便于后续计算触控点与目标触控区域的坐标原点的距离及确定触控点P所在向量同时,根据第一目标点o的三维坐标O(xo,yo,zo)及第四目标点k的三维坐标k(xk,yk,zk),确定目标触控区域的水平坐标轴所在向量并且,还可获取第二目标点、第三目标点的三维坐标,以约束之后的触控点落在这四个目标点的三维坐标构成的空间范围内,才执行坐标转换操作。
可选地,可直接在步骤S703中确定第一目标点以及在步骤S704中确定第二目标点、第三目标点及第四目标点的同时获取该目标点的三维坐标,从而省去步骤S705。
在S706中,通过深度相机获取在目标触控区域上检测到的触控点的三维信息,所述深度相机位于所述目标触控区域外部,且所述深度相机的拍摄方向为所述目标触控区域的坐标原点指向所述目标触控区域的中心点的方向。
本实施例中S706与实施例一中的S101相同,具体请参阅实施例一中S101的相关描述,此处不赘述。
在S707中,基于所述触控点的三维信息,计算所述触控点所在向量与所述目标触控区域的水平坐标轴所在向量之间的夹角,其中所述触控点所在向量为由所述目标触控区域的坐标原点指向所述触控点的向量。
本实施例中S707与实施例一中的S102相同,具体请参阅实施例一中S102的相关描述,此处不赘述。
在S708中,基于所述触控点的三维信息及所述夹角,得到所述触控点在所述目标触控区域上的坐标。
本实施例中S708与实施例一中的S103相同,具体请参阅实施例一中S103的相关描述,此处不赘述。
本发明实施例中,具体以矩形区域作为目标触控区域,通过确定四个目标点确定目标触控区域,由于无需提前在目标触控区域上集成元器件,因此可以降低在目标触控区域上进行触控定位的硬件成本,提高触控定位的便捷性;同时,由于通过深度相机中获取到的三维信息计算触控点在目标触控区域上的坐标,使得计算出的坐标精度更高,因此能够提高触控定位的精度。
实施例四:
图10示出了本申请实施例提供的第四种触控定位方法的流程示意图,详述如下:
在S1001中,通过深度相机获取在目标触控区域上检测到的触控点的三维信息,所述深度相机位于所述目标触控区域外部,且所述深度相机的拍摄方向为所述目标触控区域的坐标原点指向所述目标触控区域的中心点的方向。
本实施例中S1001与实施例一中的S101相同,具体请参阅实施例一中S101的相关描述,此处不赘述。
在S1002中,基于所述触控点的三维信息,计算所述触控点所在向量与所述目标触控区域的水平坐标轴所在向量之间的夹角,其中所述触控点所在向量为由所述目标触控区域的坐标原点指向所述触控点的向量。
本实施例中S1002与实施例一中的S102相同,具体请参阅实施例一中S102的相关描述,此处不赘述。
在S1003中,基于所述触控点的三维信息及所述夹角,得到所述触控点在所述目标触控区域上的坐标。
本实施例中S1003与实施例一中的S103相同,具体请参阅实施例一中S103的相关描述,此处不赘述。
在S1004中,将所述触控点在所述目标触控区域上的坐标发送至目标设备,指示所述目标设备执行目标操作。
将待测点P在目标触控区域上的坐标(Xp,Yp)通过有线或者无线的方式发送至目标设备,指示该目标设备执行目标操作。例如,该目标设备接收到该触点坐标后,将该坐标转换为目标设备的逻辑坐标,让其触发相应的点击打开文件、画图、图片放大缩小等目标操作。可选地,将所述触点坐标发送至目标设备后,目标设备将该坐标转换为目标设备的逻辑坐标,并将逻辑坐标以特定的图标方式在目标设备的显示屏上显示,指示目标设备执行目标操作(即相当于鼠标功能)。该目标设备可以为电脑、手机、电视、服务器等终端设备,此处不做限定。
本发明实施例中,通过深度相机在目标触控区域上检测到的触点的三维信息,计算触点在目标触控区域上的触点坐标,再发送给目标设备进行处理,由于无需提前在目标触控区域上集成元器件,因此可以降低触控定位的硬件成本,提高触控定位的便捷性;同时,由于通过深度相机中获取到的三维信息计算触点坐标,使得计算出的触点坐标精度更高,因此能够提高触控定位的精度。
应理解,上述实施例中各步骤的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本发明实施例的实施过程构成任何限定。
实施例五:
图11示出了本申请实施例提供的一种触控定位***的结构示意图,为了便于说明,仅示出了与本申请实施例相关的部分:
该触控定位***11包括触控定位装置111及目标设备112,且所述触控定位装置111与目标设备112通过有线或者无线的方式连接。例如触控定位装置111可以通过数据线与目标设备112相连接,也可以通过蓝牙、WiFi、Zigbee等无线的方式连接以便进行数据传输。
触控定位装置111包括:触控点三维信息获取单元1111、夹角计算单元1112、触控点平面坐标确定单元1113。其中:
触控点三维信息获取单元1111,用于通过深度相机获取在目标触控区域上检测到的触控点的三维信息,所述深度相机位于所述目标触控区域外部,且所述深度相机的拍摄方向为所述目标触控区域的坐标原点指向所述目标触控区域的中心点的方向。
目标触控区域为接收触控操作(用户的点击、划动操作)的区域,该目标触控区域可以为指定终端设备(例如电脑、电视、手机等)的屏幕、LED电子显示屏、广告牌、玻璃橱柜的外表面、投影幕布、投影墙壁或木板等任意材质物体的表面区域,目标触控区域的形状可以为四边形、圆形或者其它不规则形状等,此处不作限定。
目标触控区域上需提前建立二维的平面坐标系,以便表示目标触控区域上的位置信息。深度相机位于目标触控区域的外部,且深度相机的拍摄方向为所述目标触控区域的坐标原点指向所述目标触控区域的中心点的方向,以使深度相机的拍摄方向平行于目标触控区域并且拍摄范围包括目标触控区域。
当用户在目标触控区域上执行触控操作时,深度相机检测到落在目标触控区域上的触控点P,获取该触控点的三维信息。具体地,触控点的三维信息为该触控点P的三维坐标P(xp,yp,zp),或者具体包括触控点P的三维坐标P(xp,yp,zp)以及触控点P的深度值d。具体地,三维坐标P(xp,yp,zp)为触控点P在深度相机的相机坐标系(相机坐标系的原点为深度相机的光心)中的坐标值,可通过深度相机生成的点云数据获得该三维坐标,该点云数据可以由深度相机直接生成或者根据深度相机拍摄的深度图转换得到,或者根据深度相机检测到的深度信息结合其它物理参数计算得到。
夹角计算单元1112,用于基于所述触控点的三维信息,计算所述触控点所在向量与所述目标触控区域的水平坐标轴所在向量之间的夹角,其中所述触控点所在向量为由所述目标触控区域的坐标原点指向所述触控点的向量。
如图2所示,基于触控点P的三维信息,具体地,基于触控点P的三维坐标P(xp,yp,zp)和目标触控区域的坐标原点O(xo,yo,zo),确定触控点所在向量触控点所在向量为由所述目标触控区域的坐标原点指向所述触控点的向量
目标触控区域的水平坐标轴所在向量具体为以目标触控区域的坐标原点为起点,以任一确定的、落在目标触控区域的水平坐标轴的正半轴上的点为终点的向量。如图2所示,根据目标触控区域的平面坐标系XOY上的水平坐标轴X的正半轴上的一点k确定目标触控区域的水平坐标轴所在向量
触控点平面坐标确定单元1113,用于基于所述触控点的三维信息及所述夹角,得到所述触控点在所述目标触控区域上的坐标。
基于触控点的三维信息获得触控点与目标触控区域的坐标原点的距离,根据该距离L及夹角∠POk,求得触控点在目标触控区域上的坐标。
具体地,触控点平面坐标确定单元1113包括距离确定模块及坐标计算模块:
距离确定模块,用于基于所述触控点的三维信息及目标触控区域的坐标原点的三维信息,得到所述触控点与所述目标触控区域的坐标原点的距离;
坐标计算模块,用于根根据所述距离及所述夹角,得到所述触控点在所述目标触控区域上的坐标。
可选地,所述触控定位装置111还包括设置单元、拍摄区域设定单元及目标触控区域确定单元:
设置单元,用于在待检测平面上设置深度相机;
拍摄区域设定单元,用于设定所述深度相机的拍摄区域,所述深度相机的拍摄区域中的每一点到所述待检测平面上的垂直距离小于预设距离,且大于或者等于0;
目标触控区域确定单元,用于基于所述深度相机的拍摄区域在所述待检测平面上确定所述目标触控区域,所述拍摄区域至少包括所述目标触控区域。
可选地,所述目标触控区域确定单元包括第一目标点确定模块、目标触控区域确定模块以及目标点坐标确定模块:
第一目标点确定模块,用于根据所述深度相机所在位置在所述待检测平面上确定第一目标点,所述深度相机与所述第一目标点之间的水平距离小于第一预设值;
目标触控区域确定模块,用于根据所述深度相机所在位置在所述待检测平面上确定第二目标点、第三目标点及第四目标点,将所述第一目标点、第二目标点、第三目标点及第四目标点连线围成一矩形区域,以所述矩形区域作为所述目标触控区域,以所述第一目标点作为所述目标触控区域的坐标原点;
目标点坐标确定模块,用于获取所述第一目标点、第二目标点、第三目标点及第四目标点的三维坐标。
可选地,所述拍摄区域设定单元具体用于通过在所述深度相机安装镜头夹具设定拍摄区域,所述镜头夹具的缝隙小于第二预设值。
可选地,所述触控定位装置111还包括感测单元及判断单元:
感测单元,用于通过深度相机感测到所述目标触控区域所在平面有触控操作;
判断单元,用于若对应的触控点落在所述目标触控区域之外,则结束。
可选地,所述触控定位装置111还包括:
发送单元,用于将所述触控点在所述目标触控区域上的坐标发送至目标设备,指示所述目标设备执行目标操作。
目标设备112包括:
接收单元1121,用于获取所述触控定位装置发送的触控点坐标,根据所述触点坐标执行目标操作。
具体地,接收单元包括接收模块和目标操作执行模块:
接收模块,用于获取触控定位装置发送的触控点坐标,并将该触点坐标转换为目标设备的逻辑坐标。
目标操作执行模块,用于根据转换得到的目标设备的逻辑坐标,执行目标操作。
该目标设备可以为电脑、手机、电视、服务器等终端设备,此处不做限定。接收模块以有线或者无线的数据传输方式获取触控定位装置发送的触控点坐标,并将该触控点坐标转换为目标设备的逻辑坐标。触控点坐标为触控点在目标触控区域上的平面坐标系上的坐标,而对于目标设备来说,有一个自己的逻辑坐标,可以根据预存的触点坐标与目标设备的逻辑坐标的映射关系,将触点坐标转换为目标设备的逻辑坐标。
根据转换得到的逻辑坐标,在目标设备上执行例如点击打开文件、画图、图片放大缩小等目标操作。可选地,该逻辑坐标以特定的图标方式在目标设备的显示屏上显示,指示目标设备执行目标操作(即相当于鼠标功能)。
本发明实施例中,通过深度相机在目标触控区域上检测到的触点的三维信息,计算触点在目标触控区域上的触控点坐标,再由目标设备获取该触控点坐标进行处理,由于无需提前在目标触控区域上集成元器件,因此可以降低触控定位的硬件成本,提高触控定位的便捷性;同时,由于通过深度相机中获取到的三维信息计算触点坐标,使得计算出的触点坐标精度更高,因此能够提高触控定位的精度。
实施例六:
图12是本发明一实施例提供的终端设备的示意图。如图12所示,该实施例的终端设备12包括:处理器120、存储器121以及存储在所述存储器121中并可在所述处理器120上运行的计算机程序122,例如触控定位程序。所述处理器120执行所述计算机程序122时实现上述各个触控定位方法实施例中的步骤,例如图1所示的步骤S101至S103。或者,所述处理器120执行所述计算机程序122时实现上述各装置实施例中各模块/单元的功能,例如图11所示单元1111至1113的功能。
示例性的,所述计算机程序122可以被分割成一个或多个模块/单元,所述一个或者多个模块/单元被存储在所述存储器121中,并由所述处理器120执行,以完成本发明。所述一个或多个模块/单元可以是能够完成特定功能的一系列计算机程序指令段,该指令段用于描述所述计算机程序122在所述终端设备12中的执行过程。例如,所述计算机程序122可以被分割成触控点三维信息获取单元、夹角计算单元、触控点平面坐标确定单元,各单元具体功能如下:
触控点三维信息获取单元,用于通过深度相机获取在目标触控区域上检测到的触控点的三维信息,所述深度相机位于所述目标触控区域外部,且所述深度相机的拍摄方向为所述目标触控区域的坐标原点指向所述目标触控区域的中心点的方向。
夹角计算单元,用于基于所述触控点的三维信息,计算所述触控点所在向量与所述目标触控区域的水平坐标轴所在向量之间的夹角,其中所述触控点所在向量为由所述目标触控区域的坐标原点指向所述触控点的向量。
触控点平面坐标确定单元,用于基于所述触控点的三维信息及所述夹角,得到所述触控点在所述目标触控区域上的坐标。
所述终端设备12可以是桌上型计算机、笔记本、掌上电脑及云端服务器等计算设备。所述终端设备可包括,但不仅限于,处理器120、存储器121。本领域技术人员可以理解,图12仅仅是终端设备12的示例,并不构成对终端设备12的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件,例如所述终端设备还可以包括输入输出设备、网络接入设备、总线等。
所称处理器120可以是中央处理单元(Central Processing Unit,CPU),还可以是其他通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现场可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
所述存储器121可以是所述终端设备12的内部存储单元,例如终端设备12的硬盘或内存。所述存储器121也可以是所述终端设备12的外部存储设备,例如所述终端设备12上配备的插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)等。进一步地,所述存储器121还可以既包括所述终端设备12的内部存储单元也包括外部存储设备。所述存储器121用于存储所述计算机程序以及所述终端设备所需的其他程序和数据。所述存储器121还可以用于暂时地存储已经输出或者将要输出的数据。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,仅以上述各功能单元、模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能单元、模块完成,即将所述装置的内部结构划分成不同的功能单元或模块,以完成以上描述的全部或者部分功能。实施例中的各功能单元、模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中,上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。另外,各功能单元、模块的具体名称也只是为了便于相互区分,并不用于限制本申请的保护范围。上述***中单元、模块的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述或记载的部分,可以参见其它实施例的相关描述。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。
在本发明所提供的实施例中,应该理解到,所揭露的装置/终端设备和方法,可以通过其它的方式实现。例如,以上所描述的装置/终端设备实施例仅仅是示意性的,例如,所述模块或单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个***,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通讯连接可以是通过一些接口,装置或单元的间接耦合或通讯连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
所述集成的模块/单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明实现上述实施例方法中的全部或部分流程,也可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一计算机可读存储介质中,该计算机程序在被处理器执行时,可实现上述各个方法实施例的步骤。其中,所述计算机程序包括计算机程序代码,所述计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。所述计算机可读介质可以包括:能够携带所述计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、电载波信号、电信信号以及软件分发介质等。需要说明的是,所述计算机可读介质包含的内容可以根据司法管辖区内立法和专利实践的要求进行适当的增减,例如在某些司法管辖区,根据立法和专利实践,计算机可读介质不包括电载波信号和电信信号。
以上所述实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围,均应包含在本发明的保护范围之内。
Claims (10)
1.一种触控定位方法,其特征在于,包括:
通过深度相机获取在目标触控区域上检测到的触控点的三维信息,所述深度相机位于所述目标触控区域外部,且所述深度相机的拍摄方向为所述目标触控区域的坐标原点指向所述目标触控区域的中心点的方向;
基于所述触控点的三维信息,计算所述触控点所在向量与所述目标触控区域的水平坐标轴所在向量之间的夹角,其中所述触控点所在向量为由所述目标触控区域的坐标原点指向所述触控点的向量;
基于所述触控点的三维信息及所述夹角,得到所述触控点在所述目标触控区域上的坐标。
2.如权利要求1所述的触控定位方法,其特征在于,在所述通过深度相机获取在目标触控区域上检测到的触控点的三维信息之前,还包括:
在待检测平面上设置深度相机;
设定所述深度相机的拍摄区域,所述深度相机的拍摄区域中的每一点到所述待检测平面上的垂直距离小于预设距离,且大于或者等于0;
基于所述深度相机的拍摄区域在所述待检测平面上确定所述目标触控区域,所述拍摄区域至少包括所述目标触控区域。
3.如权利要求2所述的触控定位方法,其特征在于,基于所述深度相机的拍摄区域在所述待检测平面上确定所述目标触控区域,包括:
根据所述深度相机所在位置在所述待检测平面上确定第一目标点,所述深度相机与所述第一目标点之间的水平距离小于第一预设值;
根据所述深度相机所在位置在所述待检测平面上确定第二目标点、第三目标点及第四目标点,将所述第一目标点、第二目标点、第三目标点及第四目标点连线围成一矩形区域,以所述矩形区域作为所述目标触控区域,以所述第一目标点作为所述目标触控区域的坐标原点;
获取所述第一目标点、第二目标点、第三目标点及第四目标点的三维坐标。
4.如权利要求3所述的触控定位方法,其特征在于,设定所述深度相机的拍摄区域,包括:
通过在所述深度相机安装镜头夹具设定拍摄区域,所述镜头夹具的缝隙小于第二预设值。
5.如权利要求1所述的触控定位方法,其特征在于,所述通过深度相机获取在目标触控区域上检测到的触控点的三维信息之前,还包括:
通过深度相机感测到所述目标触控区域所在平面有触控操作;
若对应的触控点落在所述目标触控区域之外,则结束。
6.如权利要求1所述的触控定位方法,其特征在于,所述基于所述触控点的三维信息及所述夹角,得到所述触控点在所述目标触控区域上的坐标,包括:
基于所述触控点的三维信息及目标触控区域的坐标原点的三维信息,得到所述触控点与所述目标触控区域的坐标原点的距离;
根据所述距离及所述夹角,得到所述触控点在所述目标触控区域上的坐标。
7.如权利要求1至6任意一项所述的触控定位方法,其特征在于,在所述基于所述触控点的三维信息及所述夹角,得到所述触控点在所述目标触控区域上的坐标之后,还包括:
将所述触控点在所述目标触控区域上的坐标发送至目标设备,指示所述目标设备执行目标操作。
8.一种触控定位***,其特征在于,所述***包括触控定位装置及目标设备,所述触控定位装置与所述目标设备通过有线或者无线的方式相连接,其中:
所述触控定位装置,用于执行如权利要求1至7任意一项方法;
所述目标设备,用于获取所述触控定位装置发送的触控点坐标,根据所述触控点坐标执行目标操作。
9.一种终端设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1至7任一项所述方法的步骤。
10.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至7任一项所述方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910594180.3A CN112181211A (zh) | 2019-07-03 | 2019-07-03 | 触控定位方法、装置及终端设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910594180.3A CN112181211A (zh) | 2019-07-03 | 2019-07-03 | 触控定位方法、装置及终端设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112181211A true CN112181211A (zh) | 2021-01-05 |
Family
ID=73914930
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910594180.3A Pending CN112181211A (zh) | 2019-07-03 | 2019-07-03 | 触控定位方法、装置及终端设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112181211A (zh) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103207709A (zh) * | 2013-04-07 | 2013-07-17 | 布法罗机器人科技(苏州)有限公司 | 一种多点触摸***及方法 |
CN105373266A (zh) * | 2015-11-05 | 2016-03-02 | 上海影火智能科技有限公司 | 一种新型的基于双目视觉的交互方法和电子白板*** |
CN106095199A (zh) * | 2016-05-23 | 2016-11-09 | 广州华欣电子科技有限公司 | 一种基于投影屏幕的触控定位方法及*** |
CN106125994A (zh) * | 2016-06-17 | 2016-11-16 | 深圳迪乐普数码科技有限公司 | 坐标匹配方法及使用该坐标匹配方法的操控方法和终端 |
-
2019
- 2019-07-03 CN CN201910594180.3A patent/CN112181211A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103207709A (zh) * | 2013-04-07 | 2013-07-17 | 布法罗机器人科技(苏州)有限公司 | 一种多点触摸***及方法 |
CN105373266A (zh) * | 2015-11-05 | 2016-03-02 | 上海影火智能科技有限公司 | 一种新型的基于双目视觉的交互方法和电子白板*** |
CN106095199A (zh) * | 2016-05-23 | 2016-11-09 | 广州华欣电子科技有限公司 | 一种基于投影屏幕的触控定位方法及*** |
CN106125994A (zh) * | 2016-06-17 | 2016-11-16 | 深圳迪乐普数码科技有限公司 | 坐标匹配方法及使用该坐标匹配方法的操控方法和终端 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11842438B2 (en) | Method and terminal device for determining occluded area of virtual object | |
US11290651B2 (en) | Image display system, information processing apparatus, image display method, image display program, image processing apparatus, image processing method, and image processing program | |
KR101900873B1 (ko) | 안테나 엔지니어링 파라미터를 획득하는 방법, 장치 및 시스템 | |
CN111381224B (zh) | 激光数据校准方法、装置及移动终端 | |
CN108965835B (zh) | 一种图像处理方法、图像处理装置及终端设备 | |
CN104081307A (zh) | 图像处理装置、图像处理方法和程序 | |
CN108134903B (zh) | 拍摄方法及相关产品 | |
CN112017133B (zh) | 一种图像展示方法、装置及电子设备 | |
CN110738185B (zh) | 表单对象的识别方法、装置及存储介质 | |
CN105426067A (zh) | 桌面图标的置换方法及装置 | |
CN106569716B (zh) | 单手操控方法及操控*** | |
CN115097975A (zh) | 用于控制视角转换的方法、装置、设备和存储介质 | |
CN110858814B (zh) | 一种智能家居设备的控制方法及装置 | |
CN112262364A (zh) | 用于生成对象的电子装置和*** | |
JP2012203440A (ja) | 情報処理装置、情報処理方法、およびプログラム | |
CN112197708B (zh) | 测量方法及装置、电子设备及存储介质 | |
WO2021004413A1 (zh) | 一种手持输入设备及其指示图标的消隐控制方法和装置 | |
CN109444905B (zh) | 一种基于激光的动态物体检测方法、装置及终端设备 | |
CN112181211A (zh) | 触控定位方法、装置及终端设备 | |
KR20130085094A (ko) | 유저 인터페이스 장치 및 유저 인터페이스 제공 방법 | |
CN112308768B (zh) | 一种数据处理方法、装置、电子设备以及存储介质 | |
CN109308113A (zh) | 非接触式输入装置及方法、能进行非接触式输入的显示器 | |
CN109472873B (zh) | 三维模型的生成方法、装置、硬件装置 | |
CN112308767A (zh) | 一种数据展示方法、装置、存储介质以及电子设备 | |
KR20220053394A (ko) | 웨어러블 표시 장치에 복수의 오브젝트들 표시 제어 방법 및 장치 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20210105 |
|
RJ01 | Rejection of invention patent application after publication |