CN105929954A - 一种控制光标的方法及装置、显示设备 - Google Patents

一种控制光标的方法及装置、显示设备 Download PDF

Info

Publication number
CN105929954A
CN105929954A CN201610244990.2A CN201610244990A CN105929954A CN 105929954 A CN105929954 A CN 105929954A CN 201610244990 A CN201610244990 A CN 201610244990A CN 105929954 A CN105929954 A CN 105929954A
Authority
CN
China
Prior art keywords
display screen
user
coordinate position
cursor
plane
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201610244990.2A
Other languages
English (en)
Other versions
CN105929954B (zh
Inventor
王鑫
杨凡
韩雪琳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
BOE Technology Group Co Ltd
Original Assignee
BOE Technology Group Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by BOE Technology Group Co Ltd filed Critical BOE Technology Group Co Ltd
Priority to CN201610244990.2A priority Critical patent/CN105929954B/zh
Publication of CN105929954A publication Critical patent/CN105929954A/zh
Priority to PCT/CN2017/079427 priority patent/WO2017181844A1/zh
Priority to US15/742,023 priority patent/US20180196530A1/en
Application granted granted Critical
Publication of CN105929954B publication Critical patent/CN105929954B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
    • G06F3/0383Signal control means within the pointing device
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1423Digital output to display device ; Cooperation and interconnection of the display device with other functional units controlling a plurality of local displays, e.g. CRT and flat panel display
    • G06F3/1446Digital output to display device ; Cooperation and interconnection of the display device with other functional units controlling a plurality of local displays, e.g. CRT and flat panel display display composed of modules, e.g. video walls
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/147Digital output to display device ; Cooperation and interconnection of the display device with other functional units using display panels
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • G06V20/653Three-dimensional objects by matching three-dimensional models, e.g. conformal mapping of Riemann surfaces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/22Character recognition characterised by the type of writing
    • G06V30/228Character recognition characterised by the type of writing of three-dimensional handwriting, e.g. writing in the air
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04803Split screen, i.e. subdividing the display area or the window area into separate subareas
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/12Overlay of images, i.e. displayed pixel being the result of switching between the corresponding input pixels
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/14Solving problems related to the presentation of information to be displayed
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2354/00Aspects of interface with display user
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2370/00Aspects of data communication
    • G09G2370/24Keyboard-Video-Mouse [KVM] switch

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Software Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

本发明公开了控制光标的方法及装置、显示设备,包括:在开启光标定位模式时,获取面向显示屏的用户特征信息,根据获取到的用户特征信息确定用户在显示屏前方的平面内的坐标位置;根据确定出的用户在显示屏前方的平面内的坐标位置,以及确定出的用户的坐标位置所在坐标系与显示屏所在坐标系的映射关系,在显示屏中确定与用户的坐标位置对应的子区域;控制显示屏中显示的光标移动至子区域内的指定位置。由于以用户的特征信息来确定用户坐标位置,从而根据用户坐标位置定位光标,使得定位后的光标出现在用户坐标位置对应的区域,使用户可快速找到光标,执行后续的操作,节省时间,保证了光标操作的方便性。

Description

一种控制光标的方法及装置、显示设备
技术领域
本发明涉及显示技术领域,尤指一种控制光标的方法及装置、显示设备。
背景技术
随着显示技术的高速发展,大尺寸拼接产品为用户带来身临其境的视觉体验,通过屏幕与实际物体的互动性给用户带来优异的显示效果,在显示市场中受到广泛欢迎。
由于现有的拼接整机***都是由拼接屏幕组成,显示尺寸较大,当***进入开机界面后等场景时,总会出现无法找到鼠标光标,而不能对***进行进一步操作的情况,为操作人员带来不必要的麻烦,浪费操作人员时间,也降低了鼠标操作的方便性。
发明内容
本发明实施例提供一种控制光标的方法及装置、显示设备,用以解决现有技术中无法快速定位鼠标光标的问题。
第一方面,本发明实施例提供一种控制光标的方法,包括:
在开启光标定位模式时,获取面向显示屏的用户特征信息,根据获取到的所述用户特征信息确定所述用户在所述显示屏前方的平面内的坐标位置;
根据确定出的所述用户在所述显示屏前方的平面内的坐标位置,以及确定出的所述用户的坐标位置所在坐标系与所述显示屏所在坐标系的映射关系,在所述显示屏中确定与所述用户的坐标位置对应的子区域,所述子区域为在所述显示屏预先划分的多个子区域中的一个子区域;
控制所述显示屏中显示的光标移动至所述子区域内的指定位置。
在一种可能的实现方式中,在本发明实施例提供的上述方法中,所述根据确定出的所述用户在所述显示屏前方的平面内的坐标位置,以及确定出的所述用户的坐标位置所在坐标系与所述显示屏所在坐标系的映射关系,在所述显示屏中确定与所述用户的坐标位置对应的子区域,包括:
根据确定出的所述用户在所述显示屏前方的平面内的坐标位置,以及确定出的所述用户的坐标位置所在坐标系与所述显示屏所在坐标系的映射关系,确定所述用户在所述显示屏所在坐标系的第一坐标位置;
根据所述第一坐标位置,以及所述显示屏预先划分的各子区域对应的坐标范围,确定所述第一坐标位置所属的子区域。
在一种可能的实现方式中,在本发明实施例提供的上述方法中,在所述控制所述显示屏中显示的光标移动至所述子区域内的指定位置之前,还包括:
获取所述光标当前在所述显示屏所在坐标系的第二坐标位置;
所述控制所述显示屏中显示的光标移动至所述子区域内的指定位置,包括:
根据所述第一坐标位置与所述第二坐标位置,确定所述光标的移动位移;
根据确定出的所述光标的移动位移,控制所述光标移动至所述子区域内的第一坐标位置。
在一种可能的实现方式中,在本发明实施例提供的上述方法中,所述显示屏为拼接屏,所述拼接屏的各子屏幕分别作为预先划分的各子区域。
在一种可能的实现方式中,在本发明实施例提供的上述方法中,所述获取面向显示屏的用户特征信息,根据获取到的所述用户特征信息确定所述用户在所述显示屏前方的平面内的坐标位置,包括:
获取包括面向所述显示屏的用户的面部特征的图像,并在获取的图像中提取所述用户面部的边缘特征;
根据提取出的所述用户面部的边缘特征,以及所述用户在所述显示屏前方的平面的坐标系,确定所述用户面部的中心点在所述显示屏前方的平面内的坐标位置,并将确定出的所述用户面部的中心点在所述显示屏前方的平面内的坐标位置作为所述用户在所述显示屏前方的平面内的坐标位置。
在一种可能的实现方式中,在本发明实施例提供的上述方法中,还包括:
在所述显示屏开机进行显示时,开启所述光标定位模式,或者,
在接收到用于控制所述光标的定位控制信号时,开启所述光标定位模式。
第二方面,本发明实施例提供一种控制光标的装置,包括:
第一确定单元,用于在开启光标定位模式时,获取面向显示屏的用户特征信息,根据获取到的所述用户特征信息确定所述用户在所述显示屏前方的平面内的坐标位置;
第二确定单元,用于根据确定出的所述用户在所述显示屏前方的平面内的坐标位置,以及确定出的所述用户的坐标位置所在坐标系与所述显示屏所在坐标系的映射关系,在所述显示屏中确定与所述用户的坐标位置对应的子区域,所述子区域为在所述显示屏预先划分的多个子区域中的一个子区域;
光标控制单元,用于控制所述显示屏中显示的光标移动至所述子区域内的指定位置。
在一种可能的实现方式中,在本发明实施例提供的上述装置中,所述第二确定单元,具体用于根据确定出的所述用户在所述显示屏前方的平面内的坐标位置,以及确定出的所述用户的坐标位置所在坐标系与所述显示屏所在坐标系的映射关系,确定所述用户在所述显示屏所在坐标系的第一坐标位置;根据所述第一坐标位置,以及所述显示屏预先划分的各子区域对应的坐标范围,确定所述第一坐标位置所属的子区域。
在一种可能的实现方式中,在本发明实施例提供的上述装置中,还包括:
获取单元,用于获取所述光标当前在所述显示屏所在坐标系的第二坐标位置;
所述光标控制单元,还用于根据所述第一坐标位置与所述第二坐标位置,确定所述光标的移动位移;根据确定出的所述光标的移动位移,控制所述光标移动至所述子区域内的第一坐标位置。
在一种可能的实现方式中,在本发明实施例提供的上述装置中,所述显示屏为拼接屏,所述拼接屏的各子屏幕分别作为预先划分的各子区域。
在一种可能的实现方式中,在本发明实施例提供的上述装置中,所述第一确定单元,具体用于获取包括面向所述显示屏的用户的面部特征的图像,并在获取的图像中提取所述用户面部的边缘特征;根据提取出的所述用户面部的边缘特征,以及所述用户在所述显示屏前方的平面的坐标系,确定所述用户面部的中心点在所述显示屏前方的平面内的坐标位置,并将确定出的所述用户面部的中心点在所述显示屏前方的平面内的坐标位置作为所述用户在所述显示屏前方的平面内的坐标位置。
在一种可能的实现方式中,在本发明实施例提供的上述装置中,还包括:
开启单元,用于在所述显示屏开机进行显示时,开启所述光标定位模式,或者,
所述开启单元,用于在接收到用于控制所述光标的控制信号时,开启所述光标定位模式。
第三方面,本发明实施例提供一种显示设备,包括上述任一种控制光标的装置。
本发明有益效果如下:
本发明实施例提供的控制光标的方法及装置、显示设备,通过在开启光标定位模式时,获取面向显示屏的用户特征信息,根据获取到的用户特征信息确定用户在显示屏前方的平面内的坐标位置;根据确定出的用户在显示屏前方的平面内的坐标位置,以及确定出的用户的坐标位置所在坐标系与显示屏所在坐标系的映射关系,在显示屏中确定与用户的坐标位置对应的子区域,子区域为在显示屏预先划分的多个子区域中的一个子区域;控制显示屏中显示的光标移动至子区域内的指定位置。本发明实施例提供的光标控制的方法及装置、显示设备,以用户的特征信息来确定用户坐标位置,从而根据用户坐标位置定位光标,使得定位后的光标出现在用户坐标位置对应的区域,使用户可快速找到光标,执行后续的操作,节省时间,保证了鼠标操作的方便性。
附图说明
图1为本发明实施例中控制光标的方法的流程图;
图2为本发明实施例中控制光标的方法的流程图;
图3为本发明实施例中控制光标的装置的结构示意图。
具体实施方式
针对现有技术中无法快速定位鼠标的光标的问题,本发明实施例提供的控制光标的方法,首先,本发明方法的流程如图1所示,执行步骤如下:
S101、在开启光标定位模式时,获取面向显示屏的用户特征信息,根据获取到的用户特征信息确定用户在显示屏前方的平面内的坐标位置;
S102、根据确定出的用户在显示屏前方的平面内的坐标位置,以及确定出的用户的坐标位置所在坐标系与显示屏所在坐标系的映射关系,在显示屏中确定与用户的坐标位置对应的子区域;
S103、控制显示屏中显示的光标移动至子区域内的指定位置。
本发明实施例提供的控制光标的方法,以用户的特征信息来确定用户坐标位置,从而根据用户坐标位置定位光标,使得定位后的光标出现在用户坐标位置对应的区域,使用户可快速找到光标执行后续的操作,节省时间,保证了光标操作的方便性。
以下对上述各步骤的具体实现方式进行详细的说明。
在上述步骤S102中,在显示屏中确定的子区域为在显示屏中预先划分的多个子区域中的一个子区域。例如,在显示屏为一大尺寸的拼接屏时,可将拼接屏的各子屏幕分别作为一个子区域。还可将拼接屏的子屏幕再分为若干区域,以最小范围的区域作为上述的子区域,提高光标定位时的精度。当然,也可将显示屏分为大范围的几个区域,以提高光标定位速度。本发明实施例不对显示屏划分区域的方式及划分区域数目进行具体限定。
具体地,在上述步骤S102中,根据确定出的用户在显示屏前方的平面内的坐标位置,以及确定出的用户的坐标位置所在坐标系与显示屏所在坐标系的映射关系,在显示屏中确定与用户的坐标位置对应的子区域,具体可以包括:
根据确定出的用户在显示屏前方的平面内的坐标位置,以及确定出的用户的坐标位置所在坐标系与显示屏所在坐标系的映射关系,确定用户在显示屏所在坐标系的第一坐标位置;
根据第一坐标位置,以及显示屏预先划分的各子区域对应的坐标范围,确定第一坐标位置所属的子区域。
在具体实施时,在显示屏所在坐标系中,需要确定出对预先划分出的各子区域的坐标范围,从而在确定了用户对应的显示屏所在坐标系中的第一坐标位置时,可快速定位出该第一坐标位置所属的子区域。显示屏前方的平面可为包括用户在内平面,该平面可与显示屏所在平面相互平行,以使该平面的坐标投影到与显示屏所在坐标系,并且该平面的坐标原点与显示屏所在平面的坐标原点对应,两平面的坐标精度保持一致,从而使得该平面上的各点对应于显示屏上的各点。此外,还可根据实际需要,将显示屏前方的平面与显示屏所在平面呈一预设角度,选择显示屏前方其它的平面与显示屏所在平面建立映射关系,例如,可以显示屏前方的平面至显示屏所在平面内的垂直投影作为两平面之间的映射关系,以使两平面内的各部分相对应。其它建立映射关系的方式,本发明实施例在此不做限定。
进一步的,在上述的步骤S103之前,本发明实施例提供的控制光标的方法,还包括如下步骤:
获取光标当前在显示屏所在坐标系的第二坐标位置。
进一步的,在上述的步骤S103中,控制显示屏中显示的光标移动至子区域内的指定位置,具体可以包括:
根据第一坐标位置与第二坐标位置,确定光标的移动位移;
根据确定出的光标的移动位移,控制光标移动至子区域内的第一坐标位置。由于上述的第一坐标位置与第二坐标位置为显示屏所在坐标系的两个点,由这两个点的坐标位置,可确定出光标需要移动的位移,从而可将第一坐标位置附于光标,使光标在新的坐标位置,即第一坐标位置进行显示,而该第一坐标位置是面向显示屏用户的位置确定出来的,因此,显示屏的光标将移动至用户当前所面向的显示屏的子区域中,从而使用户快速找到光标,保证操作光标的方便性。
在具体实施时,上述的步骤S101中,获取面向显示屏的用户特征信息,根据获取到的用户特征信息确定用户在显示屏前方的平面内的坐标位置,具体可以包括:
获取包括面向显示屏的用户的面部特征的图像,并在获取的图像中提取用户面部的边缘特征;
根据提取出的用户面部的边缘特征,以及用户在显示屏前方的平面的坐标系,确定用户面部的中心点在显示屏前方的平面内的坐标位置,并将确定出的用户面部的中心点在显示屏前方的平面内的坐标位置作为用户在显示屏前方的平面内的坐标位置。
具体地,在提取出用户的面部边缘特征之后,对提取出的边缘特征进行最小平方椭圆拟合,再结合用户面部的宽度与高度的比例关系,确定出用户的面部在显示屏前方的平面的坐标系中的阈值范围,从而在该平面内计算出用户面部中心点的坐标位置,进一步向显示屏所在坐标系进行映射,确定出上述的第一坐标位置。在具体应用时,可采用Sobel算子、Rbert算子、Prewitt算子、LOG算子或Canny算子来进行用户面部边缘特征的提取,除此之外,仍可选用其它提取用户边缘特征的算法以及计算用户面部中心点的算法,在此不做限定。根据实际需要,也可选用用户的其它部分特征信息来作为确定用户坐标位置的依据,本发明实施例均不做具体限定。
在具体实施时,本发明实施例提供的上述控制光标的方法中,还包括如下步骤:
在显示屏开机进行显示时,开启光标定位模式,或者,
在接收到用于控制光标的定位控制信号时,开启光标定位模式。例如,在接收到用户双击鼠标滚轮的定位控制信号时,开启光标定位模式;而在拉收到用户再次双击鼠标滚轮的定位控制信号时,则退出光标定位模式,可利用鼠标控制光标进行正常操作。采用键盘快捷键、控制器等其它设备来进行开启和关闭光标定位模式的方式,本发明实施例在此不做限定。
在一种可能实施的方式中,可利用本发明实施例提供的上述控制光标的方法来进行光标的快速移动。例如,在用户想要将光标快速移动至显示屏的某一位置时,可将其面部面向该位置,并开启光标定位模式,光标即可采用上述的方式,快速移动至用户面部中心点对应的显示屏中的子区域中,从而进一步提高操作光标的方便性。
如下以一实例对本发明实施例提供的控制光标的方法进行具体说明。
其具体实现流程如图2所示,具体包括以下步骤:
S201、在接收到用于控制光标的定位控制信号时,开启光标定位模式;
S202、获取包括面向显示屏的用户的面部特征的图像,并在获取的图像中提取用户面部的边缘特征;
S203、根据提取出的用户面部的边缘特征,以及用户在显示屏前方的平面的坐标系,确定用户面部的中心点在显示屏前方的平面内的坐标位置,并将确定出的用户面部的中心点在显示屏前方的平面内的坐标位置作为用户在显示屏前方的平面内的坐标位置;
S204、根据确定出的用户在显示屏前方的平面内的坐标位置,以及确定出的用户的坐标位置所在坐标系与显示屏所在坐标系的映射关系,确定用户在显示屏所在坐标系的第一坐标位置;
S205、根据第一坐标位置,以及显示屏预先划分的各子区域对应的坐标范围,确定第一坐标位置所属的子区域;
S206、控制显示屏中显示的光标移动至子区域内的指定位置。
基于同一发明构思,本发明实施例提供一种控制光标的装置,由于该装置解决问题的原理与前述一种控制光标的方法相似,因此该装置的实施可以参见方法的实施,重复之处不再赘述。
本发明实施例提供的一种控制光标的装置,结构如图3所示,具体可以包括:
第一确定单元31,用于在开启光标定位模式时,获取面向显示屏的用户特征信息,根据获取到的用户特征信息确定用户在显示屏前方的平面内的坐标位置;
第二确定单元32,用于根据确定出的用户在显示屏前方的平面内的坐标位置,以及确定出的用户的坐标位置所在坐标系与显示屏所在坐标系的映射关系,在显示屏中确定与用户的坐标位置对应的子区域,子区域为在显示屏预先划分的多个子区域中的一个子区域;
光标控制单元33,用于控制显示屏中显示的光标移动至子区域内的指定位置。
具体地,第二确定单元32,具体用于根据确定出的用户在显示屏前方的平面内的坐标位置,以及确定出的用户的坐标位置所在坐标系与显示屏所在坐标系的映射关系,确定用户在显示屏所在坐标系的第一坐标位置;根据第一坐标位置,以及显示屏预先划分的各子区域对应的坐标范围,确定第一坐标位置所属的子区域。
进一步地,本发明实施例提供的上述控制光标的装置,还包括:
获取单元34,用于获取光标当前在显示屏所在坐标系的第二坐标位置;
相应地,光标控制单元33,还用于根据第一坐标位置与第二坐标位置,确定光标的移动位移;根据确定出的光标的移动位移,控制光标移动至子区域内的第一坐标位置。
具体地,第一确定单元31,具体用于获取包括面向显示屏的用户的面部特征的图像,并在获取的图像中提取用户面部的边缘特征;根据提取出的用户面部的边缘特征,以及用户在显示屏前方的平面的坐标系,确定用户面部的中心点在显示屏前方的平面内的坐标位置,并将确定出的用户面部的中心点在显示屏前方的平面内的坐标位置作为用户在显示屏前方的平面内的坐标位置。
进一步地,本发明实施例提供的上述控制光标的装置,还包括:
开启单元35,用于在显示屏开机进行显示时,开启光标定位模式,或者,
开启单元35,用于在接收到用于控制光标的定位控制信号时,开启光标定位模式。
本发明实施例提供的一种显示设备,包括上述任一种控制光标的装置。所述显示设备可以为:液晶面板、电子纸、OLED面板、手机、平板电脑、电视机、显示器、笔记本电脑、数码相框、导航仪等任何具有显示功能的产品或部件。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到本发明实施例可以通过硬件实现,也可以借助软件加必要的通用硬件平台的方式来实现,例如,上述的各单元实现的功能可集成于处理器芯片中,并采用体感识别镜头来获取用户特征的图像,发送上述处理器芯片,从而进行用户坐标位置的确定。上述的处理器芯片还可安装于显示装置中,以使显示装置具有光标定位的功能。
本发明实施例提供的控制光标的方法及装置、显示设备,通过在开启光标定位模式时,获取面向显示屏的用户特征信息,根据获取到的用户特征信息确定用户在显示屏前方的平面内的坐标位置;根据确定出的用户在显示屏前方的平面内的坐标位置,以及确定出的用户的坐标位置所在坐标系与显示屏所在坐标系的映射关系,在显示屏中确定与用户的坐标位置对应的子区域,子区域为在显示屏预先划分的多个子区域中的一个子区域;控制显示屏中显示的光标移动至子区域内的指定位置。本发明实施例提供的光标控制的方法及装置、显示设备,以用户的特征信息来确定用户坐标位置,从而根据用户坐标位置定位光标,使得定位后的光标出现在用户坐标位置对应的区域,使用户可快速找到光标,执行后续的操作,节省时间,保证了光标操作的方便性。
显然,本领域的技术人员可以对本发明进行各种改动和变型而不脱离本发明的精神和范围。这样,倘若本发明的这些修改和变型属于本发明权利要求及其等同技术的范围之内,则本发明也意图包含这些改动和变型在内。

Claims (13)

1.一种控制光标的方法,其特征在于,包括:
在开启光标定位模式时,获取面向显示屏的用户特征信息,根据获取到的所述用户特征信息确定所述用户在所述显示屏前方的平面内的坐标位置;
根据确定出的所述用户在所述显示屏前方的平面内的坐标位置,以及确定出的所述用户的坐标位置所在坐标系与所述显示屏所在坐标系的映射关系,在所述显示屏中确定与所述用户的坐标位置对应的子区域,所述子区域为在所述显示屏预先划分的多个子区域中的一个子区域;
控制所述显示屏中显示的光标移动至所述子区域内的指定位置。
2.如权利要求1所述的方法,其特征在于,所述根据确定出的所述用户在所述显示屏前方的平面内的坐标位置,以及确定出的所述用户的坐标位置所在坐标系与所述显示屏所在坐标系的映射关系,在所述显示屏中确定与所述用户的坐标位置对应的子区域,包括:
根据确定出的所述用户在所述显示屏前方的平面内的坐标位置,以及确定出的所述用户的坐标位置所在坐标系与所述显示屏所在坐标系的映射关系,确定所述用户在所述显示屏所在坐标系的第一坐标位置;
根据所述第一坐标位置,以及所述显示屏预先划分的各子区域对应的坐标范围,确定所述第一坐标位置所属的子区域。
3.如权利要求2所述的方法,其特征在于,在所述控制所述显示屏中显示的光标移动至所述子区域内的指定位置之前,还包括:
获取所述光标当前在所述显示屏所在坐标系的第二坐标位置;
所述控制所述显示屏中显示的光标移动至所述子区域内的指定位置,包括:
根据所述第一坐标位置与所述第二坐标位置,确定所述光标的移动位移;
根据确定出的所述光标的移动位移,控制所述光标移动至所述子区域内的第一坐标位置。
4.如权利要求1所述的方法,其特征在于,所述显示屏为拼接屏,所述拼接屏的各子屏幕分别作为预先划分的各子区域。
5.如权利要求1至4任一项所述的方法,其特征在于,所述获取面向显示屏的用户特征信息,根据获取到的所述用户特征信息确定所述用户在所述显示屏前方的平面内的坐标位置,包括:
获取包括面向所述显示屏的用户的面部特征的图像,并在获取的图像中提取所述用户面部的边缘特征;
根据提取出的所述用户面部的边缘特征,以及所述用户在所述显示屏前方的平面的坐标系,确定所述用户面部的中心点在所述显示屏前方的平面内的坐标位置,并将确定出的所述用户面部的中心点在所述显示屏前方的平面内的坐标位置作为所述用户在所述显示屏前方的平面内的坐标位置。
6.如权利要求1至4任一项所述的方法,其特征在于,还包括:
在所述显示屏开机进行显示时,开启所述光标定位模式,或者,
在接收到用于控制所述光标的定位控制信号时,开启所述光标定位模式。
7.一种控制光标的装置,其特征在于,包括:
第一确定单元,用于在开启光标定位模式时,获取面向显示屏的用户特征信息,根据获取到的所述用户特征信息确定所述用户在所述显示屏前方的平面内的坐标位置;
第二确定单元,用于根据确定出的所述用户在所述显示屏前方的平面内的坐标位置,以及确定出的所述用户的坐标位置所在坐标系与所述显示屏所在坐标系的映射关系,在所述显示屏中确定与所述用户的坐标位置对应的子区域,所述子区域为在所述显示屏预先划分的多个子区域中的一个子区域;
光标控制单元,用于控制所述显示屏中显示的光标移动至所述子区域内的指定位置。
8.如权利要求7所述的装置,其特征在于,所述第二确定单元,具体用于根据确定出的所述用户在所述显示屏前方的平面内的坐标位置,以及确定出的所述用户的坐标位置所在坐标系与所述显示屏所在坐标系的映射关系,确定所述用户在所述显示屏所在坐标系的第一坐标位置;根据所述第一坐标位置,以及所述显示屏预先划分的各子区域对应的坐标范围,确定所述第一坐标位置所属的子区域。
9.如权利要求8所述的装置,其特征在于,还包括:
获取单元,用于获取所述光标当前在所述显示屏所在坐标系的第二坐标位置;
所述光标控制单元,还用于根据所述第一坐标位置与所述第二坐标位置,确定所述光标的移动位移;根据确定出的所述光标的移动位移,控制所述光标移动至所述子区域内的第一坐标位置。
10.如权利要求7所述的装置,其特征在于,所述显示屏为拼接屏,所述拼接屏的各子屏幕分别作为预先划分的各子区域。
11.如权利要求7至10任一项所述的装置,其特征在于,所述第一确定单元,具体用于获取包括面向所述显示屏的用户的面部特征的图像,并在获取的图像中提取所述用户面部的边缘特征;根据提取出的所述用户面部的边缘特征,以及所述用户在所述显示屏前方的平面的坐标系,确定所述用户面部的中心点在所述显示屏前方的平面内的坐标位置,并将确定出的所述用户面部的中心点在所述显示屏前方的平面内的坐标位置作为所述用户在所述显示屏前方的平面内的坐标位置。
12.如权利要求7至10任一项所述的装置,其特征在于,还包括:
开启单元,用于在所述显示屏开机进行显示时,开启所述光标定位模式,或者,
所述开启单元,用于在接收到用于控制所述光标的定位控制信号时,开启所述光标定位模式。
13.一种显示设备,其特征在于,包括如权利要求7至12任一项所述的控制光标的装置。
CN201610244990.2A 2016-04-19 2016-04-19 一种控制光标的方法及装置、显示设备 Active CN105929954B (zh)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN201610244990.2A CN105929954B (zh) 2016-04-19 2016-04-19 一种控制光标的方法及装置、显示设备
PCT/CN2017/079427 WO2017181844A1 (zh) 2016-04-19 2017-04-05 控制光标的方法及装置、显示设备
US15/742,023 US20180196530A1 (en) 2016-04-19 2017-04-05 Method for controlling cursor, device for controlling cursor and display apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201610244990.2A CN105929954B (zh) 2016-04-19 2016-04-19 一种控制光标的方法及装置、显示设备

Publications (2)

Publication Number Publication Date
CN105929954A true CN105929954A (zh) 2016-09-07
CN105929954B CN105929954B (zh) 2019-10-18

Family

ID=56838425

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610244990.2A Active CN105929954B (zh) 2016-04-19 2016-04-19 一种控制光标的方法及装置、显示设备

Country Status (3)

Country Link
US (1) US20180196530A1 (zh)
CN (1) CN105929954B (zh)
WO (1) WO2017181844A1 (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107272880A (zh) * 2017-04-25 2017-10-20 中国农业大学 一种光标定位、光标控制方法及装置
WO2017181844A1 (zh) * 2016-04-19 2017-10-26 京东方科技集团股份有限公司 控制光标的方法及装置、显示设备
CN108255317A (zh) * 2018-02-08 2018-07-06 北京硬壳科技有限公司 光标控制方法和装置
CN114296587A (zh) * 2021-12-20 2022-04-08 北京小米移动软件有限公司 光标控制方法、装置、电子设备和存储介质
CN115185411A (zh) * 2022-07-08 2022-10-14 北京字跳网络技术有限公司 光标移动方法、装置和电子设备

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117420977B (zh) * 2023-12-18 2024-03-19 民航成都信息技术有限公司 一种跨屏文字滚动显示***、方法、电子设备及存储介质

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1379318A (zh) * 2001-04-09 2002-11-13 华邦电子股份有限公司 撷取影像和操控光标的装置
CN1797299A (zh) * 2004-12-22 2006-07-05 联想(北京)有限公司 一种显示设备的光标的控制***及方法
CN1920757A (zh) * 2005-08-25 2007-02-28 联想(北京)有限公司 一种多显示器***中光标切换的方法及多显示器***
CN1949848A (zh) * 2005-10-08 2007-04-18 三星电子株式会社 显示装置和内容信息显示方法
CN101344816A (zh) * 2008-08-15 2009-01-14 华南理工大学 基于视线跟踪和手势识别的人机交互方法及装置
CN101533314A (zh) * 2008-03-11 2009-09-16 联想(北京)有限公司 通过光标定位终端的方法、***及终端控制器
CN101872237A (zh) * 2009-04-23 2010-10-27 由田新技股份有限公司 瞳孔追踪方法与***及用于瞳孔追踪的校正方法与模组
JP2011209928A (ja) * 2010-03-29 2011-10-20 Ntt Docomo Inc 携帯端末
CN102339124A (zh) * 2010-07-22 2012-02-01 宏碁股份有限公司 控制光标的方法
CN103365412A (zh) * 2012-03-29 2013-10-23 索尼公司 信息处理设备、信息处理方法以及计算机程序
CN103531001A (zh) * 2012-07-04 2014-01-22 华为终端有限公司 一种电子设备及其遥控方法
CN105260008A (zh) * 2014-07-15 2016-01-20 华为技术有限公司 一种定位位置的方法及装置

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3361980B2 (ja) * 1997-12-12 2003-01-07 株式会社東芝 視線検出装置及びその方法
US7622989B2 (en) * 2007-04-30 2009-11-24 The Regents Of The University Of California Multi-band, inductor re-use low noise amplifier
US10226218B2 (en) * 2011-06-30 2019-03-12 Endotronix, Inc. Pressure sensing implant
CN204721476U (zh) * 2013-09-22 2015-10-21 思科技术公司 沉浸式和交互式的视频会议房间环境
US9852562B2 (en) * 2015-07-06 2017-12-26 Acsys Ip Holding, Inc. Systems and methods for redundant access control systems based on mobile devices and removable wireless buttons
CN105404384A (zh) * 2015-11-02 2016-03-16 深圳奥比中光科技有限公司 手势操作方法、利用手势定位屏幕光标的方法及手势***
CN105929954B (zh) * 2016-04-19 2019-10-18 京东方科技集团股份有限公司 一种控制光标的方法及装置、显示设备

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1379318A (zh) * 2001-04-09 2002-11-13 华邦电子股份有限公司 撷取影像和操控光标的装置
CN1797299A (zh) * 2004-12-22 2006-07-05 联想(北京)有限公司 一种显示设备的光标的控制***及方法
CN1920757A (zh) * 2005-08-25 2007-02-28 联想(北京)有限公司 一种多显示器***中光标切换的方法及多显示器***
CN1949848A (zh) * 2005-10-08 2007-04-18 三星电子株式会社 显示装置和内容信息显示方法
CN101533314A (zh) * 2008-03-11 2009-09-16 联想(北京)有限公司 通过光标定位终端的方法、***及终端控制器
CN101344816A (zh) * 2008-08-15 2009-01-14 华南理工大学 基于视线跟踪和手势识别的人机交互方法及装置
CN101872237A (zh) * 2009-04-23 2010-10-27 由田新技股份有限公司 瞳孔追踪方法与***及用于瞳孔追踪的校正方法与模组
JP2011209928A (ja) * 2010-03-29 2011-10-20 Ntt Docomo Inc 携帯端末
CN102339124A (zh) * 2010-07-22 2012-02-01 宏碁股份有限公司 控制光标的方法
CN103365412A (zh) * 2012-03-29 2013-10-23 索尼公司 信息处理设备、信息处理方法以及计算机程序
CN103531001A (zh) * 2012-07-04 2014-01-22 华为终端有限公司 一种电子设备及其遥控方法
CN105260008A (zh) * 2014-07-15 2016-01-20 华为技术有限公司 一种定位位置的方法及装置

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017181844A1 (zh) * 2016-04-19 2017-10-26 京东方科技集团股份有限公司 控制光标的方法及装置、显示设备
CN107272880A (zh) * 2017-04-25 2017-10-20 中国农业大学 一种光标定位、光标控制方法及装置
CN108255317A (zh) * 2018-02-08 2018-07-06 北京硬壳科技有限公司 光标控制方法和装置
CN114296587A (zh) * 2021-12-20 2022-04-08 北京小米移动软件有限公司 光标控制方法、装置、电子设备和存储介质
CN115185411A (zh) * 2022-07-08 2022-10-14 北京字跳网络技术有限公司 光标移动方法、装置和电子设备
CN115185411B (zh) * 2022-07-08 2024-03-15 北京字跳网络技术有限公司 光标移动方法、装置和电子设备

Also Published As

Publication number Publication date
US20180196530A1 (en) 2018-07-12
WO2017181844A1 (zh) 2017-10-26
CN105929954B (zh) 2019-10-18

Similar Documents

Publication Publication Date Title
CN105929954A (zh) 一种控制光标的方法及装置、显示设备
KR102597385B1 (ko) 이미지 세그먼트화 방법 및 장치, 컴퓨터 디바이스 및 저장 매체
KR102347336B1 (ko) 응시점 판단 방법 및 장치, 전자 기기 및 컴퓨터 저장 매체
CN111126182B (zh) 车道线检测方法、装置、电子设备及存储介质
US9224205B2 (en) Accelerated geometric shape detection and accurate pose tracking
US20170372449A1 (en) Smart capturing of whiteboard contents for remote conferencing
EP3869455A1 (en) Image segmentation method and apparatus, computer device and storage medium
US9477315B2 (en) Information query by pointing
US9348422B2 (en) Method for recognizing gestures and gesture detector
US20140168268A1 (en) Information processing device, information processing method, and program
US20220398767A1 (en) Pose determining method and apparatus, electronic device, and storage medium
EP4006847A1 (en) Virtual object processing method and apparatus, and storage medium and electronic device
JP2015212849A (ja) 画像処理装置、画像処理方法および画像処理プログラム
CN110793544A (zh) 感知传感器参数标定方法、装置、设备及存储介质
CN111680758B (zh) 图像训练样本生成方法和装置
CN113194253B (zh) 去除图像反光的拍摄方法、装置和电子设备
CN107491289B (zh) 一种窗口渲染方法及装置
US9881419B1 (en) Technique for providing an initial pose for a 3-D model
CN108027647B (zh) 用于与虚拟对象交互的方法和设备
Akman et al. Multi-cue hand detection and tracking for a head-mounted augmented reality system
CN108665525B (zh) 基于引擎的虚拟摄像机视场角的计算方法、存储介质
EP3853813A1 (en) System and method of selecting a complementary image from a plurality of images for 3d geometry extraction
CN113192072B (zh) 图像分割方法、装置、设备及存储介质
Diaz et al. Multimodal sensing interface for haptic interaction
EP3962062A1 (en) Photographing method and apparatus, electronic device, and storage medium

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant