CN106250875A - 终端设备及其控制方法、可穿戴设备 - Google Patents

终端设备及其控制方法、可穿戴设备 Download PDF

Info

Publication number
CN106250875A
CN106250875A CN201610681089.1A CN201610681089A CN106250875A CN 106250875 A CN106250875 A CN 106250875A CN 201610681089 A CN201610681089 A CN 201610681089A CN 106250875 A CN106250875 A CN 106250875A
Authority
CN
China
Prior art keywords
terminal unit
mode
visual angle
pattern
finger print
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201610681089.1A
Other languages
English (en)
Inventor
宁超
余亚军
曹谦
安慎华
苏文华
姚键
潘柏宇
王冀
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Heyi Intelligent Technology (shenzhen) Co Ltd
Original Assignee
Heyi Intelligent Technology (shenzhen) Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Heyi Intelligent Technology (shenzhen) Co Ltd filed Critical Heyi Intelligent Technology (shenzhen) Co Ltd
Priority to CN201610681089.1A priority Critical patent/CN106250875A/zh
Publication of CN106250875A publication Critical patent/CN106250875A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/13Sensors therefor
    • G06V40/1306Sensors therefor non-optical, e.g. ultrasonic or capacitive sensing
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/165Management of the audio stream, e.g. setting of volume, audio stream path
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/13Sensors therefor
    • G06V40/1324Sensors therefor by using geometrical optics, e.g. using prisms

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Optics & Photonics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Collating Specific Patterns (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Input (AREA)

Abstract

本发明涉及一种终端设备及其控制方法、可穿戴设备,该终端设备包括:指纹采集部件,用于采集用户的指纹信息;运动检测部件,用于检测所述终端设备的运动信息;模式进入部件,用于使终端设备进入与所述指纹信息相对应的工作模式;控制部件,用于在所述终端设备处于所述工作模式的情况下,根据所述运动信息控制所述终端设备。通过利用用户的指纹信息和终端设备的运动信息,就可以实现对终端设备的控制,从而使用户能够更方便地控制终端设备。

Description

终端设备及其控制方法、可穿戴设备
技术领域
本发明涉及电子设备领域,尤其涉及一种终端设备及其控制方法、可穿戴设备。
背景技术
现今社会,终端设备(例如手机、平板电脑等)作为人们不可或缺的电子产品,其功能越来越多样化,随着功能的多样化,对移动终端设备的控制的便捷性要求也不断提高。
以利用移动终端进行全景视频播放这一场景为例,可以将手机等移动终端卡到头盔或眼镜的相应卡槽位置,带上头盔或眼镜,即可以方便地观看手机屏幕所显示的视频,且通过移动头部就可以实现对全景视频的视角的改变。但是同时也出现了一个问题,由于手机卡到头盔或眼镜后,用户无法接触显示屏,以至于无法灵活地操控手机,使得交互很不方便,影响使用效果。
针对上述问题,一种解决办法是在头盔或眼镜上设置按钮,通过线路使头盔或眼镜与手机连接起来,但是这一解决办法需要额外添加控制电路和接口电路,增加了复杂度的同时也增加了产品成本,且按钮容易误按。另一种办法是利用外接控制手柄来控制手机,这种办法同样也会增加产品成本。
发明内容
技术问题
有鉴于此,本发明要解决的技术问题是,如何使用户能够更方便地控制终端设备。
解决方案
一方面,提出了一种终端设备,所述终端设备包括:指纹采集部件,用于采集用户的指纹信息;运动检测部件,用于检测所述终端设备的运动信息;模式进入部件,用于使终端设备进入与所述指纹信息相对应的工作模式;控制部件,用于在所述终端设备处于所述工作模式的情况下,根据所述运动信息控制所述终端设备。
另一方面,提出了一种可穿戴设备,所述可穿戴设备包括:根据前述提出的终端设备,以及能够佩戴于头部的可穿戴装置,其中,所述终端设备能够设置在所述可穿戴装置上,使所述终端设备的显示器面向眼部。
又一方面,提出了一种终端设备的控制方法,所述方法包括:采集用户的指纹信息;使终端设备进入与所述指纹信息相对应的工作模式;检测所述终端设备的运动信息;在所述终端设备处于所述工作模式的情况下,根据所述运动信息控制所述终端设备。
有益效果
本发明的各方面仅利用用户的指纹信息和终端设备的运动信息,就可以实现对终端设备的控制,从而使用户能够更方便地控制终端设备。
根据下面参考附图对示例性实施例的详细说明,本发明的其它特征及方面将变得清楚。
附图说明
包含在说明书中并且构成说明书的一部分的附图与说明书一起示出了本发明的示例性实施例、特征和方面,并且用于解释本发明的原理。
图1示出根据本发明一实施例的终端设备的结构图。
图2示出根据本发明一实施例的一个示例的模式进入部件的结构图。
图3示出根据本发明一实施例的一个示例的控制部件的结构图。
图4示出根据本发明实施例的一个示例的在菜单设置模式下的菜单阵列的示意图。
图5示出根据本发明一实施例的一个示例的终端设备的结构图。
图6示出根据本发明一实施例的另一个示例的终端设备的结构图。
图7示出根据本发明一实施例的可穿戴设备的结构图。
图8示出根据本发明一实施例的终端设备的控制方法的流程图。
图9示出根据本发明一实施例的一个示例的步骤S102的流程图。
图10示出根据本发明一实施例的一个示例的步骤S104的流程图。
具体实施方式
以下将参考附图详细说明本发明的各种示例性实施例、特征和方面。附图中相同的附图标记表示功能相同或相似的元件。尽管在附图中示出了实施例的各种方面,但是除非特别指出,不必按比例绘制附图。
在这里专用的词“示例性”意为“用作例子、实施例或说明性”。这里作为“示例性”所说明的任何实施例不必解释为优于或好于其它实施例。
另外,为了更好的说明本发明,在下文的具体实施方式中给出了众多的具体细节。本领域技术人员应当理解,没有某些具体细节,本发明同样可以实施。在一些实例中,对于本领域技术人员熟知的方法、手段、元件和电路未作详细描述,以便于凸显本发明的主旨。
实施例1
图1示出根据本发明一实施例的终端设备的结构图。如图1所示,该终端设备1主要包括:指纹采集部件11,用于采集用户的指纹信息;运动检测部件12,用于检测所述终端设备的运动信息;模式进入部件13,用于使终端设备进入与所述指纹信息相对应的工作模式;控制部件14,用于在所述终端设备处于所述工作模式的情况下,根据所述运动信息控制所述终端设备。
本实施例仅利用用户指纹信息和终端设备的运动信息,换言之手指和移动的组合,就可以实现对终端设备的控制,从而使用户能够更方便地控制终端设备。
指纹采集部件11
本实施例中,指纹采集部件11可以用于采集和识别用户的指纹信息,包括同一用户的不同手指的指纹信息,或者不同用户的不同指纹信息。该指纹采集部件11可以在初始的情况下采集用户的指纹信息并将不同的指纹信息与不同工作模式相对应地进行存储。
举例来说,在初始化阶段,用户可以对应于不同的工作模式存储不同的指纹信息,例如,针对音量调节模式可以存储右手食指的指纹信息,针对播放进度调节模式可以存储右手中指的指纹信息,针对菜单设置模式可以存储右手无名指的指纹信息,等等。针对不同工作模式存储哪个手指的指纹信息,可以根据用户的喜好进行设置和存储。终端设备也可以在出厂前指明针对不同的工作模式存储相应手指的指纹信息,以便于用户记忆,本发明对此不作限制。
该指纹采集部件11还可以在用户完成指纹信息与工作模式对应关系的设置后,对用户的指纹信息进行采集和识别,并将识别的结果传递给模式进入部件13。
指纹采集部件11可以是本领域技术人员已知的任何可以实现对指纹进行采集和识别的部件,例如可以是光觉指纹识别器或电容指纹识别器等。
在一个示例中,终端设备还可以包括显示器,指纹采集部件11可以设置于终端设备的与显示器相反的一侧。显示器可以用于显示图像或视频等文件(包括全景视频)等,由于指纹采集部件11设置于终端设备的与显示器相反的一侧,在采集用户指纹信息的同时,可以不影响用户正常观看视频等文件,使用户可以更方便地控制终端设备。
显示器可以采用本领域技术人员已知的任何可以显示图像或视频文件的器件,可以是具有触摸式显示屏的显示器,例如手机屏幕显示器或iPad屏幕显示器,本发明对此不作限制。
下面以用户的右手食指的指纹信息对应于音量调节模式为例,并以终端设备的显示器面向用户为例,来说明本实施例的具体实现方式。
模式进入部件13
模式进入部件13在接收到指纹采集部件11所传递的指纹信息后,可以根据该指纹信息来使终端设备进入与该指纹信息相对应的工作模式。例如,在指纹采集部件11采集到用户的右手食指的指纹信息的情况下,模式进入部件13可以使终端设备进入音量调节的工作模式。又例如,如果在初始化时,用户针对播放进度调节模式存储了右手中指的指纹信息,在指纹采集部件11采集到用户的右手中指的指纹信息的情况下,模式进入部件13可以使终端设备进入播放进度调节的工作模式。
图2示出根据本发明一实施例的一个示例的模式进入部件的结构图。如图2所示,模式进入部件13可以包括:第一计时单元131,可以用于记录从指纹采集部件11采集到所述指纹信息开始、持续采集到所述指纹信息的时间,这个时间对应于用户的手指放置在指纹采集部件11的时间;模式确定单元132,可以根据终端设备中已存储的指纹信息与工作模式的对应关系,确定与指纹信息相对应的工作模式;模式进入单元133,可以在第一计时单元131所记录的时间超过第一阈值的情况下,使终端设备进入与采集到的指纹信息相对应的工作模式。
举例来说,用户正在观看视频,想要调节音量大小,用户只需要将右手食指放置于指纹采集部件11上,且持续放置一段时间(例如0.5s以上),就可以使终端设备进入音量调节模式,以便实现对音量的调节。换言之,在该过程中,第一计时单元131可以记录用户的右手食指在指纹采集部件11上持续放置的时间,同时,模式确定单元132可以确定与右手指纹信息相对应的工作模式为音量调节模式,在右手食指持续放置于指纹采集部件11上的时间超过第一阈值(例如0.5-2s)的情况下,模式进入单元133可以使终端设备进入音量调节模式。
模式进入部件13可以是本领域技术人员已知的任何可以使终端设备进入与指纹信息相对应的工作模式的部件,例如,模式进入部件13可以将指纹信息转换为能够使终端设备进入相应的工作模式的指令、并将该指令传递给终端设备的与该工作模式相关联的模块,模式进入部件13例如可以是通过通用处理器结合逻辑指令来实现使终端设备进入与指纹信息相对应的工作模式的部件,也可以是通过专用硬件电路来实现使终端设备进入与指纹信息相对应的工作模式的部件。
通过利用指纹采集部件11来采集用户的指纹信息,再利用模式进入部件13根据接收到的指纹信息进入相应的工作模式,使用户可以更加快速方便的进入相应的工作模式,以便实现对终端设备相应的控制。
运动检测部件12和控制部件14
运动检测部件12可以检测终端设备1的运动信息,并将运动信息传递给控制部件14,以使在终端设备处于已确定的工作模式的情况下,控制部件14可以根据接收到的运动信息来控制终端设备1。
举例来说,用户将右手食指持续放置于指纹采集部件11上一段时间,终端设备进入音量调节模式,与此同时,可采用不同的方式来移动终端设备,就可实现对音量的相应的调节。换言之,在该过程中,指纹采集部件11可以持续采集到用户的右手食指的指纹信息,且运动检测部件12可以检测终端设备的运动信息,则控制部件14可以根据接收到的运动信息相应地调节音量大小(例如终端设备向上移动,则音量变大;终端设备向下移动,则音量变小)。
运动检测部件12可以是本领域技术人员已知的任何可以实现对终端设备的运动信息进行检测的部件,例如陀螺仪或传感器等。
控制部件14可以是本领域技术人员已知的任何可以实现对终端设备进行控制的部件,例如,控制部件14可以将运动信息转换为用于控制终端设备的相应模块的指令,并将该指令传递给相应模块,控制部件14例如可以是通过通用处理器结合逻辑指令来实现对终端设备进行控制的部件,也可以是通过专用硬件电路来实现对终端设备进行控制的部件。
通过利用运动检测部件12来检测终端设备的运动信息,在终端设备处于与指纹信息相对应的工作模式的情况下,用户仅通过移动终端设备,就可以实现对终端设备的控制,使得用户能够更方便地控制终端设备。
在一个示例中,工作模式可以包括以下中的一种或多种:音量调节模式、播放进度调节模式、菜单设置模式和基准视角设置模式。
图3示出根据本发明一实施例的一个示例的控制部件的结构图,下面以图3为例,来说明针对上述几种示例性的工作模式,控制部件14的具体实现方式。
在一个示例中,工作模式可以包括音量调节模式,控制部件14可以包括第一控制模块141,第一控制模块141在终端设备处于音量调节模式的情况下,可以根据运动信息控制所述终端设备的音量。举例来说,用户可将与音量调节模式相对应的手指持续放置于指纹采集部件11上,使终端设备处于音量调节模式,用户可移动终端设备,第一控制模块141可以根据运动检测部件12所检测到的运动信息来对终端设备的音量进行控制,例如向上移动终端设备,音量变大,向下移动终端设备,音量变小。
在一个示例中,工作模式可以包括播放进度调节模式,控制部件可以包括第二控制模块142,第二控制模块142在终端设备处于播放进度调节模式的情况下,可以根据运动信息控制终端设备的播放进度。举例来说,用户可将与播放进度模式相对应的手指持续放置于指纹采集部件11上,使终端设备处于播放进度调节模式,用户可移动终端设备,第二控制模块142可以根据运动检测部件12所检测到的运动信息来对终端设备的播放进度进行控制,例如向左移动终端设备,播放进度后退,向右移动终端设备,播放进度前进。
在一个示例中,工作模式可以包括菜单设置模式,控制部件14可以包括第三控制模块143,第三控制模块143在终端设备处于菜单设置模式的情况下,可以根据运动信息进行菜单设置。举例来说,用户可将与菜单设置模式相对应的手指持续放置于指纹采集部件11上,使终端设备处于菜单设置模式,用户可移动终端设备,第三控制模块143可以根据运动检测部件12所检测到的运动信息来对菜单设置进行控制。
在一个示例中,第三控制模块143可以包括:菜单显示单元1431,用于在终端设备进入菜单设置模式时,显示菜单阵列;菜单选择单元1432,用于根据所述运动信息,选择所述菜单阵列中的菜单;菜单激活单元1433,用于在判断所述指纹采集部件11未采集到与所述菜单设置模式相对应的指纹信息的情况下,激活所述菜单选择单元1432当前所选择的菜单,并使所述终端设备退出所述菜单设置模式。
举例来说,图4示出根据本发明实施例的一个示例的在菜单设置模式下的菜单阵列的示意图,在终端设备进入菜单设置模式时,在不移动终端设备的情况下,可默认选择菜单5,保持手指放置于指纹采集部件11上,向左移动终端设备可以实现选择菜单4,向上移动终端设备可以实现选择菜单2,向左上方移动终端设备可以实现选择菜单1,在手指离开指纹采集部件11的情况下,可使终端设备激活当前选择的菜单,并退出菜单设置模式。其中,菜单阵列中的菜单可以包括:屏幕截取、分享和收藏等。
在一个示例中,工作模式可以包括基准视角设置模式,控制部件14可以包括第四控制模块144,用于在所述终端设备处于基准视角设置模式的情况下,根据运动信息设置全景视频的基准视角。
在一个示例中,第四控制模块144可以包括:视角变换单元1441,用于在所述终端设备处于所述基准视角设置模式的情况下,根据所述运动信息变换全景视频的显示视角;基准视角确定单元1442,用于在判断所述指纹采集部件未采集到与所述基准视角设置模式相对应的指纹信息的情况下,以当前的显示视角作为所述全景视频的基准视角,并使所述终端设备退出所述基准视角设置模式。
用户在观看全景视频时,运动检测部件可以检测移动终端设备的运动信息,进而根据运动信息来改变显示器上的显示视角,换言之,可以根据运动信息来判断用户希望观看的方向,并将与该方向相应的视频信息从全景视频中提取出来显示在显示器上。一般来说,***都会针对全景视频设置一个初始的基准视角(也称为正视角),用户若头部有上下左右的移动,传感器会将移动的位置和角度信息传递给播放器,播放器基于基准视角以及上述位置和角度信息来显示相应的画面。本示例提供了一种能够使用户方便地设置该基准视角的方式。
举例来说,用户可将与基准视角设置模式相对应的手指持续放置于指纹采集部件11上,使得终端设备处于基准视角设置模式,用户通过移动终端设备可以变换全景视频的显示视角,用户可以根据个人喜好来从显示器所显示给用户的视角中选择基准视角,在手指离开纹采集部件11的情况下,以手指离开指纹采集部件11时显示器所显示的视角作为全景视频的基准视角,同时退出基准视角设置模式。
图5示出了根据本发明一实施例的一个示例的终端设备的结构图,如图5所示,所述终端设备还可包括基准视角还原部件15,所述基准视角还原部件15包括:第二计时单元151,用于记录从所述指纹采集部件采集到指示还原全景视频的基准视角的指纹信息开始、持续采集到所述指纹信息的时间;基准视角还原单元152,用于在所述时间超过第二阈值的情况下,将全景视频的当前的显示视角还原为全景视频的基准视角。
举例来说,用户正在观看全景视频,由于某些原因导致显示视角发生变化,用户可以将用于还原基准视角的手指放置于指纹采集部件上并持续一段时间(例如1-3s),在该情况下,终端设备可以将显示视角还原为全景视频的基准视角。
利用指纹信息来实现对全景视频基准视角的还原,在不影响用户观看全景视频的同时,仅通过简单的触摸指纹采集部件即可完成还原基准视角,真正做到了“一键还原”,方便用户的操作,并提升了用户体验。
模式退出部件16
图6示出了根据本发明一实施例的另一个示例的终端设备的结构图,如图6所示,终端设备还可以包括模式退出部件16,该模式退出部件16可包括:判断单元161,用于在终端设备处于某工作模式期间,判断指纹采集部件11是否采集到与该工作模式相对应的指纹信息;退出单元162,用于在所述判断单元151判断为未采集到与该工作模式相对应的指纹信息的情况下,使所述终端设备退出所述工作模式。
换言之,模式退出部件16可以使得用户手指离开指纹采集部件11时,终端设备退出与该手指的指纹信息相对应的工作模式。例如,用户利用右手食指,使终端设备进入音量调节的工作模式,并保持右手食指持续放置于指纹采集部件上,同时移动终端设备,实现了对音量的调节,在完成音量调节后,如果用户将手指离开指纹采集部件11,则退出音量调节模式,还可返回至未对音量进行调节前的终端设备的工作状态。又例如,用户误操作进入了音量调节模式,或者用户利用右手食指,使终端设备进入音量调节模式后,又不想对音量进行调节,如果此时用户将手指离开指纹采集部件11,也可退出音量调节模式,还可返回至未对音量进行调节前的终端设备的工作状态。该示例通过“松开手指”的方式使终端设备退出当前工作模式,方便了用户的操作。然而,本领域技术人员应理解,工作模式的进入和退出方式不限于此,例如,也可以在手指接触指纹采集部件后即进入并保持相应的工作模式,手指不必持续放置在指纹采集部件上,若要退出该工作模式,可以通过特定的指纹信息(即特定手指)来指示退出、通过特定的运动信息(例如摇头)来指示退出、或者通过硬件按钮等来指示退出。
实施例2
本发明的另一实施例还提出了一种可穿戴设备,该可穿戴设备包括实施例1中的终端设备,以及可以佩戴于头部的可穿戴装置,其中终端设备可以设置于可穿戴设备上,使终端设备的显示器面向眼部。在一个示例中,可穿戴装置可以包括头盔或眼镜。
图7示出了根据本发明的一个实施例的可穿戴设备的结构图。如图7所示,该可穿戴设备可以包括终端设备1和可以佩戴于头部的可穿戴装置2,由于终端设备的显示器面向于用户的眼部,例如观看视频过程中,用户无法轻易的触摸到显示器,以至于无法灵活地对终端设备进行控制,或只能够实现较少功能的控制,使得交互很不方便,而且影响对终端设备的使用效果。
本实施例可以使用户仅通过将手指放置于终端设备的指纹采集部件上,以及移动终端设备(例如通过移动头部)来实现对终端设备进行控制,避免了为实现对终端设备进行控制而需要反复穿戴该可穿戴设备的麻烦,简化了用户的操作过程,还可以提升用户体验。此外,由于该可穿戴设备无需额外增加其他部件,例如用于连接终端设备1与可穿戴装置2的部件(例如控制电路和/或接口电路等)、或用于控制终端设备的外接遥控手柄等,降低了技术的复杂度和产品成本。
在一个应用示例中,例如用户正在利用该可穿戴设备观看视频,如果想调节音量,用户可以将某手指(例如初始时存储的与音量调节模式相对应的手指,例如右手食指)持续放置于终端设备的指纹采集部件11上,同时移动头部,可以实现对音量的调节(例如向上抬头增大音量,向下低头减小音量),在得到了满意的结果后,将手指从指纹采集部件11上移开,终端设备可以退出音量调节模式,并返回至对音量进行调节前的视频播放模式。
在另一个应用示例中,同样例如用户正在利用该可穿戴设备观看视频,如果用户想调节视频的播放进度,可以将某手指(例如初始时存储的与音量调节模式相对应的手指,例如右手中指)持续放置于终端设备的指纹采集部件11上,同时移动头部,可以实现对视频的播放进度的调节(例如向左转头使播放进度后退,向右转头使播放进入前进),在得到了满意的结果后,将手指从指纹采集部件11上移开,终端设备可以退出播放进度调节模式,并返回至对视频的播放进度进行调节前的视频播放模式。
在又一个应用示例中,还是例如用户正在利用该可穿戴设备观看视频,如果用户想实现某菜单设置,可以将某手指(例如初始时存储的与菜单设置模式相对应的手指,例如右手无名指)持续放置于终端设备的指纹采集部件11上,则可以出现如图4所示的菜单阵列,在不移动头部的情况下,终端设备在进入菜单设置模式后,会默认选择菜单5,保持手指放置于指纹采集部件11上,移动头部可以实现对不同菜单的选择,例如向左转动头部可以实现选择菜单4,向上抬头可以实现选择菜单2,向左上方移动头部可以实现选择菜单1,在用户选择好相应的菜单后,可以将手指从指纹采集部件11移开,在该情况下,终端设备可以激活选择的菜单。其中,菜单阵列中的菜单可以包括:屏幕截取、分享和收藏等。
在一个应用示例中,例如用户正在利用该可穿戴设备观看全景视频,如果想设置全景视频的基准视角,用户可以将某手指(例如初始时存储的与基准视角设置模式相对应的手指,例如左手食指)持续放置于终端设备的指纹采集部件11上,同时移动头部,就可以实现对全景视频的基准视角的设置。具体地,在用户将某手指持续放置于终端设备的指纹采集部件11上的情况下,终端设备进入基准视角设置模式,在这种情况下,通过移动头部可以改变用户所观看的视角,在用户确定了满意的视角的情况下,可以将手指从指纹采集部件上移开,移动终端退出基准视角设置模式,同时,将手指移开时所显示的视角作为全景视频的基准视角。
在另一个应用示例中,例如用户正在利用该可穿戴设备观看全景视频,由于姿态改变(例如由坐着观看变为躺下观看),以至于所观看的视角被改变,此时,如果用户想重新返回至已设置的基准视角,可以将某手指(例如初始时存储的用于还原基准视角的手指,例如左手中指)持续放置于终端设备的指纹采集部件11上,在手指放置于指纹采集部件上持续的时间超过第二阈值的情况下,当前的显示视角可以还原为前述已设定的基准视角。
实施例3
图8示出根据本发明一实施例的终端设备的控制方法的流程图。该实施例可在终端设备中实现。如图8所示,该方法主要包括:采集用户的指纹信息S101;使终端设备进入与所述指纹信息相对应的工作模式S102;检测所述终端设备的运动信息S103;在所述终端设备处于所述工作模式的情况下,根据所述运动信息控制所述终端设备S104。
本实施例通过采集用户的指纹信息,并检测终端设备的运动信息,使终端设备进入与指纹信息相对应的工作模式,且在所处的工作模式下,根据运动信息来控制该终端设备。仅利用用户的指纹信息和终端设备的运动信息,换言之手指和移动的组合,就可以实现对终端设备的控制,从而使用户能够更方便地控制终端设备。
在一个示例中,指纹信息可以是通过设置于所述终端设备的与所述终端设备的显示器相反一侧的指纹采集部件采集的。通过该方法,可以使终端设备在采集用户指纹信息的同时,不影响其正常观看视频等文件,使用户可以更方便地控制终端设备。
在一个示例中,在初始化阶段,用户可以对应于不同的工作模式存储不同的指纹信息,例如,针对音量调节模式可以存储右手食指的指纹信息,针对播放进度调节模式可以存储右手中指的指纹信息,针对菜单设置模式可以存储右手无名指的指纹信息。针对不同工作模式存储哪个手指的指纹信息,可以根据用户的喜好进行设置和存储。终端设备也可以在出厂前指明针对不同的工作模式存储相应手指的指纹信息,以便于用户记忆,本发明对此不作限制。
下面以用户的右手食指的指纹信息对应于音量调节模式为例,并以终端设备的显示器面向用户为例,来说明本实施例的具体实现方式。
在一个示例中,图9示出根据本发明一实施例的一个示例的步骤102的流程图,如图9所示终端设备进入与指纹信息相对应的工作模式可以包括:记录从采集到所述指纹信息开始、持续采集到所述指纹信息的时间S1021;根据该指纹信息与工作模式的对应关系,确定与该指纹信息相对应的工作模式S1022;在所述时间超过第一阈值的情况下,使终端设备进入相对应的工作模式S1023。
举例来说,用户正在观看视频,想要调节音量大小,用户可以使终端设备采集其右手食指的指纹信息,在该过程中,可以记录从采集到该指纹信息开始、持续采集到该指纹信息的时间(例如0.5s以上),也就是说手指持续放置于指纹采集部件上的时间,可以根据右手食指的指纹信息与音量调节模式的对应关系,在持续接收到的指纹信息的时间超过第一阈值(例如0.5-2s)的情况下,使终端设备可以进入音量调节模式。
通过采集用户的指纹信息,再根据接收到的指纹信息进入相应的工作模式,使用户可以更加快速方便的进入相应的工作模式,以便实现对终端设备相应的控制。
在一个示例中,终端设备控制方法还可以包括:在终端设备处于所述工作模式期间,判断是否采集到与所述工作模式相对应的指纹信息;在判断为未采集到与所述工作模式相对应的指纹信息的情况下,使所述终端设备退出所述工作模式。
换言之,可以在终端设备处于某工作模式期间,在无法采集到指纹信息(例如手指离开指纹采集部件)的情况下,使终端设备退出该工作模式。在另一个示例中,在终端设备退出工作模式后,还可以返回至未对终端设备进行控制前的工作状态。
该示例通过“松开手指”的方式使终端设备退出当前工作模式,方便了用户的操作。然而,本领域技术人员应理解,工作模式的进入和退出方式不限于此,例如,也可以在手指接触指纹采集部件后即进入并保持相应的工作模式,手指不必持续放置在指纹采集部件上,若要退出该工作模式,可以通过特定的指纹信息(即特定手指)来指示退出、通过特定的运动信息(例如摇头)来指示退出、或者通过硬件按钮等来指示退出。
在一个示例中,工作模式可以包括以下中的一种或多种:音量调节模式、播放进度调节模式、菜单设置模式和基准视角设置模式。
在一个示例中,工作模式可以包括音量调节模式,在所述终端设备处于所述工作模式的情况下,根据所述运动信息控制所述终端设备,包括:在终端设备处于所述音量调节模式的情况下,根据所述运动信息控制所述终端设备的音量。举例来说,用户可将与音量调节模式相对应的手指持续放置于指纹采集部件上,使终端设备处于音量调节模式,用户可移动终端设备,终端设备可以根据检测到的运动信息来对终端设备的音量进行控制,例如向上移动终端设备,音量变大,向下移动终端设备,音量变小。
在一个示例中,所述工作模式包括播放进度调节模式,在所述终端设备处于所述工作模式的情况下,根据所述运动信息控制所述终端设备,包括:在终端设备处于所述播放进度调节模式的情况下,根据所述运动信息控制所述终端设备的播放进度。举例来说,用户可将与播放进度模式相对应的手指持续放置于指纹采集部件上,使终端设备处于播放进度调节模式,用户可移动终端设备,终端设备可以根据检测到的运动信息来对终端设备的播放进度进行控制,例如向左移动终端设备,播放进度后退,向右移动终端设备,播放进度前进。
在一个示例中,所述工作模式包括菜单设置模式,在所述终端设备处于所述工作模式的情况下,根据所述运动信息控制所述终端设备,包括:在终端设备处于所述菜单设置模式的情况下,根据所述运动信息进行菜单设置。举例来说,用户可将与菜单设置模式相对应的手指持续放置于指纹采集部件上,使终端设备处于菜单设置模式,用户可移动终端设备,终端设备可以根据检测到的运动信息来对菜单设置进行控制。
在一个示例中,图10示出根据本发明一实施例的一个示例的步骤S104的流程图。如图10所示,在终端设备处于所述菜单设置模式的情况下,根据所述运动信息进行菜单设置,可包括:在终端设备进入所述菜单设置模式时,显示菜单阵列S1041;根据所述运动信息,选择所述菜单阵列中的菜单S1042;在判断为未采集到与所述菜单设置模式相对应的指纹信息的情况下,激活当前所选择的菜单,并使所述终端设备退出所述菜单设置模式S1043。
举例来说,如图4所示,在终端设备进入菜单设置模式时,在不移动终端设备的情况下,可默认选择菜单5,可使终端设备持续采集到指纹信息(例如保持手指放置于指纹采集部件上),向左移动终端设备可以实现选择菜单4,向上移动终端设备可以实现选择菜单2,向左上方移动终端设备可以实现选择菜单1,在手指离开指纹采集部件11的情况下,可使终端设备激活当前选择的菜单,并退出菜单设置模式。其中,菜单阵列中的菜单可以包括:屏幕截取、分享和收藏等。
在一个示例中,工作模式包括基准视角设置模式,在所述终端设备处于所述工作模式的情况下,根据所述运动信息控制所述终端设备,包括:在所述终端设备处于所述基准视角设置模式的情况下,根据所述运动信息设置全景视频的基准视角。
在一个示例中,在所述终端设备处于所述基准视角设置模式的情况下,根据所述运动信息设置全景视频的基准视角,包括:在所述终端设备处于所述基准视角设置模式的情况下,根据所述运动信息变换全景视频的显示视角;在判断为未采集到与所述基准视角设置模式相对应的指纹信息的情况下,以当前的显示视角作为所述全景视频的基准视角,并使所述终端设备退出所述基准视角设置模式。
举例来说,用户正在观看全景视频,用户可将与基准视角设置模式相对应的手指持续放置于指纹采集部件上,使得终端设备处于基准视角设置模式,用户通过移动终端设备可以变换全景视频的显示视角,用户可以根据个人喜好来从显示器所显示给用户的视角中选择基准视角,在终端设备无法采集到指纹信息(例如手指离开指纹采集部件)的情况下,以在终端设备无法采集到指纹信息(即手指移开)时,显示器所显示的视角作为全景视频的基准视角,同时退出基准视角设置模式。
在一个示例中,该方法还可包括:记录从采集到指示还原全景视频的基准视角的指纹信息开始、持续采集到所述指纹信息的时间;在所述时间超过第二阈值的情况下,将全景视频的当前的显示视角还原为所述全景视频的基准视角。
举例来说,用户正在观看全景视频,由于某些原因导致显示视角发生变化,用户可以将用于还原基准视角的手指放置于指纹采集部件上并持续一段时间(例如1-3s),在该情况下,终端设备可以将显示视角还原为全景视频的基准视角。
利用指纹信息来实现对全景视频基准视角的还原,在不影响用户观看全景视频的同时,仅通过简单的触摸指纹采集部件即可完成还原基准视角,真正做到了“一键还原”,方便用户的操作,并提升了用户体验。
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应以所述权利要求的保护范围为准。

Claims (26)

1.一种终端设备,其特征在于,所述终端设备包括:
指纹采集部件,用于采集用户的指纹信息;
运动检测部件,用于检测所述终端设备的运动信息;
模式进入部件,用于使终端设备进入与所述指纹信息相对应的工作模式;
控制部件,用于在所述终端设备处于所述工作模式的情况下,根据所述运动信息控制所述终端设备。
2.根据权利要求1所述的终端设备,其特征在于,所述终端设备还包括:
显示器,其中,所述指纹采集部件设置于所述终端设备的与所述显示器相反的一侧。
3.根据权利要求1所述的终端设备,其特征在于,所述模式进入部件包括:
第一计时单元,用于记录从所述指纹采集部件采集到所述指纹信息开始、持续采集到所述指纹信息的时间;
模式确定单元,用于根据所述指纹信息与工作模式的对应关系,确定与所述指纹信息相对应的工作模式;
模式进入单元,用于在所述时间超过第一阈值的情况下,使所述终端设备进入所述相对应的工作模式。
4.根据权利要求1所述的终端设备,其特征在于,所述终端设备还包括模式退出部件,所述模式退出部件包括:
第一判断单元,用于在终端设备处于所述工作模式期间,判断所述指纹采集部件是否采集到与所述工作模式相对应的指纹信息;
退出单元,用于在所述判断单元判断为未采集到与所述工作模式相对应的指纹信息的情况下,使所述终端设备退出所述工作模式。
5.根据权利要求1所述的终端设备,其特征在于,所述工作模式包括以下中的一种或多种:音量调节模式、播放进度调节模式、菜单设置模式、基准视角设置模式。
6.根据权利要求1所述的终端设备,其特征在于,所述工作模式包括音量调节模式,
所述控制部件包括第一控制模块,所述第一控制模块在终端设备处于所述音量调节模式的情况下,根据所述运动信息控制所述终端设备的音量。
7.根据权利要求1所述的终端设备,其特征在于,所述工作模式包括播放进度调节模式,
所述控制部件包括第二控制模块,所述第二控制模块在终端设备处于所述播放进度调节模式的情况下,根据所述运动信息控制所述终端设备的播放进度。
8.根据权利要求1所述的终端设备,其特征在于,所述工作模式包括菜单设置模式,
所述控制部件包括第三控制模块,所述第三控制模块在终端设备处于所述菜单设置模式的情况下,根据所述运动信息进行菜单设置。
9.根据权利要求8所述的终端设备,其特征在于,所述第三控制模块包括:
菜单显示单元,用于在终端设备进入所述菜单设置模式时,显示菜单阵列;
菜单选择单元,用于根据所述运动信息,选择所述菜单阵列中的菜单;
菜单激活单元,用于在判断所述指纹采集部件未采集到与所述菜单设置模式相对应的指纹信息的情况下,激活所述菜单选择单元当前所选择的菜单,并使所述终端设备退出所述菜单设置模式。
10.根据权利要求1所述的终端设备,其特征在于,所述工作模式包括基准视角设置模式,
所述控制部件包括第四控制模块,用于在所述终端设备处于所述基准视角设置模式的情况下,根据所述运动信息设置全景视频的基准视角。
11.根据权利要求10所述的终端设备,其特征在于,所述第四控制模块包括:
视角变换单元,用于在所述终端设备处于所述基准视角设置模式的情况下,根据所述运动信息变换全景视频的显示视角;
基准视角确定单元,用于在判断所述指纹采集部件未采集到与所述基准视角设置模式相对应的指纹信息的情况下,以当前的显示视角作为所述全景视频的基准视角,并使所述终端设备退出所述基准视角设置模式。
12.根据权利要求1至11中任意一项所述的终端设备,其特征在于,所述终端设备还包括基准视角还原部件,所述基准视角还原部件包括:
第二计时单元,用于记录从所述指纹采集部件采集到指示还原全景视频的基准视角的指纹信息开始、持续采集到所述指纹信息的时间;
基准视角还原单元,用于在所述时间超过第二阈值的情况下,将全景视频的当前的显示视角还原为所述全景视频的基准视角。
13.一种可穿戴设备,其特征在于,所述可穿戴设备包括:
根据权利要求1-12中任意一项所述的终端设备,以及能够佩戴于头部的可穿戴装置,其中,所述终端设备能够设置在所述可穿戴装置上,使所述终端设备的显示器面向眼部。
14.根据权利要求13所述的可穿戴设备,其特征在于,所述可穿戴装置包括头盔或眼镜。
15.一种终端设备的控制方法,其特征在于,所述方法包括:
采集用户的指纹信息;
使终端设备进入与所述指纹信息相对应的工作模式;
检测所述终端设备的运动信息;
在所述终端设备处于所述工作模式的情况下,根据所述运动信息控制所述终端设备。
16.根据权利要求15所述的方法,其特征在于,所述指纹信息是通过设置于所述终端设备的与所述终端设备的显示器相反一侧的指纹采集部件采集的。
17.根据权利要求15所述的方法,其特征在于,使终端设备进入与所述指纹信息相对应的工作模式,包括:
记录从采集到所述指纹信息开始、持续采集到所述指纹信息的时间;
根据所述指纹信息与工作模式的对应关系,确定与所述指纹信息相对应的工作模式;
在所述时间超过第一阈值的情况下,使所述终端设备进入所述相对应的工作模式。
18.根据权利要求15所述的方法,其特征在于,所述方法还包括:
在终端设备处于所述工作模式期间,判断是否采集到与所述工作模式相对应的指纹信息;
在判断为未采集到与所述工作模式相对应的指纹信息的情况下,使所述终端设备退出所述工作模式。
19.根据权利要求15所述的方法,其特征在于,所述工作模式包括以下中的一种或多种:音量调节模式、播放进度调节模式、菜单设置模式和基准视角设置模式。
20.根据权利要求15所述的方法,其特征在于,所述工作模式包括音量调节模式,
在所述终端设备处于所述工作模式的情况下,根据所述运动信息控制所述终端设备,包括:
在终端设备处于所述音量调节模式的情况下,根据所述运动信息控制所述终端设备的音量。
21.根据权利要求15所述的方法,其特征在于,所述工作模式包括播放进度调节模式,
在所述终端设备处于所述工作模式的情况下,根据所述运动信息控制所述终端设备,包括:
在终端设备处于所述播放进度调节模式的情况下,根据所述运动信息控制所述终端设备的播放进度。
22.根据权利要求15所述的方法,其特征在于,所述工作模式包括菜单设置模式,
在所述终端设备处于所述工作模式的情况下,根据所述运动信息控制所述终端设备,包括:
在终端设备处于所述菜单设置模式的情况下,根据所述运动信息进行菜单设置。
23.根据权利要求22所述的方法,其特征在于,在终端设备处于所述菜单设置模式的情况下,根据所述运动信息进行菜单设置,包括:
在终端设备进入所述菜单设置模式时,显示菜单阵列;
根据所述运动信息,选择所述菜单阵列中的菜单;
在判断为未采集到与所述菜单设置模式相对应的指纹信息的情况下,激活当前所选择的菜单,并使所述终端设备退出所述菜单设置模式。
24.根据权利要求15所述的方法,其特征在于,所述工作模式包括基准视角设置模式,
在所述终端设备处于所述工作模式的情况下,根据所述运动信息控制所述终端设备,包括:
在所述终端设备处于所述基准视角设置模式的情况下,根据所述运动信息设置全景视频的基准视角。
25.根据权利要求24所述的方法,其特征在于,在所述终端设备处于所述基准视角设置模式的情况下,根据所述运动信息设置全景视频的基准视角,包括:
在所述终端设备处于所述基准视角设置模式的情况下,根据所述运动信息变换全景视频的显示视角;
在判断为未采集到与所述基准视角设置模式相对应的指纹信息的情况下,以当前的显示视角作为所述全景视频的基准视角,并使所述终端设备退出所述基准视角设置模式。
26.根据权利要求15至25中任意一项所述的方法,其特征在于,所述方法还包括:
记录从采集到指示还原全景视频的基准视角的指纹信息开始、持续采集到所述指纹信息的时间;
在所述时间超过第二阈值的情况下,将全景视频的当前的显示视角还原为所述全景视频的基准视角。
CN201610681089.1A 2016-08-17 2016-08-17 终端设备及其控制方法、可穿戴设备 Pending CN106250875A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201610681089.1A CN106250875A (zh) 2016-08-17 2016-08-17 终端设备及其控制方法、可穿戴设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201610681089.1A CN106250875A (zh) 2016-08-17 2016-08-17 终端设备及其控制方法、可穿戴设备

Publications (1)

Publication Number Publication Date
CN106250875A true CN106250875A (zh) 2016-12-21

Family

ID=57592980

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610681089.1A Pending CN106250875A (zh) 2016-08-17 2016-08-17 终端设备及其控制方法、可穿戴设备

Country Status (1)

Country Link
CN (1) CN106250875A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116721489A (zh) * 2023-08-11 2023-09-08 南京财经大学 智能锁控制数据处理方法及装置

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102135800A (zh) * 2011-03-25 2011-07-27 中兴通讯股份有限公司 电子设备及其功能控制方法
CN104767932A (zh) * 2015-03-12 2015-07-08 广东欧珀移动通信有限公司 一种终端的连拍方法及终端
CN105159726A (zh) * 2015-09-16 2015-12-16 广东欧珀移动通信有限公司 一种快速启动拍照的方法及装置
CN105159446A (zh) * 2015-08-20 2015-12-16 广东欧珀移动通信有限公司 一种终端的单手操作方法和装置
CN204948133U (zh) * 2015-08-11 2016-01-06 蔡伟霖 一种可穿戴眼罩式手机
CN205139837U (zh) * 2015-11-18 2016-04-06 南昌欧菲生物识别技术有限公司 音量控制装置及移动终端
CN105528162A (zh) * 2014-09-28 2016-04-27 中兴通讯股份有限公司 一种移动终端控制方法、装置及移动终端

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102135800A (zh) * 2011-03-25 2011-07-27 中兴通讯股份有限公司 电子设备及其功能控制方法
CN105528162A (zh) * 2014-09-28 2016-04-27 中兴通讯股份有限公司 一种移动终端控制方法、装置及移动终端
CN104767932A (zh) * 2015-03-12 2015-07-08 广东欧珀移动通信有限公司 一种终端的连拍方法及终端
CN204948133U (zh) * 2015-08-11 2016-01-06 蔡伟霖 一种可穿戴眼罩式手机
CN105159446A (zh) * 2015-08-20 2015-12-16 广东欧珀移动通信有限公司 一种终端的单手操作方法和装置
CN105159726A (zh) * 2015-09-16 2015-12-16 广东欧珀移动通信有限公司 一种快速启动拍照的方法及装置
CN205139837U (zh) * 2015-11-18 2016-04-06 南昌欧菲生物识别技术有限公司 音量控制装置及移动终端

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
87870网: "Facebook开发360度移动全景独立视频应用", 《HTTP://WWW.SOHU.COM/A/31918982_195134》 *
ADMIN: "Youtube支持360度全景视频了,结合VR设备效果更佳", 《HTTP://WWW.ARINCHINA.COM/ARTICLE-3167-1.HTML》 *
水之彼方: "如何用手机看360°全景视频", 《HTTPS://JINGYAN.BAIDU.COM/ARTICLE/EA24BC39945FA2DA62B331D0.HTML》 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116721489A (zh) * 2023-08-11 2023-09-08 南京财经大学 智能锁控制数据处理方法及装置
CN116721489B (zh) * 2023-08-11 2023-10-13 南京财经大学 智能锁控制数据处理方法及装置

Similar Documents

Publication Publication Date Title
CN105874780B (zh) 对一组图像生成文本色彩的方法和装置
KR102337682B1 (ko) 디스플레이 장치 및 그의 제어 방법
KR102171817B1 (ko) 디스플레이 장치 및 제어 방법
US20100134411A1 (en) Information processing apparatus and information processing method
US7995794B2 (en) Remote control of an image capturing unit in a portable electronic device
CN109032358B (zh) 基于手势识别的ar交互虚拟模型的控制方法及装置
US9794507B2 (en) Setting a feature from the main menu of an application
CN103197825B (zh) 图像处理装置和显示控制方法
KR102238330B1 (ko) 디스플레이 장치 및 그의 동작 방법
CN107534774A (zh) 相机模式控制
EP1762950A2 (en) Information processing apparatus, information processing method, program, and storage medium
CN105760102B (zh) 终端交互控制方法、装置及应用程序交互控制方法
CN101790053B (zh) 一种电视机运行的方法和电视机
CN106973323A (zh) 电子设备和在电子设备中扫描频道的方法
GB2552273A (en) Television User Interface
JP2010079332A (ja) 遠隔操作装置及び遠隔操作方法
CN104053060A (zh) 智能电视及其电视节目播放方法
EP2429175A2 (en) Image capturing apparatus and image capturing method
CN106406535B (zh) 一种移动设备操作方法、装置及移动设备
CN106250875A (zh) 终端设备及其控制方法、可穿戴设备
CN109284060A (zh) 显示控制方法及相关装置
WO2017165023A1 (en) Under-wrist mounted gesturing
EP4105765A1 (en) Device control method, apparatus and system
KR102250720B1 (ko) 디스플레이 장치 및 제어 방법
CN210573844U (zh) 一种腕部皮肤纹理形态变化的采集设备及指令输出设备

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20161221