CN112164146A - 内容控制方法、装置和电子设备 - Google Patents

内容控制方法、装置和电子设备 Download PDF

Info

Publication number
CN112164146A
CN112164146A CN202010924329.2A CN202010924329A CN112164146A CN 112164146 A CN112164146 A CN 112164146A CN 202010924329 A CN202010924329 A CN 202010924329A CN 112164146 A CN112164146 A CN 112164146A
Authority
CN
China
Prior art keywords
content
input
user
target
target content
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202010924329.2A
Other languages
English (en)
Inventor
陈开�
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Vivo Mobile Communication Co Ltd
Original Assignee
Vivo Mobile Communication Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Vivo Mobile Communication Co Ltd filed Critical Vivo Mobile Communication Co Ltd
Priority to CN202010924329.2A priority Critical patent/CN112164146A/zh
Publication of CN112164146A publication Critical patent/CN112164146A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本申请公开了一种内容控制方法、装置和电子设备,属于通信技术领域。能够解决视障人士无法正常使用AR设备的技术问题,该方法应用于AR设备,该AR设备包括穿戴件,该方法包括:在增强现实空间中显示目标内容;接收用户的第一输入;响应第一输入,更新目标内容的显示位置;或发送目标内容至穿戴件,并控制穿戴件输出目标内容。本申请适用于视障人士使用AR设备的场景中。

Description

内容控制方法、装置和电子设备
技术领域
本申请属于通信技术领域,具体涉及一种内容控制方法、装置和电子设备。
背景技术
视障人士的视觉敏锐度可能较低,且视野可能受损,从而导致视障人士的视力无法达到正常视力,也就是说,视障人士可能无法看清眼前的事物。
例如,当视障人士使用增强现实(augmented reality,AR)AR眼镜时,视障人士可能无法看清AR眼镜显示的内容。如此可能导致视障人士无法正常使用AR设备。
发明内容
本申请实施例的目的是提供一种内容控制方法、装置和电子设备,能够解决视障人士无法正常使用AR设备的问题。
为了解决上述技术问题,本申请是这样实现的:
第一方面,本申请实施例提供了一种内容控制方法,该方法可以应用于AR设备,该AR设备包括穿戴件,该方法包括:在增强现实空间中显示目标内容;接收用户的第一输入;响应于第一输入,更新目标内容的显示位置;或发送目标内容至穿戴件,并控制穿戴件输出目标内容。
第二方面,本申请实施例提供了一种内容控制装置,该装置包括显示模块、接收模块和处理模块;显示模块,用于在增强现实空间中显示目标内容;接收模块,用于接收用户的第一输入;处理模块,用于响应于第一输入,更新目标内容的显示位置;或用于发送目标内容至至AR设备中的穿戴件,并控制穿戴件输出目标内容。
第三方面,本申请实施例提供了一种电子设备,该电子设备包括处理器、存储器及存储在存储器上并可在处理器上运行的程序或指令,该程序或指令被处理器执行时实现如第一方面的方法的步骤。
第四方面,本申请实施例提供了一种可读存储介质,可读存储介质上存储程序或指令,该程序或指令被处理器执行时实现如第一方面的方法的步骤。
第五方面,本申请实施例提供了一种芯片,该芯片包括处理器和通信接口,通信接口和处理器耦合,处理器用于运行程序或指令,实现如第一方面的方法。
在本申请实施例中,内容控制装置可以在AR设备的增强现实空间中显示目标内容;且接收用户的第一输入;并响应于第一输入,更新目标内容的显示位置;或发送目标内容至AR设备中的穿戴件,并控制该穿戴件输出目标内容。通过该方案,一方面,由于用户可以通过第一输入触发内容控制装置移动目标内容的显示位置,因此用户可以根据其实际使用需求,触发内容控制装置将目标内容移动至便于用户看清的位置。另一方面,由于用户可以通过第一输入触发内容控制装置将目标内容发送至AR设备中的穿戴件,并控制穿戴件输出目标内容,因此用户可以通过穿戴件输出的内容确认目标内容。如此,本申请实施例提供的内容控制方法可以确保视障人士正常使用AR设备。
附图说明
图1为本申请实施例提供内容控制方法的示意图之一;
图2为本申请实施例提供的内容控制方法应用的界面示意图之一;
图3为本申请实施例提供的内容控制方法应用的界面示意图之二;
图4为本申请实施例提供的内容控制方法应用的界面示意图之三;
图5为用户执行第一输入之前,目标内容与用户之间的位置关系的示意图;
图6为本申请实施例提供的内容控制方法应用的界面示意图之四;
图7为本申请实施例提供的内容控制方法应用的界面示意图之五;
图8为本申请实施例中的内容控制装置的示意图;
图9为本申请实施例提供的电子设备的示意图;
图10为本申请实施例提供的电子设备的硬件示意图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
本申请的说明书和权利要求书中的术语“第一”、“第二”等是用于区别类似的对象,而不用于描述特定的顺序或先后次序。应该理解,这样使用的数据在适当情况下可以互换,以便本申请的实施例能够以除了在这里图示或描述的那些以外的顺序实施。此外,说明书以及权利要求中“和/或”表示所连接对象的至少其中之一,字符“/”,一般表示前后关联对象是一种“或”的关系。
增强现实(Augmented Reality,简称AR):可以实时地计算摄影机影像的位置及角度并加上相应图像、视频及三维模型。增强现实的目标是在显示屏上,把虚拟世界套在现实世界并进行互动。例如,基于增强现实技术可以设置诸如AR眼镜等AR设备,AR设备中的摄像头采集用户周围场景的图像,并对采集的图像进行三维建模处理后,展示在AR设备的展示单元(例如显示屏)中。
视野:在用户的头部和眼球固定不动的情况下,用户的眼睛观看正前方物体时所能看得见的空间范围。
下面结合附图,通过具体的实施例及其应用场景对本申请实施例提供的内容控制方法进行详细地说明。
如图1所示,本申请实施例提供的内容控制方法可以包括下述的步骤101至步骤103。
步骤101、内容控制装置在增强现实空间中显示目标内容。
本申请实施例中,上述增强现实空间为AR设备对应的增强现实空间。
可选地,本申请实施例中,AR设备可以为AR眼镜、AR头盔等穿戴式AR设备,具体可以根据实际使用需求确定,本申请实施例不作限定。
本申请实施例中的AR设备包括穿戴件,该穿戴件可以为指环(戒指)、手套、手柄等任意可以穿戴在用户手部上或被用户手部握持的部件;且该穿戴件具有信息传输功能和信息输出功能。
可选地,本申请实施例中,目标内容可以以AR形式显示。
可选地,本申请实施例中,目标内容可以包括以下至少一项:字符、图片、语音、视频画面。
其中,字符是文字和符号的统称。
例如,字符可以包括:字母、汉字、标点符号、运算符号、特殊符号等。
步骤102、内容控制装置接收用户的第一输入。
可选地,本申请实施例中,第一输入可以为语音输入或用户手势输入,具体可以根据实际使用需求确定,本申请实施例不作限定。
可选地,本申请实施例中,第一输入可以为用户查看增强现实空间中的内容的输入,或者可以为用户在增强现实空间中的输入区域输入内容的输入,或者可以为用户对增强现实空间中的输入区域中的内容进行修改的输入,具体可以根据实际使用需求确定,本申请实施例不作限定。
可选地,本申请实施例中,上述输入区域可以为解锁界面中用于输入解锁密码的区域;也可以为支付界面中用于输入支付密码的区域;还可以为会话界面中用于输入会话内容的区域;具体可以根据实际使用需求确定,本申请实施例不作限定。
步骤103、内容控制装置响应于第一输入,更新目标内容的显示位置;或发送目标内容至穿戴件,并控制穿戴件输出目标内容。
下面通过一种可能的实现方式和另一种可能的实现方式对本申请实施例提供的内容控制方法进行详细描述。
一种可能的实现方式:内容控制装置响应于第一输入,更新目标内容的显示位置。
可选地,本申请实施例中,在一种可能的实现方式中,假设目标内容在增强现实空间中的显示位置为位置A,那么内容控制装置可以将目标内容在增强现实空间中的显示位置更新为位置B,其中,位置A与位置B不同;例如,假设位置A的坐标信息为(x0,y0,z0),位置B的坐标信息为(x1,y1,z1),那么位置A的坐标信息和位置B的坐标信息满足以下至少一项:x0与x1不同、y0与y1不同、z0与z1不同。
需要说明的是,本申请实施例中,假设用户当前所在位置为位置C,那么位置C与上述位置A与之间的距离大于位置C与上述位置B之间的距离。即更新目标内容的显示位置之后,目标内容更靠近用户,这样可以便于视障人士看清目标内容。
示例性地,如图2中的(a)所示,由于增强现实空间中的以AR形式显示的内容“1”位于视障人士的视野20的左侧边缘,因此,视障人士无法确认该内容为“1”还是“i”,那么如图2中的(b)所示,视障人士为了看清楚“1”,可以通过第一输入触发内容控制装置将“1”从视障人士的视野20的左侧边缘移动至视障人士的视野20的中心区域,以便于视障人士看清楚“1”。其中,用户执行第一输入前后,用户的头部可以保持不动。
又示例性地,图3中的(a)为增强现实空间中的目标内容30与用户31的示意图,如图3中的(a)所示,该用户31为视障人士,且该用户31无法看清楚目标内容30,那么:该用户可以通过第一输入,触发内容控制装置控制目标内容30向靠近该用户的方向移动(例如控制目标内容沿虚线线头32所示方向移动),即更新目标内容的显示位置。图3中的(b)为更新显示位置后的目标内容30与用户31的示意图。
如此,由于内容控制装置可以将目标内容的显示位置更新至视障人士可以看清楚的位置,因此视障人士可以看清楚目标内容,从而可以提高视障人士使用AR设备的可靠性。
本申请实施例中,由于用户可以通过第一输入触发内容控制装置移动目标内容的显示位置,因此用户可以根据其实际使用需求,触发内容控制装置将目标内容移动至便于用户看清的位置,从而使得视障人士能够正常使用AR设备。
另一种可能的实现方式:内容控制装置响应于第一输入,发送目标内容至穿戴件,并控制穿戴件输出目标内容。
本申请实施例中,在另一种可能的实现方式中,内容控制装置接收到用户的第一输入之后,可以响应于第一输入,发送目标内容指穿戴件,并控制穿戴件以目标方式输出目标内容。
可以理解,本申请实施例中,穿戴件接收到目标内容之后,可以按照目标方式输出目标内容。
可选地,本申请实施例中,目标方式可以为以下任意一项:语音输出方式、触觉输出方式。
可选地,本申请实施例中,当目标方式为语音输出方式时,用户可以通过听觉确认目标内容。当目标方式为触觉输出方式时,用户可以通过触感确认目标内容。
本申请实施例中,由于用户可以通过第一输入触发内容控制装置将目标内容发送至AR设备中的穿戴件,并控制穿戴件输出目标内容,因此用户可以通过穿戴件输出的内容确认目标内容,如此可以确保视障人士正常使用AR设备。
本申请实施例提供的内容控制方法中,一方面,由于用户可以通过第一输入触发内容控制装置移动目标内容的显示位置,因此用户可以根据其实际使用需求,触发内容控制装置将目标内容移动至便于用户看清的位置。另一方面,由于用户可以通过第一输入触发内容控制装置将目标内容发送至AR设备中的穿戴件,并控制穿戴件输出目标内容,因此用户可以通过穿戴件输出的内容确认目标内容。如此,本申请实施例提供的内容控制方法可以确保视障人士正常使用AR设备。
可选地,本申请实施例中,在上述一种可能的实现方式中,在上述步骤102之前,本申请实施例提供的内容控制方法还可以包括下述的步骤104,上述步骤102具体可以通过下述的步骤102a实现。
步骤104、内容控制装置确定用户与目标内容之间的第一距离。
本申请实施例中,第一距离为用户执行第一输入之前,用户与目标内容之间的距离。
具体的,第一距离为用户执行第一输入之前,AR设备的显示屏(或用户的眼睛)当前所在位置与目标内容的显示位置之间的距离。为了便于描述,下述实时例中所述的用户当前所处的位置均指AR设备的显示屏或用户的眼睛当前所处的位置。
可选地,本申请实施例中,第一距离可以为预先设置的,例如第一距离为定值(一),也可以为内容控制装置基于用户和目标内容在增强现实空间中所在的位置确定的(二),具体可以根据实际使用需求确定,本申请实施例不作限定。
具体的,在上述(一),当用户移动时,目标内容跟随用户移动,并保持目标内容与用户之间的距离不变;这种情况下,内容控制装置可以直接获取第一距离。在上述(二)中,当用户移动时,目标内容不跟随用户移动,即目标内容在增强现实空间中的位置不跟随用户的移动而变动;这种情况下,内容控制装置可以先获取用户在增强现实空间中的位置信息(以下称为用户位置信息)和目标内容在增强现实空间中的位置信息(以下称为初始位置信息);然后内容控制装置可以根据用户位置信息和初始位置信息确定用户与目标内容之间的第一距离。
其中,用户位置信息指示用户在增强现实空间中当前所处的位置,初始位置信息指示目标内容在增强现实空间中当前的显示位置,例如下述的第一位置。
对于获取用户位置信息和初始位置信息的方法具体可以根据实际使用需求确定,本申请实施例不作限定。
需要说明的是,上述实施例是以在步骤102之前执行步骤104为例进行示意的,实际实现中,还可以在执行步骤102之后,步骤103之前,执行步骤104,具体可以根据实际使用需求确定,本申请实施例不作限定。
步骤102a、内容控制装置响应于第一输入,将目标内容的显示位置从第一位置更新为第二位置。
其中,第二位置根据第一输入的输入参数确定,第二位置与用户之间的距离为第二距离,第二距离小于第一距离。
本申请实施例中,第一位置为用户执行第一输入之前,目标内容在增强现实空间中的显示位置。
本申请实施例中,内容控制装置接收到用户的第一输入之后,可以响应于第一输入,获取第一输入的输入参数,并根据该输入参数确定第二位置。
可选地,本申请实施例中,当第一输入为用户手势输入时,第一输入的输入参数可以包括第一输入的轨迹位置、第一输入的轨迹方向、第一输入的轨迹尺寸(形状、面积)中的至少一项。当第一输入为语音输入时,第一输入的输入参数为该语音输入的语音信息,具体可以根据实际使用需求确定,本申请实施例不作限定。
下面对内容控制装置根据第一输入的输入参数确定第二位置的方法进行示例性地描述。
本申请实施例中,当第一输入为用户手势输入时,第二位置可以通过下述的方法1至方法3确定,当第一输入为语音输入时,第二位置可以通过下述的方法4确定。
方法1
可选地,本申请实施例中,在方法1中,内容控制装置可以将增强现实空间中与第一输入的输入参数对应的位置,确定为第二位置。
例如,如图4中的(a)所示,增强现实空间显示现实空间中的壁画40、椅子41和桌子42,以及虚拟空间中的足球43(即目标内容);壁画40与用户的距离大于桌子42与用户之间的距离,且目标内容43显示在壁画40上。那么若用户需求将足球43显示在桌子42上,则用户可以隔空对桌子42点击(即第一输入),这样内容控制装置可以响应于该点击输入,将增强现实空间中桌子42所处的位置,确定为第二位置。这样,如图4中的(b)所示,内容控制装置可以将足球43从壁画40所处的位置(即第一位置)更新为桌子42在的位置(即第二位置)。即将目标内容的显示位置从第一位置更新为第二位置。
方法2
可选地,本申请实施例中,在方法2中,第一输入的输入参数可以对应第一更新距离。内容控制装置根据第一输入的输入参数确定第二位置具体可以为:将增强现实空间中,在目标方向上与第一位置之间的距离为第一更新距离的位置确定为第二位置,其中,目标方向为从第一位置指向用户的方向。
例如,用户可以在现实空间中向下(相对于AR设备的显示屏)画箭头(即第一输入为向下画箭头的手势输入),如果该手势输入的轨迹尺寸对应2米(即第一更新距离),那么内容控制装置可以将第一位置与用户之间的连线上,距离第一位置2米的位置确定为第二位置。
需要说明的是,本申请实施例中,第一更新距离小于第一距离。
方法3
可选地,本申请实施例中,在方法2中,第一输入的输入参数可以对应第二更新距离。内容控制装置可以将增强现实空间中,与用户之间的距离为第二更新距离的任意一个位置确定为第二位置。
其中,第二更新距离小于第一距离,例如,第二更新距离可以为第一距离的k倍,k为大于0,且小于1的数。
本申请实施例中,第二位置位于第一位置与用户之间。
本申请实施例中,第二位置具体可以为一个弧面(以下称为目标弧面)上的任意位置。目标弧面可以为第一位置与用户之间的范围内,以用户为圆心,以第二更新距离为半径的弧面。
例如,如图5所示,假设接收到第一输入之前,目标内容50的显示位置为位置A(即第一位置),且位置A的坐标信息为(a1,b1,0),用户当前所处的位置为位置C,且位置C的坐标信息为(a2,b2,0);且位置A与位置C之间的距离为d1=|AC|,以及第一输入的轨迹形状对应的更新距离d2为0.6(k=0.6)*d1;那么第一位置与用户之间的范围为直线p1和直线p2之间的范围;第二位置可以为图5所示的弧线WH上的任意一点,且弧线WH为以位置C为圆心,以d2为半径的弧线。
进一步地,由于视障人士的视野可能受损,从而可能无法看清图5中弧线WU和弧线VH处显示的内容,因此,实际实现中,第二位置可以为弧线UV上的任意一点。换句话说,实际实现中,第二位置为劣弧UV上的任意一点。图5中的弧线UV仅为示意,并不对本申请实施例提供的内容控制方法构成任何限定,实际实现中,弧线UV对应的角度可以根据实际使用需求确定。
方法4
可选地,本申请实施例中,在方法4中,内容控制装置可以根据语音输入的语音信息确定第二位置。
例如,如图4所示,虚拟空间中的足球43(即目标内容)显示在现实空间中的壁画40上,此时,如果用户需求将足球43显示在现实空间中的桌子42上,那么用户可以说“将足球显示在桌子上”(即第一输入),这样内容控制装置可以根据用户输入的语音信息“显示在桌子上”确定第二位置为桌子所处的位置,从而内容控制装置可以将足球43的显示位置从壁画40所在位置更新为桌子的桌面所在位置。
此外,除上述方法1至4之外,第二位置还可以为增强现实空间中的一个预设位置,当用户执行第一输入时,内容控制装置可以直接将目标内容的显示位置更新至该预设位置,该预设位置可以为增强现实空间中视障人士可以看清以一定尺寸显示内容的位置。
本申请实施例中,由于内容控制装置可以将目标内容的显示位置从第一位置更新至第一输入的输入参数确定第二位置,因此用户可以根据其实际使用需求,触发内容控制装置将目标内容的显示位置更新至满足其实际使用需求的位置,从而本申请实施例提供的内容控制方法不但可以确保视障人士正常使用AR设备,而且可以提高AR设备显示内容的灵活性。
可选地,本申请实施例中,在上述一种可能的实现方式中,内容控制装置可以更新目标内容中的至少部分内容的显示位置。上述步骤102a具体可以通过下述的步骤102a1实现。
步骤102a1、内容控制装置响应于第一输入,将第一内容的显示位置从第一位置更新为第二位置。
其中,上述第一距离具体可以为用户与第一内容之间的距离,第一内容可以为目标内容中,根据用户输入所确定的内容。
可选地,本申请实施例中,第一内容可以为内容控制装置根据第一输入,从目标内容中确定的内容;或者可以为内容控制装置根据第二输入,从目标内容中确定的内容,具体可以根据实际使用需求确定,本申请实施例不作限定,第二输入可以为用户执行第一输入之前执行的输入。
示例性地,假设目标内容包括AR键盘和AR输入框,且AR键盘当前的显示位置为第一位置;又假设第一输入为用户对AR输入框的长按输入(隔空长按),该长按输入的长按时长对应第一更新距离,且根据该长按输入确定的第一内容为AR输入框;那么,当用户在AR输入框上长按时,内容控制装置可以将AR输入框(即第一内容)的显示位置更新从第一位置更新为第二位置,第二位置为从第一位置指向用户的方向上,与第一位置之间的距离为第一更新距离的位置。
本申请实施例中,由于用户可以触发内容控制装置更新目标内容中的部分内容的显示位置,因此可以提高更新内容显示的位置的灵活性。
可选地,本申请实施例中,当第一输入为用户手势输入时,在上述步骤102a1之前,本申请实施例提供的内容控制方法还可以包括下述的步骤106和步骤107,上述步骤102a1具体可以通过下述的步骤A实现。
步骤106、内容控制装置响应于用户手势输入,确定该用户手势输入的输入轨迹。
可选地,本申请实施例中,用户手势输入的输入轨迹可以包括以下至少一项:轨迹方向、轨迹尺寸和轨迹位置(起始位置和/或结束位置)。
可选地,本申请实施例中,内容控制装置可以通过三种方式(即下述的第一种方式、第二种方式和第三种方式)确定用户手势输入的输入轨迹。
第一种方式
本申请实施例中,由于AR设备的可以通过摄像头采集现实空间的图像,且该图像上的每个区域均与增强现实空间中的一个空间区域对应,因此当用户在AR设备的摄像头的采集范围内执行一个手势输入时,AR设备可以通过其摄像头采集用户的手势图像,并将该手势图像在增强现实空间中的投影轨迹确定为用户手势输入的输入轨迹。
第二种方式
可选地,本申请实施例中,在第二种方式中,穿戴件中可以包括至少一个六轴陀螺仪,上述步骤104具体可以通过下述的步骤104a至步骤104c实现。
步骤104a、内容控制装置接收穿戴件发送的第一信息。
其中,第一信息为用户手势输入对应的轨迹尺寸信息,第一信息具体可以为六轴陀螺仪获取的。
本申请实施例中,第一信息可以指示用户手势输入在增强现实空间中的轨迹尺寸(形状、长度(或面积))。
例如,用户手势输入在增强现实空间中的轨迹形状可以为圆形、对号形、箭头形等。用户手势输入在增强现实空间中的轨迹长度可以为30厘米、20厘米等;用户手势输入在增强现实空间中的轨迹面积可以为20平方厘米、15平方厘米等;具体可以根据实际使用需求确定,本申请实施例不作限定。
本申请实施例中,六轴陀螺仪也称为六轴动作感应器,六轴陀螺仪包括三轴陀螺仪和三轴加速计器。对于穿戴件通过六轴陀螺仪获取第一信息的方法,具体可以根据实际使用需求确定,本申请实施例不作限定。
步骤104b、内容控制装置根据采集的第一图像,获取第二信息。
步骤104c、内容控制装置根据第一信息和第二信息,确定用户手势输入的输入轨迹。
其中,第一图像包括用户的手势图像,第二信息为该手势图像在增强现实空间中对应的位置信息,也就是说,第二信息可以指示用户手势输入在增强现实空间中的位置。
本申请实施例中,第一图像为深度图像。
本申请实施例中,内容控制装置可以根据第二信息确定上述轨迹尺寸在增强现实空间中的位置。如此,内容控制装置可以根据第一信息和第二信息,确定用户手势输入的输入轨迹。
可选地,本申请实施例中,上述第一信息还可以包括用户手势输入对应的轨迹方向信息,该轨迹方向信息可以指示用户手势输入在增强现实空间中的轨迹方向。例如,该轨迹方向可以为相对于AR设备的显示屏向左的方向、相对于AR设备的显示屏向右的方向、相对于AR设备的显示屏向上的方向、或相对于AR设备的显示屏向下的方向。
可以理解,本申请实施例中,当第一信息中包括用户手势输入对应的轨迹方向信息时,用户手势输入的输入轨迹包括轨迹位置、轨迹尺寸和轨迹方向。
第三种方式
本申请实施例中,穿戴件中包括至少一个六轴陀螺仪。
可选地,本申请实施例中,上述增强现实空间中显示一个指示光标,穿戴件中的六轴陀螺仪与该指示光标对应。例如,用户将穿戴件向左移动时,该指示光标也向左移动;用户将穿戴件向右移动时,目标光标也向右移动。
本申请实施例中,在第三种方式中,用户手势输入的输入轨迹具体可以为目标光标的移动轨迹。
步骤107、内容控制装置将第一输入的输入轨迹选中的内容确定为第一内容。
步骤A、内容控制装置将第一内容的显示位置从第一位置更新为第二位置。
本申请实施例中,第一输入的输入轨迹选中的内容具体可以为目标内容中的内容。
可选地,本申请实施例中,第一内容可以为目标内容中位于用户手势输入的输入轨迹范围内的内容,例如用户手势输入为用户在增强现实空间中画圈的输入时,第一内容可以为目标内容中,位于该圈内的内容。或者,第一内容可以为目标内容中,显示位置与用户手势输入的轨迹位置(起始位置和/或结束位置)相同的内容,例如,用户手势输入为在增强现实空间中的点击输入时,第一内容可以为目标内容中,显示位置与该点击位置相同的内容。或者,第一内容可以为目标内容中,与用户手势输入的轨迹方向和/或轨迹形状对应的内容。具体可以根据实际使用需求确定,本申请实施例不作限定。
本申请实施例中,由于用户手势输入的输入轨迹选中的内容可以反映用户需求输入的内容,因此内容控制装置将用户手势输入的输入轨迹选中的内容确定为第一内容,可以提高用户输入内容的准确性。
可选地,本申请实施例中,在上述另一种可能的实现方式中,上述穿戴件中可以包括N个运动部件,上述目标内容可以包括至少一个字符,N可以为正整数。上述步骤102具体可以通过下述的步骤102b实现。
步骤102b、内容控制装置响应于第一输入,发送目标字符至穿戴件,并控制N个运动部件中的目标运动部件,按照目标字符的字形震动或滑动,以使用户通过触感确认所述目标字符。
其中,目标内容可以包括目标字符。
本申请实施例中,目标字符具体可以为上述至少一个字符中,内容控制装置根据用户输入所确定的字符。
对于内容控制装置确定目标字符的方法,具体可以参见上述实施例中确定第一内容的相关描述,为了避免重复,此处不再赘述。
可选地,本申请实施例中,N个运动部件可以为穿戴件中可以滑动(具体可以为移动或滚动)的部件(1),或者可以为穿戴件中可以震动的部件(2)。
可选地,本申请实施例中,在上述(1)中,内容控制装置可以控制N个运动部件中的目标运动部件,按照目标字符的字形(也即显示图案)滑动。
具体的,内容控制装置可以控制目标运动部件在穿戴件中沿目标轨迹移动/滚动,目标轨迹指示目标字符的字形。
示例性地,在上述(1)中,假设目标字符为“2”,那么如图6所示,内容控制装置可以控制智能手套60(即穿戴件)中的运动部件61沿目标轨迹(如图6中的虚线箭头所示的轨迹)移动/滚动,即内容控制装置控制穿戴件中的目标运动部件,按照目标字符的字形滑动。这样,目标运动部件的滑动轨迹可以构成“2”的字形,使得视障人士可以通过目标运动部件的滑动轨迹来确认其输入的目标字符。
可选地,本申请实施例中,在上述(2)中,N个运动部件的位置固定,且该N个运动部件可以上下震动或左右震动,以及该N个运动部件可以独立工作。内容控制装置接收到第一输入之后,可以控制该N个运动部件中的目标运动部件震动,按照目标字符的字形震动,使得视障人士可以通过触感确认目标字符。
可选地,本申请实施例中,在上述(2)中,N个运动部件N个电流震动器,该N个电流震动器可以根据内容的显示图案(例如字形)进行局部区域震动,以使视障人士感知到该内容。
示例性地,在上述(2)中,如图7中的(a)所示,假设穿戴件为智能手套60,该智能手套60中包括49(N=49)个运动部件62;那么若目标字符为“L”,则如图7中的(b)所示,内容控制装置可以控制穿戴件中的构成的图案为“L”形的12个震动部件(例如图7中的(b)中所示的12个黑色圆,即目标运动部件)震动,这样可以确保该12个运动部件震动出的轨迹形状与目标字符“L”的字形匹配。如此,视障人士能够通过感知该12个运动部件的震动,目标字符“L”。
本申请实施例中,由于内容控制装置可以控制N个运动部件中的目标运动部件,按照目标字符的字形震动或滑动,因此使得视障人士可以通过感知目标运动部件的震动轨迹或滑动轨迹知晓其输入的内容,如此可以确保视障人士准确输入内容。
可选地,本申请实施例中,上述目标内容为用户在输入区域输入的内容,即目标内容具体可以为增强现实空间中的输入区域显示的内容。在上述步骤103之后,本申请实施例提供的内容控制方法还可以包括下述的步骤108。
步骤108、内容控制装置在满足第一条件的情况下,对第二内容执行目标操作。
其中,第一条件可以为以下:(3)、接收到用户确认输入内容的输入;(4)、接收到用户修改目标内容的输入;(5)、在更新目标内容的显示位置或控制穿戴件输出目标内容后的预设时长(具体可以根据实际使用需求确定,本申请实施例不作限定)内未接收到用户输入。
本申请实施例中,第二内容为输入区域当前显示的内容。
可选地,本申请实施例中,第二内容为具体可以为目标内容或为用户对目标内容修改后的内容。
可选地,本申请实施例中,内容控制装置执行步骤103之后,如果用户认为目标内容就是其需求输入的内容,那么用户可以执行确认输入第一内容的输入或者可以在预设时长内不执行任何输入,以触发内容控制装置确认输入第一内容;或者,如果用户认为目标内容不是其需求输入的内容(例如第一内容输错了),那么用户可以触发内容控制装置对目标内容进行修改。
可选地,本申请实施例中,为了便于用户确认修改后的内容,内容控制装置每对输入区域中的内容进行修改,即可以更新修改后的内容的显示位置,或控制穿戴件按照目标方式输出修改后的内容,以便于用户确认修改后的内容。
可以理解,当用户对目标内容进行修改时,内容控制装置可以在接收到用户确认输入第二内容的输入,或在更新第二内容的显示位置或控制穿戴件输出第二内容后的预设时长内未接收到用户输入的情况下,对第二内容执行目标操作。
可以理解,本申请实施例中,第二内容为满足用户实际输入需求的内容。
可选地,本申请实施例中,确认输入内容的输入可以为以下任意一项:用户的确认手势输入(例如,画一个对号“√”),或用户对穿戴件中的预设按键的输入(例如,在预设按键上按压)。
其中,当确认输入内容的输入为用户对穿戴件中的预设按键的输入时,穿戴件在接收到用户对该预设按键的输入之后,可以生成确认输入指令,并向输入控制设备发送该确认输入指令;从而输入控制设备接收到该确认输入指令之后,可以确认输入内容。
可选地,本申请实施例中,上述预设按键可以为接触传感器,也可以为其他任意可以触发确认指令的器件,具体可以根据实际使用需求确定,本申请实施例不作限定。
可选地,本申请实施例中,上述输入区域对应的界面不同,则内容控制装置对第二内容执行的目标操作也可能不同。
例如,假设输入区域为一个应用程序的登录界面中的密码输入区域,即输入区域对应该应用程序的登录界面;那么当内容控制装置在满足第一条件时,内容控制装置可以将第二内容与预设登录密码进行比对,若第二内容与预设登录密码相同,则显示该应用程序的界面;若第二内容与预设登录密码不同,则输出“密码错误,请重新输入”的提示信息。
又例如,假设输入区域为一个会话的界面中用于输入内容的区域,即该输入区域对应会话的界面;那么当内容控制装置在满足第一条件时,内容控制装置可以通过该会话发送第二内容。
又例如,假设输入区域为AR设备的锁屏界面中用于输入密码的区域,那么当内容控制装置在满足第一条件时,内容控制装置可以将第二内容与预设解锁密码进行比对,若第二内容与预设解锁密码相同,则解锁AR设备,并显示AR设备的桌面;若第二内容与预设解锁密码不同,则输出“密码错误,请重新输入”的提示信息。
需要说明的是,本申请实施例中,上述示例仅为对目标操作的示例性说明,实际实现中,目标操作还可以为其他任意可能的操作,具体可以根据实际使用需求确定,本申请实施例不作限定。
本申请实施例中,由于内容控制装置可以在用户确认输入区域显示的第二内容为满足其实际输入需求的内容之后,才对第二内容执行目标操作,因此可以确保目标操作的执行结果满足用户的实际使用需求。
需要说明的是,本申请实施例提供的内容控制方法,执行主体可以为内容控制装置,或者该内容控制装置中的用于执行内容控制方法的控制模块。本申请实施例中以内容控制装置执行内容控制方法为例,说明本申请实施例提供的内容控制装置。
如图8所示,本申请实施例提供一种内容控制装置70,该内容控制装置可以包括显示模块71、接收模块72和处理模块73。显示模块71,可以用于在增强现实空间中显示目标内容;接收模块72,可以用于接收用户的第一输入;处理模块73,可以用于响应第一输入,更新目标内容的显示位置;或用于发送目标内容至AR设备中的穿戴件,并控制穿戴件输出目标内容。
本申请实施例提供的内容控制装置中,一方面,由于用户可以通过第一输入触发内容控制装置移动目标内容的显示位置,因此用户可以根据其实际使用需求,触发内容控制装置将目标内容移动至便于用户看清的位置。另一方面,由于用户可以通过第一输入触发内容控制装置将目标内容发送至AR设备中的穿戴件,并控制穿戴件输出目标内容,因此用户可以通过穿戴件输出的内容确认目标内容。如此,本申请实施例提供的内容控制方法可以确保视障人士正常使用AR设备。
可选地,本申请实施例中,内容控制装置还可以包括确定模块。确定模块,可以用于在显示模块71在增强现实空间中显示目标内容之后,在接收模块72接收用户的第一输入之前,确定用户与目标内容之间的第一距离;处理模块73,具体可以用于将目标内容的显示位置从第一位置更新为第二位置;其中,第二位置根据第一输入的输入参数确定,第二位置与用户之间的距离为第二距离,第二距离小于第一距离。
本申请实施例提供的内容控制装置中,由于内容控制装置可以将目标内容的显示位置从第一位置更新至第一输入的输入参数确定第二位置,因此用户可以根据其实际使用需求,触发内容控制装置将目标内容的显示位置更新至满足其实际使用需求的位置,从而本申请实施例提供的内容控制方法不但可以确保视障人士正常使用AR设备,而且可以提高AR设备显示内容的灵活性。
可选地,本申请实施例中,处理模块73,具体可以用于将第一内容的显示位置从第一位置更新为第二位置,第一内容为目标内容中,根据用户输入所确定的内容;其中,第一距离具体可以为更新第一内容的显示位置之前,用户与第一内容之间的距离。
本申请实施例提供的内容控制装置中,由于用户可以触发内容控制装置更新目标内容中的部分内容的显示位置,因此可以提高更新内容显示的位置的灵活性。
可选地,本申请实施例中,第一输入为用户手势输入;确定模块,还用于在处理模块73更新目标内容的显示位置之前,确定用户手势输入的输入轨迹;并将输入轨迹选中的内容确定为第一内容。
本申请实施例提供的内容控制装置中,由于用户手势输入的输入轨迹选中的内容可以反映用户需求输入的内容,因此内容控制装置将用户手势输入的输入轨迹选中的内容确定为第一内容,可以提高用户输入内容的准确性。
可选地,本申请实施例中,穿戴件中可以包括N个运动部件,目标内容可以包括至少一个字符,N可以为正整数;处理模块73,具体用于控制N个运动部件中的目标运动部件,按照目标字符的字形震动或滑动,以使用户通过触感确认目标字符;其中,目标内容可以包括目标字符。
本申请实施例提供的内容控制装置中,由于内容控制装置可以控制N个运动部件中的目标运动部件,按照目标字符的字形震动或滑动,因此使得视障人士可以通过感知目标运动部件的震动轨迹或滑动轨迹知晓其输入的内容,如此可以确保视障人士准确输入内容。
本申请实施例中内容控制装置可以是电子设备,也可以是电子设备中的部件、集成电路、或芯片。该电子设备可以是移动电子设备,也可以为非移动电子设备。示例性的,移动电子设备可以为手机、平板电脑、笔记本电脑、掌上电脑、车载电子设备、可穿戴设备、超级移动个人计算机(ultra-mobile personal computer,UMPC)、上网本或者个人数字助理(personal digital assistant,PDA)等,非移动电子设备可以为AR设备、个人计算机(personal computer,PC)、电视机(television,TV)、柜员机或者自助机等,本申请实施例不作具体限定。
本申请实施例中的内容控制装置可以为具有操作***的装置。该操作***可以为安卓(Android)操作***,可以为ios操作***,还可以为其他可能的操作***,本申请实施例不作具体限定。
本申请实施例提供的内容控制装置能够实现图1至图7的方法实施例中内容控制装置实现的各个过程,为避免重复,这里不再赘述。
如图9所示,本申请实施例还提供一种电子设备200,包括处理器202,存储器201,存储在存储器201上并可在处理器202上运行的程序或指令,该程序或指令被处理器202执行时实现上述内容控制方法实施例的各个过程,且能达到相同的技术效果,为避免重复,这里不再赘述。
需要注意的是,本申请实施例中的电子设备包括上述所述的移动电子设备和非移动电子设备。
图10为实现本申请实施例的一种电子设备的硬件结构示意图。
该电子设备1000包括但不限于:射频单元1001、网络模块1002、音频输出单元1003、输入单元1004、传感器1005、显示单元1006、用户输入单元1007、接口单元1008、存储器1009、以及处理器1010等部件。
本领域技术人员可以理解,电子设备1000还可以包括给各个部件供电的电源(比如电池),电源可以通过电源管理***与处理器1010逻辑相连,从而通过电源管理***实现管理充电、放电、以及功耗管理等功能。图10中示出的电子设备结构并不构成对电子设备的限定,电子设备可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置,在此不再赘述。
其中,显示单元1006,可以用于在增强现实空间中显示目标内容;用户输入单元1007,可以用于接收用户的第一输入;处理器1010,可以用于响应第一输入,更新目标内容的显示位置;或用于发送目标内容至AR设备中的穿戴件,并控制穿戴件输出目标内容。
本申请实施例提供的电子设备中,一方面,由于用户可以通过第一输入触发电子设备移动目标内容的显示位置,因此用户可以根据其实际使用需求,触发电子设备将目标内容移动至便于用户看清的位置。另一方面,由于用户可以通过第一输入触发电子设备将目标内容发送至AR设备中的穿戴件,并控制穿戴件输出目标内容,因此用户可以通过穿戴件输出的内容确认目标内容。如此,本申请实施例提供的内容控制方法可以确保视障人士正常使用AR设备。
可选地,本申请实施例中,处理器1010,可以用于在显示单元1006增强现实空间中显示目标内容之后,在用户输入单元1007接收用户的第一输入之前,确定用户与目标内容之间的第一距离;处理器1010,具体可以用于将目标内容的显示位置从第一位置更新为第二位置;其中,第二位置根据第一输入的输入参数确定,第二位置与用户之间的距离为第二距离,第二距离小于第一距离。
本申请实施例提供的电子设备中,由于电子设备可以将目标内容的显示位置从第一位置更新至第一输入的输入参数确定第二位置,因此用户可以根据其实际使用需求,触发电子设备将目标内容的显示位置更新至满足其实际使用需求的位置,从而本申请实施例提供的内容控制方法不但可以确保视障人士正常使用AR设备,而且可以提高AR设备显示内容的灵活性。
可选地,本申请实施例中,处理器1010,具体可以用于将第一内容的显示位置从第一位置更新为第二位置,第一内容为目标内容中,根据用户输入所确定的内容;其中,第一距离具体可以为更新第一内容的显示位置之前,用户与第一内容之间的距离。
本申请实施例提供的电子设备中,由于用户可以触发电子设备更新目标内容中的部分内容的显示位置,因此可以提高更新内容显示的位置的灵活性。
可选地,本申请实施例中,第一输入为用户手势输入;处理器1010,还用于在处理器1010更新目标内容的显示位置之前,确定用户手势输入的输入轨迹;并将输入轨迹选中的内容确定为第一内容。
本申请实施例提供的电子设备中,由于用户手势输入的输入轨迹选中的内容可以反映用户需求输入的内容,因此电子设备将用户手势输入的输入轨迹选中的内容确定为第一内容,可以提高用户输入内容的准确性。
可选地,本申请实施例中,穿戴件中可以包括N个运动部件,目标内容可以包括至少一个字符,N可以为正整数;处理器1010,具体用于控制N个运动部件中的目标运动部件,按照目标字符的字形震动或滑动,以使用户通过触感确认目标字符;其中,目标内容可以包括目标字符。
本申请实施例提供的电子设备中,由于电子设备可以控制N个运动部件中的目标运动部件,按照目标字符的字形震动或滑动,因此使得视障人士可以通过感知目标运动部件的震动轨迹或滑动轨迹知晓其输入的内容,如此可以确保视障人士准确输入内容。
应理解的是,本申请实施例中,输入单元1004可以包括图形处理器(GraphicsProcessing Unit,GPU)10041和麦克风10042,图形处理器10041对在视频捕获模式或图像捕获模式中由图像捕获装置(如摄像头)获得的静态图片或视频的图像数据进行处理。显示单元1006可包括显示面板10061,可以采用液晶显示器、有机发光二极管等形式来配置显示面板10061。用户输入单元1007包括触控面板10071以及其他输入设备10072。触控面板10071,也称为触摸屏。触控面板10071可包括触摸检测装置和触摸控制器两个部分。其他输入设备10072可以包括但不限于物理键盘、功能键(比如音量控制按键、开关按键等)、轨迹球、鼠标、操作杆,在此不再赘述。存储器1009可用于存储软件程序以及各种数据,包括但不限于应用程序和操作***。处理器1010可集成应用处理器和调制解调处理器,其中,应用处理器主要处理操作***、用户界面和应用程序等,调制解调处理器主要处理无线通信。可以理解的是,上述调制解调处理器也可以不集成到处理器1010中。
本申请实施例还提供一种可读存储介质,该可读存储介质上存储有程序或指令,该程序或指令被处理器执行时实现上述内容控制方法实施例的各个过程,且能达到相同的技术效果,为避免重复,这里不再赘述。
其中,上述处理器为上述实施例中的电子设备中的处理器。上述可读存储介质,包括计算机可读存储介质,如计算机只读存储器(Read-Only Memory,ROM)、随机存取存储器(Random Access Memory,RAM)、磁碟或者光盘等。
本申请实施例另提供了一种芯片,该芯片包括处理器和通信接口,通信接口和处理器耦合,处理器用于运行程序或指令,实现上述内容控制方法实施例的各个过程,且能达到相同的技术效果,为避免重复,这里不再赘述。
应理解,本申请实施例提到的芯片还可以称为***级芯片、***芯片、芯片***或片上***芯片等。
需要说明的是,在本文中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者装置不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者装置所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括该要素的过程、方法、物品或者装置中还存在另外的相同要素。此外,需要指出的是,本申请实施方式中的方法和装置的范围不限按示出或讨论的顺序来执行功能,还可包括根据所涉及的功能按基本同时的方式或按相反的顺序来执行功能,例如,可以按不同于所描述的次序来执行所描述的方法,并且还可以添加、省去、或组合各种步骤。另外,参照某些示例所描述的特征可在其他示例中被组合。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端(可以是手机,计算机,服务器,空调器,或者网络设备等)执行本申请各个实施例所述的方法。
上面结合附图对本申请的实施例进行了描述,但是本申请并不局限于上述的具体实施方式,上述的具体实施方式仅仅是示意性的,而不是限制性的,本领域的普通技术人员在本申请的启示下,在不脱离本申请宗旨和权利要求所保护的范围情况下,还可做出很多形式,均属于本申请的保护之内。

Claims (12)

1.一种内容控制方法,应用于AR设备,所述AR设备包括穿戴件,其特征在于,所述方法包括:
在增强现实空间中显示目标内容;
接收用户的第一输入;
响应于所述第一输入,更新所述目标内容的显示位置;或发送所述目标内容至所述穿戴件,并控制所述穿戴件输出所述目标内容。
2.根据权利要求1所述的方法,其特征在于,所述在增强现实空间中显示目标内容之后,在所述接收用户的第一输入之前,所述方法还包括:
确定用户与所述目标内容之间的第一距离;
所述更新所述目标内容的显示位置,包括:
将所述目标内容的显示位置从第一位置更新为第二位置;
其中,所述第二位置根据所述第一输入的输入参数确定,所述第二位置与用户之间的距离为第二距离,所述第二距离小于第一距离。
3.根据权利要求2所述的方法,其特征在于,所述将所述目标内容的显示位置从第一位置更新为第二位置,包括:
将第一内容的显示位置从所述第一位置更新为所述第二位置,所述第一内容为所述目标内容中,根据用户输入所确定的内容;
其中,所述第一距离具体为更新所述第一内容的显示位置之前,用户与所述第一内容之间的距离。
4.根据权利要求3所述的方法,其特征在于,所述第一输入为用户手势输入;
所述将第一内容的显示位置从所述第一位置更新为所述第二位置之前,所述方法还包括:
确定所述用户手势输入的输入轨迹;
将所述输入轨迹选中的内容确定为所述第一内容。
5.根据权利要求1所述的方法,其特征在于,所述穿戴件中包括N个运动部件,所述目标内容包括至少一个字符,N为正整数;
所述控制所述穿戴件输出所述目标内容,包括:
控制所述N个运动部件中的目标运动部件,按照目标字符的字形震动或滑动,以使用户通过触感确认所述目标字符;
其中,目标内容所述包括所述目标字符。
6.一种内容控制装置,其特征在于,所述装置包括显示模块、接收模块和处理模块;
所述显示模块,用于在增强现实空间中显示目标内容;
所述接收模块,用于接收用户的第一输入;
所述处理模块,用于响应所述第一输入,更新所述目标内容的显示位置;或用于发送所述目标内容至AR设备中的穿戴件,并控制所述穿戴件输出所述目标内容。
7.根据权利要求6所述的装置,其特征在于,所述装置还包括确定模块;
所述确定模块,用于在所述显示模块在增强现实空间中显示目标内容之后,在所述接收模块接收用户的第一输入之前,确定用户与所述目标内容之间的第一距离;
所述处理模块,具体用于将所述目标内容的显示位置从第一位置更新为第二位置;
其中,所述第二位置根据所述第一输入的输入参数确定,所述第二位置与用户之间的距离为第二距离,所述第二距离小于第一距离。
8.根据权利要求7所述的装置,其特征在于,所述处理模块,具体用于将第一内容的显示位置从所述第一位置更新为所述第二位置,所述第一内容为所述目标内容中,根据用户输入所确定的内容;
其中,所述第一距离具体为更新所述第一内容的显示位置之前,用户与所述第一内容之间的距离。
9.根据权利要求8所述的装置,其特征在于,所述第一输入为用户手势输入;
所述确定模块,还用于在所述处理模块更新所述目标内容的显示位置之前,确定所述用户手势输入的输入轨迹;并将所述输入轨迹选中的内容确定为所述第一内容。
10.根据权利要求6所述的装置,其特征在于,所述穿戴件中包括N个运动部件,所述目标内容包括至少一个字符,N为正整数;
所述处理模块,具体用于控制所述N个运动部件中的目标运动部件,按照目标字符的字形震动或滑动,以使用户通过触感确认所述目标字符;
其中,目标内容所述包括所述目标字符。
11.一种电子设备,其特征在于,包括处理器,存储器及存储在所述存储器上并可在所述处理器上运行的程序或指令,所述程序或指令被所述处理器执行时实现如权利要求1至5中任一项所述的内容控制方法的步骤。
12.一种可读存储介质,其特征在于,所述可读存储介质上存储程序或指令,所述程序或指令被处理器执行时实现如权利要求1至5中任一项所述的内容控制方法的步骤。
CN202010924329.2A 2020-09-04 2020-09-04 内容控制方法、装置和电子设备 Pending CN112164146A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010924329.2A CN112164146A (zh) 2020-09-04 2020-09-04 内容控制方法、装置和电子设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010924329.2A CN112164146A (zh) 2020-09-04 2020-09-04 内容控制方法、装置和电子设备

Publications (1)

Publication Number Publication Date
CN112164146A true CN112164146A (zh) 2021-01-01

Family

ID=73858427

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010924329.2A Pending CN112164146A (zh) 2020-09-04 2020-09-04 内容控制方法、装置和电子设备

Country Status (1)

Country Link
CN (1) CN112164146A (zh)

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20070059239A (ko) * 2005-12-06 2007-06-12 이성일 장갑을 이용한 점자 입력장치 및 그 방법
US20070273610A1 (en) * 2006-05-26 2007-11-29 Itt Manufacturing Enterprises, Inc. System and method to display maintenance and operational instructions of an apparatus using augmented reality
KR101360828B1 (ko) * 2012-09-12 2014-02-12 성균관대학교산학협력단 장갑형 진동식 점자 출력 장치
US20150040074A1 (en) * 2011-08-18 2015-02-05 Layar B.V. Methods and systems for enabling creation of augmented reality content
JP2015037242A (ja) * 2013-08-13 2015-02-23 ソニー株式会社 受信装置、受信方法、送信装置、及び、送信方法
JP2016096513A (ja) * 2014-11-17 2016-05-26 株式会社ゼンリンデータコム 情報処理システム、情報処理方法及びプログラム
KR20180007490A (ko) * 2016-07-13 2018-01-23 (주)엠포러스 진동 패널을 이용한 문자/모양/패턴 인식 방법 및 장치
WO2019196133A1 (zh) * 2018-04-09 2019-10-17 杭州瑞杰珑科技有限公司 一种头戴式助视装置
CN111190488A (zh) * 2019-12-30 2020-05-22 华为技术有限公司 设备控制方法、通信装置及存储介质
CN111596845A (zh) * 2020-04-30 2020-08-28 维沃移动通信有限公司 显示控制方法、装置及电子设备

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20070059239A (ko) * 2005-12-06 2007-06-12 이성일 장갑을 이용한 점자 입력장치 및 그 방법
US20070273610A1 (en) * 2006-05-26 2007-11-29 Itt Manufacturing Enterprises, Inc. System and method to display maintenance and operational instructions of an apparatus using augmented reality
US20150040074A1 (en) * 2011-08-18 2015-02-05 Layar B.V. Methods and systems for enabling creation of augmented reality content
KR101360828B1 (ko) * 2012-09-12 2014-02-12 성균관대학교산학협력단 장갑형 진동식 점자 출력 장치
JP2015037242A (ja) * 2013-08-13 2015-02-23 ソニー株式会社 受信装置、受信方法、送信装置、及び、送信方法
JP2016096513A (ja) * 2014-11-17 2016-05-26 株式会社ゼンリンデータコム 情報処理システム、情報処理方法及びプログラム
KR20180007490A (ko) * 2016-07-13 2018-01-23 (주)엠포러스 진동 패널을 이용한 문자/모양/패턴 인식 방법 및 장치
WO2019196133A1 (zh) * 2018-04-09 2019-10-17 杭州瑞杰珑科技有限公司 一种头戴式助视装置
CN111190488A (zh) * 2019-12-30 2020-05-22 华为技术有限公司 设备控制方法、通信装置及存储介质
CN111596845A (zh) * 2020-04-30 2020-08-28 维沃移动通信有限公司 显示控制方法、装置及电子设备

Similar Documents

Publication Publication Date Title
US11112856B2 (en) Transition between virtual and augmented reality
CN102779000B (zh) 一种用户交互***和方法
CN108469899B (zh) 识别可穿戴显示装置的观察空间中的瞄准点或区域的方法
US8823697B2 (en) Tabletop, mobile augmented reality system for personalization and cooperation, and interaction method using augmented reality
US20110227913A1 (en) Method and Apparatus for Controlling a Camera View into a Three Dimensional Computer-Generated Virtual Environment
Lee et al. Towards augmented reality driven human-city interaction: Current research on mobile headsets and future challenges
WO2015188614A1 (zh) 操作虚拟世界里的电脑和手机的方法、装置以及使用其的眼镜
US20090153468A1 (en) Virtual Interface System
CN108885521A (zh) 跨环境共享
Badam et al. Supporting visual exploration for multiple users in large display environments
CN107533374A (zh) 虚拟现实中的头部、手势和触摸输入的动态切换和合并
CN103246351A (zh) 一种用户交互***和方法
KR102147430B1 (ko) 가상 공간 멀티 터치 인터랙션 장치 및 방법
US20120229509A1 (en) System and method for user interaction
CN113209601B (zh) 界面显示方法、装置、电子设备及存储介质
WO2018102615A1 (en) A system for importing user interface devices into virtual/augmented reality
Sun et al. Phonecursor: Improving 3d selection performance with mobile device in ar
Nor’a et al. Fingertips interaction method in handheld augmented reality for 3d manipulation
JP6088787B2 (ja) プログラム、情報処理装置、情報処理方法および情報処理システム
CN113360009A (zh) 图像显示方法和电子设备
Zhang et al. A hybrid 2D–3D tangible interface combining a smartphone and controller for virtual reality
Lee et al. Tunnelslice: Freehand subspace acquisition using an egocentric tunnel for wearable augmented reality
CN108803862B (zh) 用于虚拟现实场景中的账号关系建立方法及装置
US20200033936A1 (en) Remote work supporting system, remote work supporting method, and program
CN113051538B (zh) 信息解锁方法和电子设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination