CN111176440B - 一种视频通话方法及可穿戴设备 - Google Patents

一种视频通话方法及可穿戴设备 Download PDF

Info

Publication number
CN111176440B
CN111176440B CN201911154489.7A CN201911154489A CN111176440B CN 111176440 B CN111176440 B CN 111176440B CN 201911154489 A CN201911154489 A CN 201911154489A CN 111176440 B CN111176440 B CN 111176440B
Authority
CN
China
Prior art keywords
video
target
wearable device
special effect
video object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201911154489.7A
Other languages
English (en)
Other versions
CN111176440A (zh
Inventor
王强
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangdong Genius Technology Co Ltd
Original Assignee
Guangdong Genius Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangdong Genius Technology Co Ltd filed Critical Guangdong Genius Technology Co Ltd
Priority to CN202410083247.8A priority Critical patent/CN117908677A/zh
Priority to CN201911154489.7A priority patent/CN111176440B/zh
Publication of CN111176440A publication Critical patent/CN111176440A/zh
Application granted granted Critical
Publication of CN111176440B publication Critical patent/CN111176440B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/141Systems for two-way working between two video terminals, e.g. videophone
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Telephone Function (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

一种视频通话方法及可穿戴设备,包括:在可穿戴设备与视频对象进行视频通话的过程中,综合分析该可穿戴设备的佩戴用户与视频对象的图像信息和语音信息,得到当前视频氛围类型,并从特效模型库中,确定当前视频氛围匹配的目标特效模型,以及控制目标特效模型对应的场景特效在可穿戴设备的显示屏幕上显示,以达到增强或者缓解情绪的目的。实施本申请实施例,可以有效增强视频通话的趣味性,有利于提升视频通话的发生概率。

Description

一种视频通话方法及可穿戴设备
技术领域
本申请涉及可穿戴设备技术领域,具体涉及一种视频通话方法及可穿戴设备。
背景技术
用户在利用智能手表进行视频通话时,智能手表的显示屏幕通常仅对用户侧画面和视频对象侧画面进行实时输出,达到面对面交流的效果,而随着社会的不断发展,仅显示视频双方画面的方式已不能满足人们日益丰富的生活需求,不利于提升视频通话的发生概率。
发明内容
本申请实施例公开了一种视频通话方法及可穿戴设备,有利于提升视频通话的发生概率。
本申请第一方面公开一种视频通话方法,包括:
在可穿戴设备与视频对象进行视频通话的过程中,综合分析所述可穿戴设备的佩戴用户与所述视频对象的图像信息和语音信息,得到当前视频氛围类型;
从特效模型库中,确定所述当前视频氛围匹配的目标特效模型;
控制所述目标特效模型对应的场景特效在所述可穿戴设备的显示屏幕上显示,以达到增强或者缓解情绪的目的。
作为一种可选的实施方式,在本申请实施例第一方面中,所述在可穿戴设备与视频对象进行视频通话的过程中,综合分析所述可穿戴设备的佩戴用户与所述视频对象的图像信息和语音信息,得到当前视频氛围类型之后,所述方法还包括:
依据所述当前视频氛围类型,确定所述佩戴用户所处环境的照明设备的目标色温和目标照度;
向所述照明设备发送携带有所述目标色温和所述目标照度的参数调整请求,以使所述照明设备调整其色温为所述目标色温,以及调整其照度为所述目标照度。
作为一种可选的实施方式,在本申请实施例第一方面中,所述从特效模型库中,确定所述当前视频氛围匹配的目标特效模型之后,所述方法还包括:
获取所述佩戴用户在线视频平台的历史浏览记录;
依据所述历史浏览记录,在所述目标特效模型对应的场景特效中确定目标场景特效;
所述控制所述目标特效模型对应的场景特效在所述可穿戴设备的显示屏幕上显示,包括:
控制所述目标场景特效在所述可穿戴设备的显示屏幕上显示。
作为一种可选的实施方式,在本申请实施例第一方面中,所述控制所述目标场景特效在所述可穿戴设备的显示屏幕上显示,包括:
检测用于指示所述目标场景特效的显示区域的指令信息;
按照所述指令信息的指示,控制所述目标场景特效在所述可穿戴设备的显示屏幕上显示。
作为一种可选的实施方式,在本申请实施例第一方面中,所述方法还包括:
在视频通话终止时,检测是否收到所述佩戴用户输入的针对所述视频对象的分组请求;
若收到所述分组请求,依据视频通话过程中显示过的所有场景特效,评估所述佩戴用户与所述视频对象的亲密指数;
依据所述亲密指数,设置所述视频对象的社交账号的标识信息;
从所述佩戴用户的社交账号包含的分组中确定出与所述标识信息匹配的目标分组,并将所述视频对象的社交账号添加至所述目标分组。
本申请实施例第二方面公开一种可穿戴设备,包括:
分析单元,用于在所述可穿戴设备与视频对象进行视频通话的过程中,综合分析所述可穿戴设备的佩戴用户与所述视频对象的图像信息和语音信息,得到当前视频氛围类型;
确定单元,用于从特效模型库中,确定所述当前视频氛围匹配的目标特效模型;
显示单元,用于控制所述目标特效模型对应的场景特效在所述可穿戴设备的显示屏幕上显示,以达到增强或者缓解情绪的目的。
作为一种可选的实施方式,在本申请实施例第二方面中,所述确定单元,还用于所述分析单元在可穿戴设备与视频对象进行视频通话的过程中,综合分析所述可穿戴设备的佩戴用户与所述视频对象的图像信息和语音信息,得到当前视频氛围类型之后,依据所述当前视频氛围类型,确定所述佩戴用户所处环境的照明设备的目标色温和目标照度;
所述可穿戴设备还包括:
发送单元,向所述照明设备发送携带有所述目标色温和所述目标照度的参数调整请求,以使所述照明设备调整其色温为所述目标色温,以及调整其照度为所述目标照度。
作为一种可选的实施方式,在本申请实施例第二方面中,所述可穿戴设备还包括:
获取单元,用于所述确定单元从特效模型库确定所述当前视频氛围匹配的目标特效模型之后,获取所述佩戴用户在线视频平台的历史浏览记录;以及,依据所述历史浏览记录,在所述目标特效模型对应的场景特效中确定目标场景特效;
所述显示单元用于控制所述目标特效模型对应的场景特效在所述可穿戴设备的显示屏幕上显示的方式具体为:
所述显示单元,用于控制所述目标场景特效在所述可穿戴设备的显示屏幕上显示。
作为一种可选的实施方式,在本申请实施例第二方面中,所述显示单元用于控制所述目标场景特效在所述可穿戴设备的显示屏幕上显示的方式具体为:
所述显示单元,用于检测用于指示所述目标场景特效的显示区域的指令信息;以及,按照所述指令信息的指示,控制所述目标场景特效在所述可穿戴设备的显示屏幕上显示。
作为一种可选的实施方式,在本申请实施例第二方面中,所述可穿戴设备还包括:
检测单元,用于在视频通话终止时,检测是否收到所述佩戴用户输入的针对所述视频对象的分组请求;
评估单元,用于在收到所述分组请求时,依据视频通话过程中显示过的所有场景特效,评估所述佩戴用户与所述视频对象的亲密指数;以及,依据所述亲密指数,设置所述视频对象的社交账号的标识信息;
分组单元,用于从所述佩戴用户的社交账号包含的分组中确定出与所述标识信息匹配的目标分组,并将所述视频对象的社交账号添加至所述目标分组。
本申请实施例第三方面公开一种可穿戴设备,包括:
存储有可执行程序代码的存储器;
与所述存储器耦合的处理器;
所述处理器调用所述存储器中存储的所述可执行程序代码,执行本申请实施例第一方面公开的所述视频通话方法的步骤。
本申请实施例第四方面公开一种计算机可读存储介质,其上存储有计算机指令,所述计算机指令运行时使计算机执行本申请实施例第一方面公开的所述视频通话方法的步骤。
与现有技术相比,本申请实施例具有以下有益效果:
本申请实施例中,在可穿戴设备与视频对象进行视频通话的过程中,综合分析该可穿戴设备的佩戴用户与视频对象的图像信息和语音信息,得到当前视频氛围类型,并从特效模型库中,确定当前视频氛围匹配的目标特效模型,以及控制目标特效模型对应的场景特效在可穿戴设备的显示屏幕上显示,以达到增强或者缓解情绪的目的。可见,实施本申请实施例,在用户视频通话过程中,根据视频通话过程中的视频氛围变化,添加不同的场景特效,可以有效增强视频通话的趣味性,有利于提升视频通话的发生概率。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本申请实施例公开的一种视频通话方法的流程示意图;
图2是本申请实施例公开的又一种视频通话方法的流程示意图;
图3是本申请实施例公开的又一种视频通话方法的流程示意图;
图4是本申请实施例公开的一种可穿戴设备的模块化示意图;
图5是本申请实施例公开的另一种可穿戴设备的模块化示意图;
图6是本申请实施例公开的又一种可穿戴设备的模块化示意图;
图7是本申请实施例公开的又一种可穿戴设备的模块化示意图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
需要说明的是,本申请实施例的术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、***、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
本申请实施例公开了一种视频通话方法及可穿戴设备,有利于提升视频通话的发生概率。以下进行结合附图进行详细描述。
实施例一
请参阅图1,图1是本申请实施例公开的一种视频通话方法的流程示意图,如图1所示,该视频通话方法可以包括以步骤:
101、在可穿戴设备与视频对象进行视频通话的过程中,综合分析该可穿戴设备的佩戴用户与视频对象的图像信息和语音信息,得到当前视频氛围类型。
可选的,在综合分析该可穿戴设备的佩戴用户与视频对象的图像信息和语音信息,得到当前视频氛围类型之前,还可以执行以下步骤:
判断是否收到可穿戴设备的佩戴用户输入的甩臂动作;
若收到上述甩臂动作,获取上述甩臂动作的方向和力度;
判断上述甩臂动作的方向是否为预设方向,以及判断上述甩臂动作的力度是否大于预设力度;
当上述甩臂动作的方向为预设方向,且上述甩臂动作的力度为预设力度时,控制开启场景特效模式,并继续执行上述的综合分析该可穿戴设备的佩戴用户与视频对象的图像信息和语音信息,得到当前视频氛围类型。
实施上述方法,可以通过检测可穿戴设备的佩戴用户的甩臂动作实现视频通话的场景特效模式的高效启动。
需要说明的是,在本申请实施例中,可穿戴设备的视频通话的场景特效模式的启动除了可穿戴设备的佩戴用户甩臂实现之外,还可以按压视频通话界面的虚拟按钮实现,本申请实施例不做限定。
在本申请实施例中,可穿戴设备预设的视频氛围可以包括紧张、思念以及欢快等等,每一视频氛围类型分别关联有若干面部特征和若干关键字词,基于该描述,在可穿戴设备与视频对象进行视频通话的过程中,综合分析该可穿戴设备的佩戴用户与视频对象的图像信息和语音信息,得到当前视频氛围类型可以包括:
在可穿戴设备与视频对象进行视频通话的过程中,分析可穿戴设备的佩戴用户与视频对象的图像信息,得到面部特征;
分析可穿戴设备的佩戴用户与视频对象的语音信息,提取用于指示情绪的字词;
依据上述面部特征信息和用于指示情绪的字词,从可穿戴设备预设的视频氛围中确定当前视频氛围类型。
可选的,在本申请实施例中,依据上述面部特征信息和用于指示情绪的字词,从可穿戴设备预设的视频氛围中确定当前视频氛围类型之后,还可以执行以下步骤:
采集可穿戴设备的佩戴用户的生理参数;其中,可穿戴设备的佩戴用户的生理参数至少包括血糖、血压、体温以及呼吸频率;
判断上述佩戴用户的生理参数是否处于上述当前视频氛围类型对应的参数范围内;
若处于上述当前视频氛围类型对应的参数范围内,继续执行步骤102。
实施上述方法,依据面部特征、用于指示情绪的字词以及可穿戴设备的佩戴用户的生理参数对当前视频氛围类型进行综合确定,提高了当前视频氛围类型的确定精度。
102、从特效模型库中,确定当前视频氛围匹配的目标特效模型。
103、控制目标特效模型对应的场景特效在可穿戴设备的显示屏幕上显示,以达到增强或者缓解情绪的目的。
其中,上述特效模型库中存储可穿戴设备预设的每一视频氛围对应的特效模型和该特效模型对应的场景特效,通过实施上述方法,实时分析视频通话过程中的视频氛围变化,添加不同的场景特效,可以有效增强视频通话的趣味性,有利于提升视频通话的发生概率,还可以提高当前视频氛围类型的确定精度,还可以实现视频通话的场景特效模式的高效启动。
实施例二
请参阅图2,图2是本申请实施例公开的另一种视频通话方法的流程示意图,如图2所示的视频通话方法可以包括以下步骤:
201、在可穿戴设备与视频对象进行视频通话的过程中,综合分析该可穿戴设备的佩戴用户与视频对象的图像信息和语音信息,得到当前视频氛围类型。
202、依据当前视频氛围类型,确定可穿戴设备的佩戴用户所处环境的照明设备的目标色温和目标照度。
203、向可穿戴设备的佩戴用户所处环境的照明设备发送携带有目标色温和目标照度的参数调整请求,以使可穿戴设备的佩戴用户所处环境的照明设备调整其色温为目标色温,以及调整其照度为目标照度。
其中,执行步骤202~步骤203,依据当前视频氛围类型,对上述佩戴用户所处环境的照明设备的照度和色温进行调整,可以借助上述佩戴用户所处环境的照明设备辅助增强或者缓解情绪。
204、从特效模型库中,确定当前视频氛围匹配的目标特效模型。
其中,关于步骤201和步骤204的详细介绍,请参照实施例一中针对步骤101和步骤102的描述,本申请实施例不再赘述。
205、获取可穿戴设备的佩戴用户在线视频平台的历史浏览记录。
206、依据上述历史浏览记录,在目标特效模型对应的场景特效中确定目标场景特效。
作为一种可选的实施方式,在本申请实施例中,步骤206之后,还可以执行以下步骤:
获取视频对象的生理参数;其中,视频对象的生理参数至少包括血糖、血压、体温以及呼吸频率;
判断视频对象的生理参数是否处于上述当前视频氛围类型对应的参数范围内;
若处于上述当前视频氛围类型对应的参数范围内,检测是否收到针对目标场景特效的发送指令;
若收到上述发送指令,打包目标场景特效得到文件包;
将上述文件包发送至视频对象,以使目标场景特效在视频对象的视频通话界面进行显示。
实施上述方法,还可借助目标场景特效改善视频对象的情绪。
207、控制目标场景特效在可穿戴设备的显示屏幕上显示。
下面通过举例对步骤206~步骤207进行详细说明:
假设可穿戴设备的佩戴用户为儿童,步骤201得到的当前视频氛围类型为欢快类型,步骤204中的目标特效模型为特效模型库中指示欢快的特效模型,其中,目标特效模型中包含若干主题对应的场景特效,步骤205提及的佩戴用户在线视频平台为动画视频平台,佩戴用户在线视频平台的历史浏览记录为儿童预设时间段内的动画观看记录,该预设时间段的时长可以为一周、一月或者一季度,该预设时间段的终止时间节点可以为当前时间点,基于该描述,依据上述历史浏览记录,在目标特效模型对应的场景特效中确定目标场景特效,包括:依据上述历史浏览记录,获取观看频次最高的动画视频;依据观看频次最高的动画视频的名称确定动画主题;在从目标特效模型对应的若干主题中,确定与上述动画主题吻合的目标主题;将目标主题对应的场景特效作为目标场景特效。实施该方法,依据儿童预设时间段内的动画观看记录,确定目标场景特效,使得目标场景特效更加贴合儿童兴趣,可以进一步提高视频通话的趣味性。
作为一种可选的实施方式,在本申请实施例中,控制目标场景特效在可穿戴设备的显示屏幕上显示可以包括:检测用于指示目标场景特效的显示区域的指令信息;按照该指令信息的指示,控制目标场景特效在可穿戴设备的显示屏幕上显示。实施该方法,可以实现目标场景特效的显示区域的灵活管控。
通过实施上述方法,实时分析视频通话过程中的视频氛围变化,添加不同的场景特效,可以有效增强视频通话的趣味性,有利于提升视频通话的发生概率,还可以提高当前视频氛围类型的确定精度,还可以实现视频通话的场景特效模式的高效启动,还可以借助佩戴用户所处环境的照明设备辅助增强或者缓解情绪,还可以使目标场景特效更加贴合儿童兴趣,还可以实现对目标场景特效的显示区域的灵活管控,还可以借助目标场景特效改善视频对象的情绪。
实施例三
请参阅图3,图3是本申请实施例公开的又一种视频通话方法的流程示意图,如图3所示的视频通话方法可以包括以下步骤:
其中,步骤301~步骤307的详细介绍,请参照实施例二中针对步骤201~步骤207的描述,本申请实施例不再赘述。
308、在视频通话终止时,检测是否收到可穿戴设备的佩戴用户输入的针对上述视频对象的分组请求,如果是,执行步骤309~步骤311;如果否,结束本流程。
309、依据视频通话过程中显示过的所有场景特效,评估可穿戴设备的佩戴用户与上述视频对象的亲密指数。
310、依据上述亲密指数,设置上述视频对象的社交账号的标识信息。
311、从可穿戴设备的佩戴用户的社交账号包含的分组中确定出与上述标识信息匹配的目标分组,并将上述视频对象的社交账号添加至目标分组。
执行步骤308~步骤311,依据视频通话过程中显示过的所有场景特效实现对视频对象的自动分组,有助于管理可穿戴设备的佩戴用户的社交账号。
需要说明的是,在本申请实施例中,针对上述视频对象的分组可以依据视频通话过程中显示过的所有场景特效确定,还可以由可穿戴设备的佩戴用户手动选择确定,还可以依据与可穿戴设备关联的终端设备发送的分组信息确定,本申请实施例不做限定。
关于上述视频对象的分组依据与可穿戴设备关联的终端设备发送的分组信息确定下面进行详细介绍:
在本申请实施例中,若可穿戴设备的佩戴用户为低龄儿童,与可穿戴设备关联的终端设备为家长端,还可以执行以下步骤:
在上述佩戴用户的社交账号收到账号添加请求时,获取请求对象的资料信息;
将上述资料信息发送至该可穿戴设备关联的家长端;
在收到家长端反馈的添加指令时,判断该添加指令中是否携带有针对请求对象的分组信息;
若存在,按照分组信息的指示对请求对象进行添加并分组。
在可穿戴设备的佩戴用户为低龄儿童时,实施上述方法,家长可以对低龄儿童的社交范围进行实时监控,以避免低龄儿童被恶意社交伤害。
通过实施上述方法,实时分析视频通话过程中的视频氛围变化,添加不同的场景特效,可以有效增强视频通话的趣味性,有利于提升视频通话的发生概率,还可以提高当前视频氛围类型的确定精度,还可以实现视频通话的场景特效模式的高效启动,还可以借助佩戴用户所处环境的照明设备辅助增强或者缓解情绪,还可以使目标场景特效更加贴合儿童兴趣,还可以实现对目标场景特效的显示区域的灵活管控,还可以借助目标场景特效改善视频对象的情绪,还有助于管理可穿戴设备的佩戴用户的社交账号,还可以避免低龄儿童被恶意社交伤害。
实施例四
请参阅图4,图4是本申请实施例公开的一种可穿戴设备的模块化示意图。如图4所示,该可穿戴设备可以包括:
分析单元401,用于在可穿戴设备与视频对象进行视频通话的过程中,综合分析该可穿戴设备的佩戴用户与视频对象的图像信息和语音信息,得到当前视频氛围类型。
可选的,上述分析单元401,还用于综合分析该可穿戴设备的佩戴用户与视频对象的图像信息和语音信息,得到当前视频氛围类型之前,判断是否收到可穿戴设备的佩戴用户输入的甩臂动作;若收到上述甩臂动作,获取上述甩臂动作的方向和力度;判断上述甩臂动作的方向是否为预设方向,以及判断上述甩臂动作的力度是否大于预设力度;当上述甩臂动作的方向为预设方向,且上述甩臂动作的力度为预设力度时,控制开启场景特效模式,并触发执行上述的综合分析该可穿戴设备的佩戴用户与视频对象的图像信息和语音信息,得到当前视频氛围类型。实施该方式,通过检测可穿戴设备的佩戴用户的甩臂动作实现视频通话的场景特效模式的高效启动。
需要说明的是,在本申请实施例中,可穿戴设备的视频通话的场景特效模式的启动除了可穿戴设备的佩戴用户甩臂实现之外,还可以按压视频通话界面的虚拟按钮实现,本申请实施例不做限定。
在本申请实施例中,可穿戴设备预设的视频氛围可以包括紧张、思念以及欢快等等,每一视频氛围类型分别关联有若干面部特征和若干关键字词,基于该描述,分析单元401用于在可穿戴设备与视频对象进行视频通话的过程中,综合分析该可穿戴设备的佩戴用户与视频对象的图像信息和语音信息,得到当前视频氛围类型的方式具体为:分析单元401,用于在可穿戴设备与视频对象进行视频通话的过程中,分析可穿戴设备的佩戴用户与视频对象的图像信息,得到面部特征;以及,分析可穿戴设备的佩戴用户与视频对象的语音信息,提取用于指示情绪的字词;以及,依据面部特征和用于指示情绪的字词,从可穿戴设备预设的视频氛围中确定当前视频氛围类型。
可选的,在本申请实施例中,分析单元401,还用于依据面部特征和用于指示情绪的字词,从可穿戴设备预设的视频氛围中确定当前视频氛围类型之后,采集可穿戴设备的佩戴用户的生理参数;其中,可穿戴设备的佩戴用户的生理参数至少包括血糖、血压、体温以及呼吸频率;以及,判断该佩戴用户的生理参数是否处于上述当前视频氛围类型对应的参数范围内;以及该佩戴用户的生理参数处于上述当前视频氛围类型对应的参数范围内,触发确定单元402执行下述的从特效模型库中,确定当前视频氛围匹配的目标特效模型的操作。实施该方式,依据面部特征、用于指示情绪的字词以及可穿戴设备的佩戴用户的生理参数对当前视频氛围类型进行综合确定,提高了当前视频氛围类型的确定精度。
确定单元402,用于从特效模型库中,确定当前视频氛围匹配的目标特效模型。
显示单元403,用于控制目标特效模型对应的场景特效在可穿戴设备的显示屏幕上显示,以达到增强或者缓解情绪的目的。
通过实施上述可穿戴设备,实时分析视频通话过程中的视频氛围变化,添加不同的场景特效,可以有效增强视频通话的趣味性,有利于提升视频通话的发生概率,还可以提高当前视频氛围类型的确定精度,还可以实现视频通话的场景特效模式的高效启动。
实施例五
请参阅图5,图5是本申请实施例公开的另一种可穿戴设备的模块化示意图。其中,如图5所示的可穿戴设备是由图4所示的可穿戴设备优化得到的,在图5所示的可穿戴设备中,确定单元402,还可以用于分析单元401在可穿戴设备与视频对象进行视频通话的过程中,综合分析可穿戴设备的佩戴用户与视频对象的图像信息和语音信息,得到当前视频氛围类型之后,依据当前视频氛围类型,确定可穿戴设备的佩戴用户所处环境的照明设备的目标色温和目标照度。
该可穿戴设备还可以包括:
发送单元404,向上述佩戴用户所处环境的照明设备发送携带有目标色温和目标照度的参数调整请求,以使该照明设备调整其色温为目标色温,以及调整其照度为目标照度。
可选的,在本申请实施例中,该可穿戴设备还可以包括:
获取单元405,用于确定单元402从特效模型库确定当前视频氛围匹配的目标特效模型之后,获取可穿戴设备的佩戴用户在线视频平台的历史浏览记录;以及,依据该历史浏览记录,在目标特效模型对应的场景特效中确定目标场景特效。
显示单元403用于控制目标特效模型对应的场景特效在可穿戴设备的显示屏幕上显示的方式具体为:
显示单元403,用于控制目标场景特效在可穿戴设备的显示屏幕上显示。
进一步可选的,显示单元403用于控制目标场景特效在可穿戴设备的显示屏幕上显示的方式具体为:显示单元403,用于检测用于指示目标场景特效的显示区域的指令信息;以及,按照该指令信息的指示,控制目标场景特效在可穿戴设备的显示屏幕上显示。实施该方式,可以实现目标场景特效的显示区域的灵活管控。
作为一种可选的实施方式,在本申请实施例中,获取单元405,还用于依据该历史浏览记录,在目标特效模型对应的场景特效中确定目标场景特效之后,获取视频对象的生理参数;其中,视频对象的生理参数至少包括血糖、血压、体温以及呼吸频率;判断视频对象的生理参数是否处于上述当前视频氛围类型对应的参数范围内;若处于上述当前视频氛围类型对应的参数范围内,检测是否收到针对目标场景特效的发送指令;若收到上述发送指令,打包目标场景特效得到文件包;将上述文件包发送至视频对象,以使目标场景特效在视频对象的视频通话界面进行显示。实施该方式,还可借助目标场景特效改善视频对象的情绪。
在本申请实施例中,针对获取单元405的描述,请参照实施例二中的举例,在此不再赘述,基于上述描述,获取单元405用于依据上述历史浏览记录,在目标特效模型对应的场景特效中确定目标场景特效的方式具体为:
获取单元405,用于依据上述历史浏览记录,获取观看频次最高的动画视频;依据观看频次最高的动画视频的名称确定动画主题;在从目标特效模型对应的若干主题中,确定与上述动画主题吻合的目标主题;将目标主题对应的场景特效作为目标场景特效。实施该方法,依据儿童预设时间段内的动画观看记录,确定目标场景特效,使得目标场景特效更加贴合儿童兴趣,可以进一步提高视频通话的趣味性。
通过实施上述可穿戴设备,实时分析视频通话过程中的视频氛围变化,添加不同的场景特效,可以有效增强视频通话的趣味性,有利于提升视频通话的发生概率,还可以提高当前视频氛围类型的确定精度,还可以实现视频通话的场景特效模式的高效启动,还可以借助佩戴用户所处环境的照明设备辅助增强或者缓解情绪,还可以使目标场景特效更加贴合儿童兴趣,还可以实现对目标场景特效的显示区域的灵活管控,还可以借助目标场景特效改善视频对象的情绪。
实施例六
请参阅图6,图6是本申请实施例公开的又一种可穿戴设备的模块化示意图。其中,如图6所示的可穿戴设备是由图5所示的可穿戴设备优化得到的,图6所示的可穿戴设备还可以包括:
检测单元406,用于在视频通话终止时,检测是否收到可穿戴设备的佩戴用户输入的针对上述视频对象的分组请求。
评估单元407,用于在收到上述分组请求时,依据视频通话过程中显示过的所有场景特效,评估可穿戴设备的佩戴用户与上述视频对象的亲密指数;以及,依据该亲密指数,设置上述视频对象的社交账号的标识信息。
分组单元408,用于从可穿戴设备的佩戴用户的社交账号包含的分组中确定出与上述标识信息匹配的目标分组,并将上述视频对象的社交账号添加至目标分组。
其中,分组单元408依据视频通话过程中显示过的所有场景特效实现对视频对象的自动分组,有助于管理可穿戴设备的佩戴用户的社交账号。
需要说明的是,在本申请实施例中,针对上述视频对象的分组可以依据视频通话过程中显示过的所有场景特效确定,还可以由可穿戴设备的佩戴用户手动选择确定,还可以依据与可穿戴设备关联的终端设备发送的分组信息确定,本申请实施例不做限定。
关于上述视频对象的分组依据与可穿戴设备关联的终端设备发送的分组信息确定下面进行详细介绍:
在本申请实施例中,若可穿戴设备的佩戴用户为低龄儿童,与可穿戴设备关联的终端设备为家长端,分组单元408,还用于在上述佩戴用户的社交账号收到账号添加请求时,获取请求对象的资料信息;将上述资料信息发送至该可穿戴设备关联的家长端;在收到家长端反馈的添加指令时,判断该添加指令中是否携带有针对请求对象的分组信息;若存在,按照分组信息的指示对请求对象进行分组。在可穿戴设备的佩戴用户为低龄儿童时,实施上述方法,家长可以对低龄儿童的社交范围进行实时监控,以避免低龄儿童被恶意社交伤害。
通过实施上述可穿戴设备,实时分析视频通话过程中的视频氛围变化,添加不同的场景特效,可以有效增强视频通话的趣味性,有利于提升视频通话的发生概率,还可以提高当前视频氛围类型的确定精度,还可以实现视频通话的场景特效模式的高效启动,还可以借助佩戴用户所处环境的照明设备辅助增强或者缓解情绪,还可以使目标场景特效更加贴合儿童兴趣,还可以实现对目标场景特效的显示区域的灵活管控,还可以借助目标场景特效改善视频对象的情绪,还有助于管理可穿戴设备的佩戴用户的社交账号,还可以避免低龄儿童被恶意社交伤害。
请参阅图7,图7是本申请实施例公开的又一种可穿戴设备的模块化示意图。如图7所示,该可穿戴设备可以包括:
存储有可执行程序代码的存储器701
与存储器耦合的处理器702;
其中,处理器702调用存储器701中存储的可执行程序代码,执行图1~图3任一所描述的视频通话方法的步骤。
需要说明的是,本申请实施例中,图7所示的可穿戴设备还可以包括扬声器模组、光投射模组、电池模组、无线通信模组(如移动通信模块、WIFI模块、蓝牙模块等)、传感器模组(如接近传感器等)、输入模组(如麦克风、按键)以及用户接口模组(如充电接口、对外供电接口、卡槽、有线耳机接口等)等未显示的部件。
本申请实施例公开一种计算机可读存储介质,其上存储有计算机指令,该计算机指令运行时使计算机执行图1~图3任一所描述的视频通话方法的步骤。
本领域普通技术人员可以理解上述实施例的各种方法中的全部或部分步骤是可以通过程序来指令相关的硬件来完成,该程序可以存储于一计算机可读存储介质中,存储介质包括只读存储器(Read-Only Memory,ROM)、随机存储器(Random Access Memory,RAM)、可编程只读存储器(Programmable Read-only Memory,PROM)、可擦除可编程只读存储器(Erasable Programmable Read Only Memory,EPROM)、一次可编程只读存储器(One-time Programmable Read-Only Memory,OTPROM)、电子抹除式可复写只读存储器(Electrically-Erasable Programmable Read-Only Memory,EEPROM)、只读光盘(CompactDisc Read-Only Memory,CD-ROM)或其他光盘存储器、磁盘存储器、磁带存储器、或者能够用于携带或存储数据的计算机可读的任何其他介质。
以上对本申请实施例公开的一种视频通话方法及可穿戴设备进行了详细介绍,本文中应用了具体个例对本申请的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本申请的方法及其核心思想;同时,对于本领域的一般技术人员,依据本申请的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本申请的限制。

Claims (8)

1.一种视频通话方法,其特征在于,包括:
在可穿戴设备与视频对象进行视频通话的过程中,综合分析所述可穿戴设备的佩戴用户与所述视频对象的图像信息和语音信息,得到当前视频氛围类型;
从特效模型库中,确定所述当前视频氛围匹配的目标特效模型;
获取所述佩戴用户在线视频平台的历史浏览记录;
依据所述历史浏览记录,在所述目标特效模型对应的场景特效中确定目标场景特效;
获取所述视频对象的生理参数;其中,所述视频对象的生理参数至少包括血糖、血压、体温以及呼吸频率;
判断所述视频对象的生理参数是否处于所述当前视频氛围类型对应的参数范围内;
若处于所述当前视频氛围类型对应的参数范围内,检测是否收到针对所述目标场景特效的发送指令;
若收到所述发送指令,打包所述目标场景特效得到文件包;
将所述文件包发送至所述视频对象,以使所述目标场景特效在所述视频对象的视频通话界面进行显示;
控制所述目标场景特效在所述可穿戴设备的显示屏幕上显示,以达到增强或者缓解情绪的目的。
2.根据权利要求1所述的方法,其特征在于,所述在可穿戴设备与视频对象进行视频通话的过程中,综合分析所述可穿戴设备的佩戴用户与所述视频对象的图像信息和语音信息,得到当前视频氛围类型之后,所述方法还包括:
依据所述当前视频氛围类型,确定所述佩戴用户所处环境的照明设备的目标色温和目标照度;
向所述照明设备发送携带有所述目标色温和所述目标照度的参数调整请求,以使所述照明设备调整其色温为所述目标色温,以及调整其照度为所述目标照度。
3.根据权利要求1所述的方法,其特征在于,所述控制所述目标场景特效在所述可穿戴设备的显示屏幕上显示,包括:
检测用于指示所述目标场景特效的显示区域的指令信息;
按照所述指令信息的指示,控制所述目标场景特效在所述可穿戴设备的显示屏幕上显示。
4.根据权利要求1所述的方法,其特征在于,所述方法还包括:
在视频通话终止时,检测是否收到所述佩戴用户输入的针对所述视频对象的分组请求;
若收到所述分组请求,依据视频通话过程中显示过的所有场景特效,评估所述佩戴用户与所述视频对象的亲密指数;
依据所述亲密指数,设置所述视频对象的社交账号的标识信息;
从所述佩戴用户的社交账号包含的分组中确定出与所述标识信息匹配的目标分组,并将所述视频对象的社交账号添加至所述目标分组。
5.一种可穿戴设备,其特征在于,包括:
分析单元,用于在所述可穿戴设备与视频对象进行视频通话的过程中,综合分析所述可穿戴设备的佩戴用户与所述视频对象的图像信息和语音信息,得到当前视频氛围类型;
确定单元,用于从特效模型库中,确定所述当前视频氛围匹配的目标特效模型;
获取单元,用于获取所述佩戴用户在线视频平台的历史浏览记录;以及,依据所述历史浏览记录,在所述目标特效模型对应的场景特效中确定目标场景特效;
所述获取单元,还用于获取所述视频对象的生理参数;其中,所述视频对象的生理参数至少包括血糖、血压、体温以及呼吸频率;判断所述视频对象的生理参数是否处于所述当前视频氛围类型对应的参数范围内;若处于所述当前视频氛围类型对应的参数范围内,检测是否收到针对所述目标场景特效的发送指令;若收到所述发送指令,打包所述目标场景特效得到文件包;将所述文件包发送至所述视频对象,以使所述目标场景特效在所述视频对象的视频通话界面进行显示;
显示单元,用于控制所述目标场景特效在所述可穿戴设备的显示屏幕上显示,以达到增强或者缓解情绪的目的。
6.根据权利要求5所述的可穿戴设备,其特征在于,所述确定单元,还用于所述分析单元在可穿戴设备与视频对象进行视频通话的过程中,综合分析所述可穿戴设备的佩戴用户与所述视频对象的图像信息和语音信息,得到当前视频氛围类型之后,依据所述当前视频氛围类型,确定所述佩戴用户所处环境的照明设备的目标色温和目标照度;
所述可穿戴设备还包括:
发送单元,向所述照明设备发送携带有所述目标色温和所述目标照度的参数调整请求,以使所述照明设备调整其色温为所述目标色温,以及调整其照度为所述目标照度。
7.根据权利要求5所述的可穿戴设备,其特征在于,所述显示单元用于控制所述目标场景特效在所述可穿戴设备的显示屏幕上显示的方式具体为:
所述显示单元,用于检测用于指示所述目标场景特效的显示区域的指令信息;以及,按照所述指令信息的指示,控制所述目标场景特效在所述可穿戴设备的显示屏幕上显示。
8.根据权利要求5所述的可穿戴设备,其特征在于,所述可穿戴设备还包括:
检测单元,用于在视频通话终止时,检测是否收到所述佩戴用户输入的针对所述视频对象的分组请求;
评估单元,用于在收到所述分组请求时,依据视频通话过程中显示过的所有场景特效,评估所述佩戴用户与所述视频对象的亲密指数;以及,依据所述亲密指数,设置所述视频对象的社交账号的标识信息;
分组单元,用于从所述佩戴用户的社交账号包含的分组中确定出与所述标识信息匹配的目标分组,并将所述视频对象的社交账号添加至所述目标分组。
CN201911154489.7A 2019-11-22 2019-11-22 一种视频通话方法及可穿戴设备 Active CN111176440B (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN202410083247.8A CN117908677A (zh) 2019-11-22 2019-11-22 一种视频通话方法及可穿戴设备
CN201911154489.7A CN111176440B (zh) 2019-11-22 2019-11-22 一种视频通话方法及可穿戴设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911154489.7A CN111176440B (zh) 2019-11-22 2019-11-22 一种视频通话方法及可穿戴设备

Related Child Applications (1)

Application Number Title Priority Date Filing Date
CN202410083247.8A Division CN117908677A (zh) 2019-11-22 2019-11-22 一种视频通话方法及可穿戴设备

Publications (2)

Publication Number Publication Date
CN111176440A CN111176440A (zh) 2020-05-19
CN111176440B true CN111176440B (zh) 2024-03-19

Family

ID=70655380

Family Applications (2)

Application Number Title Priority Date Filing Date
CN201911154489.7A Active CN111176440B (zh) 2019-11-22 2019-11-22 一种视频通话方法及可穿戴设备
CN202410083247.8A Pending CN117908677A (zh) 2019-11-22 2019-11-22 一种视频通话方法及可穿戴设备

Family Applications After (1)

Application Number Title Priority Date Filing Date
CN202410083247.8A Pending CN117908677A (zh) 2019-11-22 2019-11-22 一种视频通话方法及可穿戴设备

Country Status (1)

Country Link
CN (2) CN111176440B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112327720B (zh) * 2020-11-20 2022-09-20 北京瞰瞰智域科技有限公司 氛围管理方法及***
CN112565913B (zh) * 2020-11-30 2023-06-20 维沃移动通信有限公司 视频通话方法、装置和电子设备

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102082870A (zh) * 2010-12-28 2011-06-01 东莞宇龙通信科技有限公司 联系人管理方法、装置和移动终端
CN104703043A (zh) * 2015-03-26 2015-06-10 努比亚技术有限公司 一种添加视频特效的方法和装置
CN108052670A (zh) * 2017-12-29 2018-05-18 北京奇虎科技有限公司 一种相机特效的推荐方法及装置
CN108401129A (zh) * 2018-03-22 2018-08-14 广东小天才科技有限公司 基于穿戴式设备的视频通话方法、装置、终端及存储介质
CN108882454A (zh) * 2018-07-20 2018-11-23 佛山科学技术学院 一种基于情绪判断的智能语音识别交互照明方法及***
CN109933666A (zh) * 2019-03-18 2019-06-25 西安电子科技大学 一种好友自动分类方法、装置、计算机设备和存储介质
CN109996026A (zh) * 2019-04-23 2019-07-09 广东小天才科技有限公司 基于穿戴式设备的视频特效互动方法、装置、设备及介质

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102082870A (zh) * 2010-12-28 2011-06-01 东莞宇龙通信科技有限公司 联系人管理方法、装置和移动终端
CN104703043A (zh) * 2015-03-26 2015-06-10 努比亚技术有限公司 一种添加视频特效的方法和装置
CN108052670A (zh) * 2017-12-29 2018-05-18 北京奇虎科技有限公司 一种相机特效的推荐方法及装置
CN108401129A (zh) * 2018-03-22 2018-08-14 广东小天才科技有限公司 基于穿戴式设备的视频通话方法、装置、终端及存储介质
CN108882454A (zh) * 2018-07-20 2018-11-23 佛山科学技术学院 一种基于情绪判断的智能语音识别交互照明方法及***
CN109933666A (zh) * 2019-03-18 2019-06-25 西安电子科技大学 一种好友自动分类方法、装置、计算机设备和存储介质
CN109996026A (zh) * 2019-04-23 2019-07-09 广东小天才科技有限公司 基于穿戴式设备的视频特效互动方法、装置、设备及介质

Also Published As

Publication number Publication date
CN111176440A (zh) 2020-05-19
CN117908677A (zh) 2024-04-19

Similar Documents

Publication Publication Date Title
EP3817395A1 (en) Video recording method and apparatus, device, and readable storage medium
CN109446876B (zh) 手语信息处理方法、装置、电子设备和可读存储介质
CN108363706B (zh) 人机对话交互的方法和装置、用于人机对话交互的装置
CN105845124B (zh) 音频处理方法及装置
CN114302185B (zh) 显示设备及信息关联方法
CN105933539B (zh) 音频播放的控制方法、装置及终端
CN109982124A (zh) 用户场景智能分析方法、装置和存储介质
CN105825522A (zh) 图像处理方法和支持该方法的电子设备
CN109620454B (zh) 控制刷牙力度的方法、装置、电子设备及存储介质
CN108848313B (zh) 一种多人拍照方法、终端和存储介质
KR102376700B1 (ko) 비디오 컨텐츠 생성 방법 및 그 장치
CN108833262B (zh) 会话处理方法、装置、终端及存储介质
CN104867506A (zh) 自动控制音乐的方法和装置
CN111176440B (zh) 一种视频通话方法及可穿戴设备
WO2020135334A1 (zh) 电视应用主题切换方法、电视、可读存储介质及设备
CN107948672A (zh) 保存视频数据的方法和***、以及服务器、穿戴式设备
WO2017049485A1 (zh) 一种信息处理方法以及智能手环
US10810439B2 (en) Video identification method and device
CN115702993B (zh) 跳绳状态的检测方法及电子设备
CN109525791A (zh) 信息记录方法及终端
CN111951787A (zh) 语音输出方法、装置、存储介质和电子设备
CN112446243A (zh) 电子装置及基于情绪的内容推送方法
CN111698600A (zh) 一种处理执行方法、装置及可读介质
CN110196900A (zh) 用于终端的交互方法和装置
CN109963180A (zh) 视频信息统计方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant