CN110992947B - 一种基于语音的交互方法、装置、介质和电子设备 - Google Patents

一种基于语音的交互方法、装置、介质和电子设备 Download PDF

Info

Publication number
CN110992947B
CN110992947B CN201911101955.5A CN201911101955A CN110992947B CN 110992947 B CN110992947 B CN 110992947B CN 201911101955 A CN201911101955 A CN 201911101955A CN 110992947 B CN110992947 B CN 110992947B
Authority
CN
China
Prior art keywords
interaction
voice
information
character
role
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201911101955.5A
Other languages
English (en)
Other versions
CN110992947A (zh
Inventor
李云飞
张前川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Douyin Vision Co Ltd
Douyin Vision Beijing Co Ltd
Original Assignee
Beijing ByteDance Network Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing ByteDance Network Technology Co Ltd filed Critical Beijing ByteDance Network Technology Co Ltd
Priority to CN201911101955.5A priority Critical patent/CN110992947B/zh
Publication of CN110992947A publication Critical patent/CN110992947A/zh
Application granted granted Critical
Publication of CN110992947B publication Critical patent/CN110992947B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/28Constructional details of speech recognition systems
    • G10L15/30Distributed recognition, e.g. in client-server systems, for mobile phones or network applications
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/131Protocols for games, networked simulations or virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/01Indexing scheme relating to G06F3/01
    • G06F2203/012Walk-in-place systems for allowing a user to walk in a virtual environment while constraining him to a given position in the physical environment
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本发明提供了一种基于语音的交互方法、装置、介质和电子设备,其中,交互方法包括:显示用于交互的交互界面,其中,所述交互界面包括第一区域和第二区域,所述第一区域用于显示所述第一用户账号对应的第一虚拟环境界面和第一角色的真实头像界面;所述第二区域用于显示与所述第一用户账号之间具有交互关系的第二虚拟环境界面,所述第二虚拟环境界面包括至少一个虚拟的第二角色;基于所述语音生成触发信号,并根据所述触发信号触发开始交互;判断当前条件是否满足结束交互的预设条件,并在当前条件满足所述预设条件的情况下,结束交互。本发明能够更加直观且实时地看到整个交互过程,不仅提高了交互过程的趣味性,还提高了控制虚拟角色的精准度。

Description

一种基于语音的交互方法、装置、介质和电子设备
技术领域
本发明涉及计算机技术领域,具体而言,涉及一种基于语音的交互方法、装置、介质和电子设备。
背景技术
随着移动终端技术的发展,智能手机、平板电脑的使用越来越广泛,在现有的移动终端上安装有各种基于触摸屏的触控键操作的小程序类应用程序,例如,多人在线竞技类小程序、射击类小程序。
尤其是多人在线竞技类小程序需要触摸屏的多个触控键同时操作或依次操作,来实现控制虚拟场景中的虚拟对象执行射击操作、或者执行蹲起操作、或者执行发射弹药的操作、或者执行行走的操作、或者执行跳跃的操作;但是上述交互过程中,往往需要用户双手的同时协作,而且控制方式多为手势控制,这样,当用户使用的移动终端,例如,手机的屏幕较小时,执行上述过于复杂的操作,不便于操作。
因此,在长期的研发当中,发明人对交互方法进行了大量的研究,提出了一种交互方法,以解决上述技术问题之一。
发明内容
本发明的目的在于提供一种基于语音的交互方法、装置、介质和电子设备,能够解决上述提到的至少一个技术问题。具体方案如下:
根据本发明的具体实施方式,第一方面,本发明提供一种基于语音的交互方法,应用于客户端中,包括:
显示用于交互的交互界面,其中,所述交互界面包括第一区域和第二区域,所述第一区域用于显示第一角色对应的第一虚拟环境界面和所述第一角色的真实头像界面;所述第二区域用于显示与所述第一角色之间具有交互关系的第二虚拟环境界面,所述第二虚拟环境界面包括至少一个虚拟的第二角色;
接收所述第一角色的语音信息,基于所述语音信息分析所述语音信息的语义,并基于所述语义生成不同的触发信号,根据所述触发信号触发开始交互,其中,所述语义包括字数、语种或内容;
判断所述第一角色和/或第二角色的当前条件是否满足结束交互的预设条件,若是,则结束交互。
可选的,所述接收第一角色的语音信息,基于所述语音信息分析所述语音信息的语义,并基于所述语义生成不同的触发信号,根据所述触发信号触发开始交互,包括:
接收第一角色的语音信息,将所述语音信息发送至语音分析服务器,并从所述语音分析服务器接收基于所述语音信息分析获得的语义结果;
根据不同的语义控制所述第一角色执行不同的目标动作,通过执行所述目标动作进行交互。
可选的,所述根据不同的语义控制所述第一角色执行不同的目标动作,通过执行所述目标动作进行交互,包括:
根据不同的语义通过所述第一角色的嘴巴执行不同的目标动作,通过执行所述目标动作与第二角色进行交互,其中,所述执行目标动作至少包括以下一项:
执行发射与所述字数相同数量的子弹的目标动作、执行发射与所述语种相同的文字为子弹的目标动作;执行发射与所述内容相同的文字为子弹的目标动作。
可选的,在所述判断所述第一角色和/或第二角色的当前条件是否满足结束交互的预设条件之前,所述方法还包括:
读取所述交互界面指定位置中第一角色和/或第二角色的当前条件,其中,所述当前条件包括:
所述第一角色的第一显示信息为零;或者,
所述第二角色的第二显示信息全部为零;或者,
所述第一角色的第一显示信息为零,且所述第二角色的第二显示信息为零。
可选的,所述显示用于交互的交互界面还包括:
在所述第一区域的所述第一虚拟环境界面上显示所述第一角色的第一虚拟信息,所述第一虚拟信息包括第一显示信息、第一经验值、第一财富值或者武器信息;和/或
在所述第二区域的所述第二虚拟环境界面上显示所述第二角色的第二虚拟信息,所述第二虚拟信息包括第二显示信息、第二经验值、第二财富值、角色属性或者武器信息。
可选的,所述第二角色为多个,多个第二角色之间通过语音或文字进行通讯。
可选的,在所述显示用于交互的交互界面之前,所述方法还包括:
接收用户的眼睛位置信息;
判断所述眼睛位置信息是否为有效信息,若是,则进入交互界面。
根据本发明的具体实施方式,第二方面,本发明提供一种基于语音的交互装置,应用于客户端中,所述客户端中登录有第一用户账号,包括:
显示单元,显示用于交互的交互界面,其中,所述交互界面包括第一区域和第二区域,所述第一区域用于显示第一角色对应的第一虚拟环境界面和所述第一角色的真实头像界面;所述第二区域用于显示与所述第一角色之间具有交互关系的第二虚拟环境界面,所述第二虚拟环境界面包括至少一个虚拟的第二角色;
生成单元,接收所述第一角色的语音信息,基于所述语音信息分析所述语音信息的语义,并基于所述语义生成不同的触发信号,根据所述触发信号触发开始交互,其中,所述语义包括字数、语种或内容;
控制单元,判断所述第一角色和/或第二角色的当前条件是否满足结束交互的预设条件,若是,则结束交互。
根据本发明的具体实施方式,第三方面,本发明提供一种计算机可读存储介质,其上存储有计算机程序,所述程序被处理器执行时实现如上任一项所述的交互方法。
根据本发明的具体实施方式,第四方面,本发明提供一种电子设备,包括:一个或多个处理器;存储装置,用于存储一个或多个程序,当所述一个或多个程序被所述一个或多个处理器执行时,使得所述一个或多个处理器实现如上任一项所述的交互方法。
本发明实施例的上述方案与现有技术相比,至少具有以下有益效果:本发明提供了一种基于语音的交互方法、装置、介质和电子设备,通过将第一虚拟环境界面和第一用户的真实头像界面均设置于客户端的显示屏幕的第一区域,第二虚拟环境界面和至少一个第二角色设置于客户端的显示屏幕的第二区域,使得通过麦克风获取到的用户声音信息,并通过声音信息与第二区域的角色进行交互,进行交互的过程能够更加直观且实时地看到整个交互状态,不仅提高了交互过程的趣味性,解放了双手,还提高了控制虚拟角色的精准度。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本发明的实施例,并与说明书一起用于解释本发明的原理。显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。在附图中:
图1示出了根据本发明实施例的交互方法的应用场景图;
图2示出了根据本发明实施例的交互方法流程图;
图3示出了根据本发明实施例的交互双方进行交互的示意图;
图4示出了根据本发明的实施例的交互装置结构示意图;
图5示出了根据本发明的实施例的电子设备连接结构示意图。
具体实施方式
为了使本发明的目的、技术方案和优点更加清楚,下面将结合附图对本发明作进一步地详细描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其它实施例,都属于本发明保护的范围。
在本发明实施例中使用的术语是仅仅出于描述特定实施例的目的,而非旨在限制本发明。在本发明实施例和所附权利要求书中所使用的单数形式的“一种”、“所述”和“该”也旨在包括多数形式,除非上下文清楚地表示其他含义,“多种”一般包含至少两种。
应当理解,本文中使用的术语“和/或”仅仅是一种描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。另外,本文中字符“/”,一般表示前后关联对象是一种“或”的关系。
应当理解,尽管在本发明实施例中可能采用术语第一、第二、第三等来描述……,但这些……不应限于这些术语。这些术语仅用来将……区分开。例如,在不脱离本发明实施例范围的情况下,第一……也可以被称为第二……,类似地,第二……也可以被称为第一……。
取决于语境,如在此所使用的词语“如果”、“若”可以被解释成为“在……时”或“当……时”或“响应于确定”或“响应于检测”。类似地,取决于语境,短语“如果确定”或“如果检测(陈述的条件或事件)”可以被解释成为“当确定时”或“响应于确定”或“当检测(陈述的条件或事件)时”或“响应于检测(陈述的条件或事件)”。
还需要说明的是,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的商品或者装置不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种商品或者装置所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的商品或者装置中还存在另外的相同要素。
下面结合附图详细说明本发明的可选实施例。
实施例1
如图1所示,为本发明实施例的一种应用场景图,该应用场景为当前用户通过手机等终端设备操作安装于该终端设备上的客户端,客户端可以只有第一客户端,也可以包括第一客户端和至少一个第二客户端,第一客户端中登录有第一用户账号,至少一个第二客户端中登录有至少一个第二用户账号,第一客户端和至少一个第二客户端均通过网络与后台服务器进行数据通信。特别的一种应用场景为第一客户端的第一用户账号和至少一个第二客户端的第二用户账号之间进行交互的应用场景,但并不限于该唯一应用场景,可以理解的任何能够应用于本实施方案的场景均包括在内,为了说明方便,本实施例以第一客户端的第一用户账号和至少一个第二客户端的第二用户账号之间进行交互的应用场景为例进行描述。
如图2所示,根据本发明的交互的其中一种具体实施方式,本发明提供一种基于语音的交互方法,应用于客户端中,所述客户端中登录有第一用户账号,包括如下方法步骤:
步骤S202:显示用于交互的交互界面,其中,所述交互界面包括第一区域和第二区域,所述第一区域用于显示所述第一用户账号对应的第一虚拟环境界面和第一角色的真实头像界面;所述第二区域用于显示与所述第一用户账号之间具有交互关系的第二虚拟环境界面,所述第二虚拟环境界面包括至少一个虚拟的第二角色。
如图3所示,交互界面为通过移动终端进入界面后显示的具有交互双方的可视化界面。作为一种实施方式,例如登陆小程序客户端后进入小程序角色所呈现的交互场景。
交互界面包括第一区域和第二区域,第一区域和第二区域可以上下设置,也可以左右设置,作为一种优选的实施方式,第一区域设置于第二区域的上部,这样,便于交互的交互双方能够更加直观且实时地看到整个交互过程,便于第一用户通过控制语音,以预设方向发射不同类型的武器装备,以实现精准控制对应的虚拟角色执行不同的目标动作的目的,不仅解放了双手,还提高了交互过程的趣味性。
作为一种可选的实施方式,第一区域包括用于显示所述第一用户账号对应的第一虚拟环境界面和第一角色的真实头像界面,其中,在所述第一区域的所述第一虚拟环境界面上显示所述第一角色的第一虚拟信息,例如所述第一虚拟信息包括第一显示信息、第一经验值、第一财富值或者武器信息。作为一种形象话的实施例,第一显示信息可以是表示第一角色生命值的信息,例如血条进度(可以以数值的形式显示于进度条,例如10000),第一经验值是为了奖励用户的小程序参与时间等而奖励给用户的以数值或其他形式标识的虚拟信息,例如500经验值,第一财富值可以是通过用户赢得比赛的次数而获得的一种虚拟信息,例如金币或小程序币为代表的奖励,该奖励可以用于购买武器装备、技能、生命值等,武器信息表示用户在交互过程中可以使用的具有伤害属性的各种攻击性标识,不同类型攻击性标识可以根据不同程序的需求,通过定义、设置、渲染的方式呈现于交互界面。对于对抗类小程序交互类型,可选的攻击性标识包括但不限于激光柱、子弹、炮弹、火球等等,每一种模型都有其自身的特性,例如以数据表示的伤害特征值,以数据表示的速度特征值,以数据表示的距离特征值等。例如火球的伤害特征值为10000,速度特征值为100,距离特征值为20;炮弹的攻伤害特征值为8000,速度特征值为200,距离特征值30;子弹的伤害特征值为1000,速度特征值为300,距离特征值40等等。不同类型攻击性标识需要经过渲染,以使得对抗效果更佳,渲染方式可以通过真实性的外观特性,将不同武器做不同的效果渲染,渲染方法是一种公知的方法,此处不做赘述。具体效果可以描述为,例如说话,可以从嘴巴里释放子弹,说话内容不一样,释放子弹数量和种类也不一样。上述攻击武器描述不做唯一限定。上述形象的举例并不对本申请交互过程具有限定作用,仅用作对方案的理解而进行的例举。
作为一种实施方式,第一区域的第一角色的真实头像界面通过摄像头可以实时获取,通过摄像头获取用户的真实的表情图像,并将所述真实的表情图像实时显示于交互界面;或,通过摄像头获取用户的真实的表情图像,选择与所述真实的表情图像匹配的模型头像,将所述模型头像实时显示于交互界面。以真实头像显示或以模型头像显示,可以在进入小程序界面过程中选择,当选择以模型头像显示时,还可以进一步选择以何种模型头像显示,例如可以选择恐龙、青蛙类动物头像模型,可以选择动漫类头像模型等,各种模型图像的渲染在程序开发过程中设计制作好,当获取到用户真实头像数据后,将真实用户头像的特征区域与模型头像特征区域对应显示即可。
第二区域用于显示与所述第一用户账号之间具有交互关系的第二虚拟环境界面,用于显示至少一个第二角色(作为形象化的举例,例如代表交互关系的A、B、C小人)的虚拟信息。
下述形象的举例并不对本申请交互过程具有限定作用,仅用作对方案的理解而进行的例举。作为一种实施方式,所述多个虚拟的第二角色包括:多个虚拟的第二角色为自动接收计算机控制指令进行交互的虚拟角色或者实时接收其他用户控制指令进行交互的虚拟角色。
也就是说,多个第二角色可以是计算机程序自动控制的角色,角色之间的动作、技能、配合都是通过计算机程序编译好的,在后期交互过程中不受人的控制。而另一种实施方式为,多个第二角色是实时接收其他用户控制指令控制的角色,例如其他用户可以通过触控的方式对小人角色进行控制,小人的角色可以在进入小程序时选择。
下述述形象的举例并不对本申请交互过程具有限定作用,仅用作对方案的理解而进行的例举。作为一种实施方式,所述第二角色具有角色属性,所述角色属性包括速度属性、弹跳属性、攻击属性、保护属性以及生命属性,其中所述多个虚拟的第二角色的所述角色属性各不相同。速度属性是每个小人角色的移动速度值,后台服务器通过数值进行标识,例如A的速度100、B的速度80、C的速度60;弹跳属性是每个小人角色的弹跳值,后台服务器通过数值进行标识,例如A的弹跳值100、B的弹跳值80、C的弹跳值60;、攻击属性是每个小人角色的攻击值,后台服务器通过数值进行标识,例如A的攻击值100、B的攻击值80、C的攻击值60;保护属性表示某一角色具有保护其他角色的能力属性,例如开启该属性后其他小人在受到同样伤害的情况下会减少20%;生命属性是每个小人角色的生命值,后台服务器通过数值进行标识,例如A的生命值100、B的生命值80、C的生命值60。
在所述第二区域的所述第二虚拟环境界面上显示所述第二角色的第二虚拟信息,所述第二虚拟信息包括第二显示信息、第二经验值、第二财富值、角色属性或者武器信息。其中显示信息、经验值、财富值、角色属性或者武器信息如上所述,此处不再赘述。
步骤S204:接收所述第一角色的语音信息,基于所述语音信息分析所述语音信息的语义,并基于所述语义生成不同的触发信号,根据所述触发信号触发开始交互,其中,所述语义包括字数、语种或内容。
作为一种实施方式,所述接收用户的语音信息,并基于所述语音信息生成触发信号,根据所述触发信号触发开始交互,包括如下子步骤:
步骤S204-1:基于所述语音分析所述语音的语义,所述语义包括字数、语种或内容。
对于语音进行语义分析的技术可以采用现有技术中的任何一种技术,此处不做介绍。分析结果包括但不限于语义中的字数、语种或内容,例如玩家说出“发射子弹”的中文语音,麦克风捕捉到该语音后,上传至服务器,服务器分析出该语音的语义信息为:字数为4、中文、内容为“发射子弹”;或者,作为另一种实施方式,例如玩家说出“fire”的英文语音,麦克风捕捉到该语音后,上传至服务器,服务器分析出该语音的语义信息为:四个英文字母、英文、内容为“fire”等等。
步骤S204-2:根据所述语义控制所述第一角色执行目标动作,通过执行所述目标动作进行交互,其中,所述执行目标动作至少包括以下一项:执行发射与所述字数相同的子弹的目标动作、执行发射与所述语种相同的字为子弹的目标动作;执行发射与所述内容相同的字为子弹的目标动作。
根据步骤S204-1,当检测到相应的语音内容后,根据语义内容及客户端数据库匹配关系,发射相应内容的武器,例如对于“发射子弹”的语音内容,可以发射4颗子弹,也可以发射“发射子弹”字样的中文子弹,还可以发射任何数量的中文字样的子弹,也可以发射真实子弹样式的子弹;再例如对于“fire”的语音内容,可以发射4颗子弹,也可以发射“fire”字样的英文字母子弹,还可以发射任何数量的英文字母样式的子弹,也可以发射真实子弹样式的子弹等等。
作为一种实施方式,根据不同的所述语音特性,触发不同的攻击性标识,例如音量不同、语义不同,都可以触发不同的攻击性标识,不同的攻击性标识具有不同的属性值,例如包括伤害特征值、速度特征值以及距离特征值,其中,伤害特征值是指被具有该伤害特征值的武器攻击到后,小程序人物的生命值会减少与伤害特征值匹配的数值,例如具有100000的生命值,被超过一定分贝的语音攻击到后会减少10000的生命值,被低于一定分贝的语音攻击到后会减少1000的生命值;速度特征值是指武器发出后在屏幕上的移动速度,例如语速快的子弹的移动速度快,语速慢的子弹移动速度慢;距离特征值是武器可以发射的距离,例如语音拖长可以攻击更远的距离。
步骤S206:判断所述第一角色和/或第二角色的当前条件是否满足结束交互的预设条件,若是,则结束交互。
可选的,在所述判断当前条件是否满足结束交互的预设条件之前,所述方法还包括如下步骤(未图示):读取所述交互界面指定位置的预设条件;
其中,所述预设条件包括:所述第一用户账号对应的第一角色的第一显示信息为零;或者,所述至少一个虚拟的第二角色的第二显示信息全部为零;或者,所述第一用户账号对应的第一角色的第一显示信息为零,且所述至少一个虚拟的第二角色的第二显示信息全部为零。
上述步骤说明,当交互双方任何一方或两方的生命值为零时,交互结束。
可选的,在所述显示用于交互的交互界面之前,所述方法还包括如下进入交互界面的方式:
实施方式一、
1、通过终端摄像头接收用户的眼睛位置信息,并反映到终端屏幕。
2、判断所述眼睛位置信息是否为有效信息,例如是否在终端屏幕的上半区域,且双眼都位于显示屏幕中,若是,则进入交互界面。
实施方式二、
1、向服务器发送开局请求,以便于所述服务器从多个待选用户账号中选择多个与所述第一用户账号进行交互的用户账号,其中,所述开局请求中携带所述第一用户账号;
2、接收所述服务器发送的与所述第一用户账号进行交互的用户账号的用户账号信息;
3、接收开始指令,进入交互界面。
本方法通过将第一虚拟环境界面和第一用户的真实头像界面均设置于客户端的显示屏幕的第一区域,第二虚拟环境界面和至少一个第二角色设置于客户端的显示屏幕的第二区域,使得通过麦克风获取到的用户声音信息,并通过声音信息与第二区域的角色进行交互,进行交互的过程能够更加直观且实时地看到整个交互状态,不仅提高了交互过程的趣味性,还提高了控制虚拟角色的精准度。
实施例2
如图1所示,为本发明实施例的一种应用场景图,该应用场景为当前用户通过手机等终端设备操作安装于该终端设备上的客户端,客户端可以只有第一客户端,也可以包括第一客户端和至少一个第二客户端,第一客户端中登录有第一用户账号,至少一个第二客户端中登录有至少一个第二用户账号,第一客户端和至少一个第二客户端均通过网络与后台服务器进行数据通信。特别的一种应用场景为第一客户端的第一用户账号和至少一个第二客户端的第二用户账号之间进行交互的应用场景,但并不限于该唯一应用场景,可以理解的任何能够应用于本实施方案的场景均包括在内,为了说明方便,本实施例以第一客户端的第一用户账号和至少一个第二客户端的第二用户账号之间进行交互的应用场景为例进行描述。本实施例承接实施例1,用于实现如实施例1所述的方法步骤,基于相同的名称含义的解释与实施例1相同,具有与实施例1相同的技术效果,此处不再赘述。
如图4所示,根据本发明的具体实施方式,本发明提供一种基于语音的交互装置,应用于客户端中,所述客户端中登录有第一用户账号,包括显示单元402、接收单元404、控制单元406:
显示单元402,用于显示用于交互的交互界面,其中,所述交互界面包括第一区域和第二区域,所述第一区域用于显示所述第一用户账号对应的第一虚拟环境界面和第一角色的真实头像界面;所述第二区域用于显示与所述第一用户账号之间具有交互关系的第二虚拟环境界面,所述第二虚拟环境界面包括至少一个虚拟的第二角色。
作为一种实施方式,第一区域包括用于显示所述第一用户账号对应的第一虚拟环境界面和第一角色的真实头像界面,其中,在所述第一区域的所述第一虚拟环境界面上显示所述第一角色的第一虚拟信息,所述第一虚拟信息包括第一显示信息、第一经验值、第一财富值或者武器信息。
作为一种实施方式,第一区域的第一角色的真实头像界面通过摄像头可以实时获取,通过摄像头获取用户的真实的表情图像,并将所述真实的表情图像实时显示于交互界面;或,通过摄像头获取用户的真实的表情图像,选择与所述真实的表情图像匹配的模型头像,将所述模型头像实时显示于交互界面。
第二区域用于显示与所述第一用户账号之间具有交互关系的第二虚拟环境界面,用于显示至少一个第二角色(例如代表交互关系的A、B、C小人)的虚拟信息。
作为一种实施方式,所述多个虚拟的第二角色包括:多个虚拟的第二角色为自动接收计算机控制指令进行交互的虚拟角色或者实时接收其他用户控制指令进行交互的虚拟角色。
作为一种实施方式,所述第二角色具有角色属性,所述角色属性包括速度属性、弹跳属性、攻击属性、保护属性以及生命属性,其中所述多个虚拟的第二角色的所述角色属性各不相同。
在所述第二区域的所述第二虚拟环境界面上显示所述第二角色的第二虚拟信息,所述第二虚拟信息包括第二显示信息、第二经验值、第二财富值、角色属性或者武器信息。其中显示信息、经验值、财富值、角色属性或者武器信息如上所述,此处不再赘述。
生成单元404,用于接收用户的语音信息,并基于所述语音信息生成触发信号,根据所述触发信号触发开始交互。
作为一种实施方式,所述生成单元404还包括:
分析单元(未图示):基于所述语音分析所述语音的语义,所述语义包括字数、语种或内容。
交互单元(未图示):根据所述语义控制所述第一角色执行目标动作,通过执行所述目标动作进行交互,其中,所述执行目标动作至少包括以下一项:执行发射与所述字数相同的子弹的目标动作、执行发射与所述语种相同的字为子弹的目标动作;执行发射与所述内容相同的字为子弹的目标动作。
控制单元406:判断当前条件是否满足结束交互的预设条件,并在当前条件满足所述预设条件的情况下,结束交互。
可选的,还包括读取单元(未图示):读取所述交互界面指定位置的预设条件;
其中,所述预设条件包括:所述第一用户账号对应的第一角色的第一显示信息为零;或者,所述至少一个虚拟的第二角色的第二显示信息为零;或者,所述第一用户账号对应的第一角色的第一显示信息为零,且所述至少一个虚拟的第二角色的第二显示信息为零。
可选的,还包括进入单元(未图示),用于:
1、向服务器发送开局请求,以便于所述服务器从多个待选用户账号中选择多个与所述第一用户账号进行交互的用户账号,其中,所述开局请求中携带所述第一用户账号;
2、接收所述服务器发送的与所述第一用户账号进行交互的用户账号的用户账号信息;
3、接收开始指令,进入交互界面。
可选的,还包括通讯单元,用于多个第二角色之间可以进行通讯,例如通过语音或者文字交互的方式进行交流,以实现角色之间的更加默契的配合。
本装置通过将第一虚拟环境界面和第一用户的真实头像界面均设置于客户端的显示屏幕的第一区域,第二虚拟环境界面和至少一个第二角色设置于客户端的显示屏幕的第二区域,使得通过麦克风获取到的用户声音信息,并通过声音信息与第二区域的角色进行交互,进行交互的过程能够更加直观且实时地看到整个交互状态,不仅提高了交互过程的趣味性,还提高了控制虚拟角色的精准度。
实施例3
如图5所示,本实施例提供一种电子设备,该设备用于交互的方法,所述电子设备,包括:至少一个处理器;以及,与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够:通过将第一虚拟环境界面和第一用户的真实头像界面均设置于客户端的显示屏幕的第一屏,第二虚拟环境界面和第二用户的真实头像界面均设置于客户端的显示屏幕的第二屏,从而做到了将第一用户账号对应的界面与第二用户账号对应的界面进行分屏显示,这样,进行交互的交互双方能够更加直观且实时地看到整个交互过程,不仅提高了交互过程的趣味性,还提高了控制虚拟角色的精准度。
实施例4
本公开实施例提供了一种非易失性计算机存储介质,所述计算机存储介质存储有计算机可执行指令,该计算机可执行指令可执行上述任意方法实施例中的交互方法。
实施例5
下面参考图5,其示出了适于用来实现本公开实施例的电子设备的结构示意图。本公开实施例中的终端设备可以包括但不限于诸如移动电话、笔记本电脑、数字广播接收器、PDA(个人数字助理)、PAD(平板电脑)、PMP(便携式多媒体播放器)、车载终端(例如车载导航终端)等等的移动终端以及诸如数字TV、台式计算机等等的固定终端。图5示出的电子设备仅仅是一个示例,不应对本公开实施例的功能和使用范围带来任何限制。
如图5所示,电子设备可以包括处理装置(例如中央处理器、图形处理器等)501,其可以根据存储在只读存储器(ROM)502中的程序或者从存储装置508加载到随机访问存储器(RAM)503中的程序而执行各种适当的动作和处理。在RAM 503中,还存储有电子设备操作所需的各种程序和数据。处理装置501、ROM 502以及RAM 503通过总线504彼此相连。输入/输出(I/O)接口505也连接至总线504。
通常,以下装置可以连接至I/O接口505:包括例如触摸屏、触摸板、键盘、鼠标、摄像头、麦克风、加速度计、陀螺仪等的输入装置506;包括例如液晶显示器(LCD)、扬声器、振动器等的输出装置507;包括例如磁带、硬盘等的存储装置508;以及通信装置509。通信装置509可以允许电子设备与其他设备进行无线或有线通信以交换数据。虽然图5示出了具有各种装置的电子设备,但是应理解的是,并不要求实施或具备所有示出的装置。可以替代地实施或具备更多或更少的装置。
特别地,根据本公开的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信装置509从网络上被下载和安装,或者从存储装置508被安装,或者从ROM 502被安装。在该计算机程序被处理装置501执行时,执行本公开实施例的方法中限定的上述功能。
需要说明的是,本公开上述的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的***、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本公开中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行***、装置或者器件使用或者与其结合使用。而在本公开中,计算机可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读信号介质可以发送、传播或者传输用于由指令执行***、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:电线、光缆、RF(射频)等等,或者上述的任意合适的组合。
上述计算机可读介质可以是上述电子设备中所包含的;也可以是单独存在,而未装配入该电子设备中。
上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被该电子设备执行时,使得该电子设备:通过将第一虚拟环境界面和第一用户的真实头像界面均设置于客户端的显示屏幕的第一屏,第二虚拟环境界面和第二用户的真实头像界面均设置于客户端的显示屏幕的第二屏,从而做到了将第一用户账号对应的界面与第二用户账号对应的界面进行分屏显示,这样,进行交互的交互双方能够更加直观且实时地看到整个交互过程,不仅提高了交互过程的趣味性,还提高了控制虚拟角色的精准度。
或者,上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被该电子设备执行时,使得该电子设备:通过将第一虚拟环境界面和第一用户的真实头像界面均设置于客户端的显示屏幕的第一屏,第二虚拟环境界面和第二用户的真实头像界面均设置于客户端的显示屏幕的第二屏,从而做到了将第一用户账号对应的界面与第二用户账号对应的界面进行分屏显示,这样,进行交互的交互双方能够更加直观且实时地看到整个交互过程,不仅提高了交互过程的趣味性,还提高了控制虚拟角色的精准度。
可以以一种或多种程序设计语言或其组合来编写用于执行本公开的操作的计算机程序代码,上述程序设计语言包括面向对象的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
附图中的流程图和框图,图示了按照本公开各种实施例的***、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的***来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本公开实施例中所涉及到的单元可以通过软件的方式实现,也可以通过硬件的方式来实现。其中,单元的名称在某种情况下并不构成对该单元本身的限定。

Claims (10)

1.一种基于语音的交互方法,应用于客户端中,其特征在于,包括:
显示用于交互的交互界面,其中,所述交互界面包括第一区域和第二区域,所述第一区域用于显示第一角色对应的第一虚拟环境界面和所述第一角色的真实头像界面;所述第二区域用于显示与所述第一角色之间具有交互关系的第二虚拟环境界面,所述第二虚拟环境界面包括至少一个虚拟的第二角色;
接收所述第一角色的语音信息,基于所述语音信息分析所述语音信息的语义,并基于所述语义生成不同的触发信号,根据所述触发信号触发开始交互,其中,所述语义包括字数、语种或内容;以及根据所述语音信息的不同的语音特性生成不同的触发信号,其中,所述语音特性包括分贝、语速或语音拖长情况;
判断所述第一角色和/或第二角色的当前条件是否满足结束交互的预设条件,若是,则结束交互。
2.根据权利要求1所述的方法,其特征在于,所述接收第一角色的语音信息,基于所述语音信息分析所述语音信息的语义,并基于所述语义生成不同的触发信号,根据所述触发信号触发开始交互,包括:
接收第一角色的语音信息,将所述语音信息发送至语音分析服务器,并从所述语音分析服务器接收基于所述语音信息分析获得的语义结果;
根据不同的语义控制所述第一角色执行不同的目标动作,通过执行所述目标动作进行交互。
3.根据权利要求2所述的方法,其特征在于,所述根据不同的语义控制所述第一角色执行不同的目标动作,通过执行所述目标动作进行交互,包括:
根据不同的语义通过所述第一角色的嘴巴执行不同的目标动作,通过执行所述目标动作与第二角色进行交互,其中,所述执行目标动作至少包括以下一项:
执行发射与所述字数相同数量的子弹的目标动作、执行发射与所述语种相同的文字为子弹的目标动作、执行发射与所述内容相同的文字为子弹的目标动作。
4.根据权利要求1所述的方法,其特征在于,在所述判断所述第一角色和/或第二角色的当前条件是否满足结束交互的预设条件之前,所述方法还包括:
读取所述交互界面指定位置中第一角色和/或第二角色的当前条件,其中,所述当前条件包括:
所述第一角色的第一显示信息为零;或者,
所述第二角色的第二显示信息全部为零;或者,
所述第一角色的第一显示信息为零,且所述第二角色的第二显示信息为零。
5.根据权利要求1所述的方法,其特征在于,所述显示用于交互的交互界面还包括:
在所述第一区域的所述第一虚拟环境界面上显示所述第一角色的第一虚拟信息,所述第一虚拟信息包括第一显示信息、第一经验值、第一财富值或者武器信息;和/或
在所述第二区域的所述第二虚拟环境界面上显示所述第二角色的第二虚拟信息,所述第二虚拟信息包括第二显示信息、第二经验值、第二财富值、角色属性或者武器信息。
6.根据权利要求1所述的方法,其特征在于,所述第二角色为多个,多个第二角色之间通过语音或文字进行通讯。
7.根据权利要求1所述的方法,其特征在于,在所述显示用于交互的交互界面之前,所述方法还包括:
接收用户的眼睛位置信息;
判断所述眼睛位置信息是否为有效信息,若是,则进入交互界面。
8.一种基于语音的交互装置,应用于客户端中,所述客户端中登录有第一用户账号,其特征在于,包括:
显示单元,显示用于交互的交互界面,其中,所述交互界面包括第一区域和第二区域,所述第一区域用于显示第一角色对应的第一虚拟环境界面和所述第一角色的真实头像界面;所述第二区域用于显示与所述第一角色之间具有交互关系的第二虚拟环境界面,所述第二虚拟环境界面包括至少一个虚拟的第二角色;
生成单元,接收所述第一角色的语音信息,基于所述语音信息分析所述语音信息的语义,并基于所述语义生成不同的触发信号,根据所述触发信号触发开始交互,其中,所述语义包括字数、语种或内容;以及根据所述语音信息的不同的语音特性生成不同的触发信号,其中,所述语音特性包括分贝、语速、语音拖长;
控制单元,判断所述第一角色和/或第二角色的当前条件是否满足结束交互的预设条件,若是,则结束交互。
9.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述程序被处理器执行时实现如权利要求1至7中任一项所述的方法。
10.一种电子设备,其特征在于,包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序,当所述一个或多个程序被所述一个或多个处理器执行时,使得所述一个或多个处理器实现如权利要求1至7中任一项所述的方法。
CN201911101955.5A 2019-11-12 2019-11-12 一种基于语音的交互方法、装置、介质和电子设备 Active CN110992947B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911101955.5A CN110992947B (zh) 2019-11-12 2019-11-12 一种基于语音的交互方法、装置、介质和电子设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911101955.5A CN110992947B (zh) 2019-11-12 2019-11-12 一种基于语音的交互方法、装置、介质和电子设备

Publications (2)

Publication Number Publication Date
CN110992947A CN110992947A (zh) 2020-04-10
CN110992947B true CN110992947B (zh) 2022-04-22

Family

ID=70083933

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911101955.5A Active CN110992947B (zh) 2019-11-12 2019-11-12 一种基于语音的交互方法、装置、介质和电子设备

Country Status (1)

Country Link
CN (1) CN110992947B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113742460B (zh) * 2020-05-28 2024-03-29 华为技术有限公司 生成虚拟角色的方法及装置
CN112494958B (zh) * 2020-12-18 2022-09-23 腾讯科技(深圳)有限公司 语音转换文字的方法、***、设备及介质
CN113827954B (zh) * 2021-09-24 2023-01-10 广州博冠信息科技有限公司 区域语音通信方法、装置、存储介质及电子设备

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104834847A (zh) * 2014-02-11 2015-08-12 腾讯科技(深圳)有限公司 身份验证方法及装置
CN107657949A (zh) * 2017-04-14 2018-02-02 深圳市人马互动科技有限公司 游戏数据的获取方法及装置
CN107665708A (zh) * 2016-07-29 2018-02-06 科大讯飞股份有限公司 智能语音交互方法及***
CN107773982A (zh) * 2017-10-20 2018-03-09 科大讯飞股份有限公司 游戏语音交互方法及装置
CN107799116A (zh) * 2016-08-31 2018-03-13 科大讯飞股份有限公司 多轮交互并行语义理解方法和装置
CN108091333A (zh) * 2017-12-28 2018-05-29 广东欧珀移动通信有限公司 语音控制方法及相关产品
CN108187343A (zh) * 2018-01-16 2018-06-22 腾讯科技(深圳)有限公司 数据交互方法和装置、存储介质及电子装置
CN109949799A (zh) * 2019-03-12 2019-06-28 广东小天才科技有限公司 一种语义解析方法及***
CN110882537A (zh) * 2019-11-12 2020-03-17 北京字节跳动网络技术有限公司 一种交互方法、装置、介质和电子设备
CN111013135A (zh) * 2019-11-12 2020-04-17 北京字节跳动网络技术有限公司 一种交互方法、装置、介质和电子设备

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9396738B2 (en) * 2013-05-31 2016-07-19 Sonus Networks, Inc. Methods and apparatus for signal quality analysis
CN107785013A (zh) * 2016-08-24 2018-03-09 中兴通讯股份有限公司 语音控制方法及装置
CN106143452B (zh) * 2016-09-24 2018-11-13 华北理工大学 选择性声控刹车***及方法
KR102369416B1 (ko) * 2017-09-18 2022-03-03 삼성전자주식회사 복수의 사용자 각각에 대응하는 개인화 레이어를 이용하여 복수의 사용자 각각의 음성 신호를 인식하는 음성 신호 인식 시스템
CN107596698B (zh) * 2017-09-27 2018-08-24 深圳市天博智科技有限公司 一种智能仿生机器狗的控制***及实现方法
CN110085225B (zh) * 2019-04-24 2024-01-02 北京百度网讯科技有限公司 语音交互方法、装置、智能机器人及计算机可读存储介质

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104834847A (zh) * 2014-02-11 2015-08-12 腾讯科技(深圳)有限公司 身份验证方法及装置
CN107665708A (zh) * 2016-07-29 2018-02-06 科大讯飞股份有限公司 智能语音交互方法及***
CN107799116A (zh) * 2016-08-31 2018-03-13 科大讯飞股份有限公司 多轮交互并行语义理解方法和装置
CN107657949A (zh) * 2017-04-14 2018-02-02 深圳市人马互动科技有限公司 游戏数据的获取方法及装置
CN107773982A (zh) * 2017-10-20 2018-03-09 科大讯飞股份有限公司 游戏语音交互方法及装置
CN108091333A (zh) * 2017-12-28 2018-05-29 广东欧珀移动通信有限公司 语音控制方法及相关产品
CN108187343A (zh) * 2018-01-16 2018-06-22 腾讯科技(深圳)有限公司 数据交互方法和装置、存储介质及电子装置
CN109949799A (zh) * 2019-03-12 2019-06-28 广东小天才科技有限公司 一种语义解析方法及***
CN110882537A (zh) * 2019-11-12 2020-03-17 北京字节跳动网络技术有限公司 一种交互方法、装置、介质和电子设备
CN111013135A (zh) * 2019-11-12 2020-04-17 北京字节跳动网络技术有限公司 一种交互方法、装置、介质和电子设备

Also Published As

Publication number Publication date
CN110992947A (zh) 2020-04-10

Similar Documents

Publication Publication Date Title
CN110992947B (zh) 一种基于语音的交互方法、装置、介质和电子设备
CN108733427A (zh) 输入组件的配置方法、装置、终端及存储介质
US20210081985A1 (en) Advertisement interaction methods and apparatuses, electronic devices and storage media
US20220391060A1 (en) Methods for displaying and providing multimedia resources
KR20210014558A (ko) 비디오 게임 내의 상황 인식 커뮤니케이션 시스템
US11673063B2 (en) In-game status bar
CN111803960B (zh) 用于启动预设流程的方法及设备
CN113536147B (zh) 群组互动方法、装置、设备及存储介质
US11967343B2 (en) Automated video editing
CN110417728B (zh) 一种在线互动方法、装置、介质和电子设备
CN111013135A (zh) 一种交互方法、装置、介质和电子设备
CN111013139B (zh) 角色交互方法、***、介质和电子设备
CN110882537B (zh) 一种交互方法、装置、介质和电子设备
WO2022192883A1 (en) Automated video editing to add visual or audio effect corresponding to a detected motion of an object in the video
CN113797540A (zh) 一种卡牌提示语音的确定方法、装置、计算机设备和介质
CN110928410A (zh) 基于多个表情动作的交互方法、装置、介质和电子设备
CN111068308A (zh) 基于嘴部动作的数据处理方法、装置、介质和电子设备
US20130267311A1 (en) Identity game
CN111061360A (zh) 基于用户头部动作的控制方法、装置、介质和电子设备
CN110882541A (zh) 游戏角色控制***、服务器以及游戏角色控制方法
EP4386523A1 (en) Interactive method and apparatus, electronic device, and storage medium
KR20200040396A (ko) 스토리 제공 장치 및 방법
CN117679732A (zh) 游戏交互方法、装置、设备和计算机可读存储介质
CN116392819A (zh) 人机引导交互方法、装置、计算机设备及可读存储介质
CN110941333A (zh) 基于眼部动作的交互方法、装置、介质和电子设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CP01 Change in the name or title of a patent holder

Address after: 100041 B-0035, 2 floor, 3 building, 30 Shixing street, Shijingshan District, Beijing.

Patentee after: Douyin Vision Co.,Ltd.

Address before: 100041 B-0035, 2 floor, 3 building, 30 Shixing street, Shijingshan District, Beijing.

Patentee before: Tiktok vision (Beijing) Co.,Ltd.

Address after: 100041 B-0035, 2 floor, 3 building, 30 Shixing street, Shijingshan District, Beijing.

Patentee after: Tiktok vision (Beijing) Co.,Ltd.

Address before: 100041 B-0035, 2 floor, 3 building, 30 Shixing street, Shijingshan District, Beijing.

Patentee before: BEIJING BYTEDANCE NETWORK TECHNOLOGY Co.,Ltd.

CP01 Change in the name or title of a patent holder