CN116261850A - 用于实时虚拟效果的骨骼跟踪 - Google Patents

用于实时虚拟效果的骨骼跟踪 Download PDF

Info

Publication number
CN116261850A
CN116261850A CN202180047149.3A CN202180047149A CN116261850A CN 116261850 A CN116261850 A CN 116261850A CN 202180047149 A CN202180047149 A CN 202180047149A CN 116261850 A CN116261850 A CN 116261850A
Authority
CN
China
Prior art keywords
video
virtual effect
message
user
identifying
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202180047149.3A
Other languages
English (en)
Inventor
奥拉·雷赫柳克
乔纳森·索利欣
奥莱夏·沃罗诺娃
阿尔乔姆·亚戈金
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Snap Inc
Original Assignee
Snap Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Snap Inc filed Critical Snap Inc
Publication of CN116261850A publication Critical patent/CN116261850A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2621Cameras specially adapted for the electronic generation of special effects during image pickup, e.g. digital cameras, camcorders, video cameras having integrated special effects capability
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L51/00User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
    • H04L51/07User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail characterised by the inclusion of specific contents
    • H04L51/10Multimedia information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L51/00User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
    • H04L51/07User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail characterised by the inclusion of specific contents
    • H04L51/18Commands or executable codes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Human Computer Interaction (AREA)
  • Information Transfer Between Computers (AREA)

Abstract

提出了用于通过使用骨骼姿势***的图像捕获设备实时捕获视频的***和方法。骨骼姿势***识别视频中的第一姿势信息,响应于识别到第一姿势信息将第一虚拟效果应用于视频,识别视频中的第二姿势信息,以及响应于识别到第一姿势信息将第二虚拟效果应用于视频。

Description

用于实时虚拟效果的骨骼跟踪
优先权要求
本申请要求于2020年6月30日提交的美国临时专利申请序列第63/046,551号的优先权的权益,其全部内容通过引用并入本文中。
背景技术
在当今的许多视频中,在视频被拍摄之后,在后处理中添加诸如屏幕抖动、颜色校正等效果。这在由不同创建者重复的舞蹈视频中尤其流行。
附图说明
在不一定按比例绘制的附图中,相同的数字可以在不同的视图中描述相似的部件。为了容易识别对任何特定元素或行动的讨论,附图标记中的一个或多个最高位数字是指该元件被首次引入时所在的图号。在附图的图中以示例而非限制方式示出了实施方式,在附图中:
图1是根据一些示例的其中可以部署本公开内容的联网环境的图解表示。
图2是根据一些示例的具有客户端侧功能和服务器侧功能二者的消息收发***的图解表示。
图3是根据一些示例的在数据库中维护的数据结构的图解表示。
图4是根据一些示例的消息的图解表示。
图5是根据一些示例的访问限制处理的流程图。
图6是根据一些示例的用于通过图像捕获设备实时捕获视频的方法的流程图。
图7是根据一些示例的骨骼姿势***的示例用户行为流程。
图8是根据一些示例的骨骼姿势***的示例用户行为流程。
图9是根据一些示例的骨骼姿势***的示例用户行为流程。
图10是根据一些示例的骨骼姿势***的示例用户行为流程。
图11是示出其中可以实现示例的软件架构的框图。
图12是根据一些示例的呈计算机***形式的机器的图解表示,在该计算机***内可以执行一组指令以使该机器执行本文中讨论的方法中的任何一种或更多种。
具体实施方式
所提出的***和方法描述了使用人的运动来驱动使用增强现实(AR)的视觉效果的骨骼姿势***。例如,骨骼姿势***检测用户的姿势(例如,用户的身体如何定位以及每个关节之间的角度)以“触发”虚拟效果。在另一示例中,骨骼姿势***跟踪用户的手或关节,以允许用户控制他们期望的虚拟效果的水平。在一个示例中,骨骼姿势***检测用户的手,因为用户的手涉及触发虚拟效果的参考点(例如,如果用户将他们的手朝向摄像装置取景器的角移动,则其将触发虚拟效果)。在另一示例中,骨骼姿势***检测手势以触发虚拟效果。骨骼姿势***还可以将多个虚拟效果链接在一起作为效果的序列。
联网计算环境
图1是示出用于通过网络交换数据(例如,消息和相关联的内容)的示例消息收发***100的框图。消息收发***100包括客户端设备106的多个实例,每个实例托管若干应用,包括消息收发客户端108。每个消息收发客户端108经由网络102(例如,因特网)通信地耦接至消息收发客户端108和消息收发服务器***104的其他实例。
消息收发客户端108能够经由网络102与另一消息收发客户端108和消息收发服务器***104通信并且交换数据。在消息收发客户端108之间以及消息收发客户端108与消息收发服务器***104之间交换的数据包括功能(例如,激活功能的命令)以及有效载荷数据(例如,文本、音频、视频或其他多媒体数据)。
消息收发服务器***104经由网络102向特定消息收发客户端108提供服务器侧功能。虽然消息收发***100的某些功能在本文中被描述为由消息收发客户端108或由消息收发服务器***104执行,但是某些功能的在消息收发客户端108或消息收发服务器***104内的定位可以是设计选择。例如,在技术上可以优选的是:最初将某些技术和功能部署在消息收发服务器***104内,但是后面将该技术和功能迁移至客户端设备106具有足够处理能力的消息收发客户端108。
消息收发服务器***104支持向消息收发客户端108提供的各种服务和操作。这样的操作包括向消息收发客户端108发送数据、从消息收发客户端108接收数据以及对由消息收发客户端108生成的数据进行处理。作为示例,该数据可以包括消息内容、客户端设备信息、地理定位信息、媒体增强和覆盖、消息内容持续条件、社交网络信息和实况事件信息。通过经由消息收发客户端108的用户接口(UI)可用的功能来激活和控制消息收发***100内的数据交换.
现在具体地转至消息收发服务器***104,应用程序接口(API)服务器112耦接至应用服务器110并且向应用服务器110提供编程接口。应用服务器110通信地耦接至数据库服务器116,数据库服务器116利于访问数据库124,该数据库124存储与通过应用服务器110处理的消息相关联的数据。类似地,web服务器126耦接至应用服务器110,并且向应用服务器110提供基于web的接口。为此,web服务器126通过超文本传输协议(HTTP)和若干其他相关协议处理传入的网络请求。
应用程序接口(API)服务器112在客户端设备106与应用服务器110之间接收和发送消息数据(例如,命令和消息有效载荷)。具体地,应用程序接口(API)服务器112提供一组接口(例如,例程和协议),消息收发客户端108可以调用或查询该组接口以激活应用服务器110的功能。应用程序接口(API)服务器112显露由应用服务器110支持的各种功能,包括:帐户注册;登录功能;经由应用服务器110将消息从特定消息收发客户端108发送至另一消息收发客户端108;将媒体文件(例如,图像或视频)从消息收发客户端108发送至消息收发服务器114并且用于另一消息收发客户端108的可能访问;设置媒体数据集合(例如,故事);检索客户端设备106的用户的朋友列表;检索这样的集合;检索消息和内容;在实体图(例如社交图)中添加和删除实体(例如朋友);在社交图中定位朋友;以及打开应用事件(例如,与消息收发客户端108有关)。
应用服务器110托管若干服务器应用和子***,包括例如消息收发服务器114、图像处理服务器118和社交网络服务器120。消息收发服务器114实现了若干消息处理技术和功能,特别是与从消息收发客户端108的多个实例接收到的消息中包括的内容(例如,文本和多媒体内容)的聚合和其他处理有关的消息处理技术和功能。如将进一步详细描述的,来自多个源的文本和媒体内容可以被聚合成内容的集合(例如,被称为故事或图库)。然后,使这些集合对消息收发客户端108可用。鉴于对这样的处理的硬件要求,也可以由消息收发服务器114在服务器侧执行数据的其他处理器和存储器密集型处理。
应用服务器110还包括图像处理服务器118,该图像处理服务器118专用于执行各种图像处理操作,通常相对于在从消息收发服务器114发送或者在消息收发服务器114处接收的消息的有效载荷内的图像或视频,执行各种图像处理操作。
社交网络服务器120支持各种社交联网功能和服务,并且使这些功能和服务可用于消息收发服务器114。为此,社交网络服务器120维护和访问数据库124内的实体图308(如图3所示)。由社交网络服务器120支持的功能和服务的示例包括识别消息收发***100中的与特定用户有关系或该特定用户正在“关注”的其他用户,以及识别特定用户的兴趣和其他实体。
骨骼姿势***122使用人的运动来驱动使用增强现实的视觉效果。例如,骨骼姿势***122从图像捕获设备接收人的视频并且识别姿势。响应于识别姿态,骨骼姿势***122实时地将虚拟效果应用于视频。
***架构
图2是示出根据一些示例的关于消息收发***100的进一步细节的框图。具体地,消息收发***100被显示为包括消息收发客户端108和应用服务器110。消息收发***100包含若干子***,这些子***在客户端侧由消息收发客户端108支持并且在服务器侧由应用服务器110支持。这些子***包括例如短暂定时器***202、集合管理***204、增强***206、地图***210和游戏***212以及骨骼姿势***122。
短暂定时器***202负责施行由消息收发客户端108和消息收发服务器114对内容进行临时或限时访问。短暂定时器***202包含若干个定时器,这些定时器基于与消息或消息集合(例如,故事)相关联的持续时间和显示参数,选择性地实现经由消息收发客户端108访问(例如,用于呈现和显示)消息和相关联的内容。下面提供关于短暂定时器***202的操作的另外的细节。
集合管理***204负责管理媒体的合集或集合(例如,文本、图像、视频和音频数据的集合)。可以将内容(例如,消息,包括图像、视频、文本和音频)的集合组织成“事件图库”或“事件故事”。可以使这样的集合在指定的时间段内(例如,与内容相关的事件的持续时间)可用。例如,可以在音乐会的持续时间内使与音乐会相关的内容作为“故事”可用。集合管理***204还可以负责向消息收发客户端108的用户接口发布提供特定集合存在的通知的图标。
此外,集合管理***204还包括使得集合管理者能够管理和策展内容的特定集合的策展接口208。例如,策展接口208使得事件组织者能够策展与特定事件相关的内容集合(例如,删除不适当的内容或冗余消息)。此外,集合管理***204采用机器视觉(或图像识别技术)和内容规则来自动地策展内容集合。在某些示例中,可以为将用户生成的内容包括到集合中向用户支付补偿。在这样的情况下,集合管理***204进行操作以自动地向这样的用户支付以使用他们的内容。
增强***206提供使得用户能够增强(例如,注释或以其他方式修改或编辑)与消息相关联的媒体内容的各种功能。例如,增强***206提供与生成和发布用于由消息收发***100处理的消息的媒体覆盖(media overlay)相关的功能。增强***206基于客户端设备106的地理定位可操作地向消息收发客户端108提供媒体覆盖或增强(例如,图像过滤器)。在另一示例中,增强***206基于诸如客户端设备106的用户的社交网络信息的其他信息可操作地向消息收发客户端108提供媒体覆盖。媒体覆盖可以包括音频和视觉内容以及视觉效果。音频和视觉内容的示例包括图片、文本、标志、动画和声音效果。视觉效果的示例包括色彩覆盖。音频和视觉内容或视觉效果可以应用于客户端设备106处的媒体内容项(例如,照片)。例如,媒体覆盖可以包括可以覆盖在由客户端设备106拍摄的照片之上的文本或图像。在另一示例中,媒体覆盖包括位置标识(例如,威尼斯海滩)覆盖、实况事件的名称或商家名称(例如,海滩咖啡馆)覆盖。在另一示例中,增强***206使用客户端设备106的地理定位来标识包括在客户端设备106的地理定位处的商家的名称的媒体覆盖。媒体覆盖可以包括与商家相关联的其他标记。媒体覆盖可以存储在数据库124中并且通过数据库服务器116访问。
在一些示例中,增强***206提供基于用户的发布平台,该基于用户的发布平台使得用户能够选择地图上的地理定位并且上传与所选择的地理定位相关联的内容。用户还可以指定应当向其他用户提供特定媒体覆盖的情况。增强***206生成包括所上传的内容并且将所上传的内容与所选择的地理定位相关联的媒体覆盖。
在其他示例中,增强***206提供基于商家的发布平台,该基于商家的发布平台使商家能够经由竞价处理选择与地理定位相关联的特定媒体覆盖。例如,增强***206将最高竞价商家的媒体覆盖与相应的地理定位相关联达预定义时间量。
地图***210提供各种地理定位功能,并且支持由消息收发客户端108呈现基于地图的媒体内容和消息。例如,地图***210能够在地图上显示(例如,存储在配置文件数据318中的)用户图标或化身,以指示用户的“朋友”的当前或过去位置,以及由这些朋友在地图的上下文内生成的媒体内容(例如,包括照片和视频的消息的集合)。例如,在消息收发客户端108的地图界面上,可以将用户从特定定位位置发布到消息收发***100的消息在地图的该特定位置的上下文内显示给特定用户的“朋友”。用户还可以经由消息收发客户端108与消息收发***100的其他用户(例如,使用适当的状况化身)共享他或她的位置和状况信息,其中该位置和状况信息类似地在消息收发客户端108的地图界面的上下文内被显示给所选择的用户。
游戏***212在消息收发客户端108的上下文内提供各种游戏功能。消息收发客户端108提供游戏界面,该游戏界面提供可用游戏的列表,该游戏可以由用户在消息收发客户端108的上下文中启动并且与消息收发***100的其他用户一起玩。消息收发***100还使特定用户能够通过从消息收发客户端108向其他用户发出邀请来邀请这样的其他用户参与玩特定游戏。消息收发客户端108还支持在玩游戏的上下文中的语音消息收发和文本消息收发(例如,聊天)两者,为游戏提供排行榜,并且还支持提供游戏内奖励(例如,物品)。
骨骼姿势***122使用人的运动来驱动使用增强现实的视觉效果。例如,骨骼姿势***122从图像捕获设备接收人的视频并且识别姿势。响应于识别姿势,骨骼姿势***122实时地将虚拟效果应用于视频。在一些示例中,骨骼姿势***122在消息收发客户端108的上下文内操作。在一些示例中,骨骼姿势***122可以由应用服务器110支持。
数据架构
图3是示出根据某些示例的可以存储在消息收发服务器***104的数据库124中的数据结构300的示意图。虽然数据库124的内容被示出为包括若干表,但是将理解的是,数据可以以其他类型的数据结构进行存储(例如,作为面向对象数据库)。
数据库124包括存储在消息表302内的消息数据。对于任何特定的一条消息,该消息数据包括至少消息发送者数据、消息接收方(或接收者)数据和有效载荷。下面参照图4描述关于可以被包括在消息中并且被包括在存储在消息表302中的消息数据中的信息的另外的细节。
实体表306存储实体数据,并且(例如,参考地)链接到实体图308和配置文件数据318。在实体表306内为其维持记录的实体可以包括个人、公司实体、组织、对象、地点、事件等。不管实体类型如何,消息收发服务器***104存储关于其的数据的任何实体可以是识别的实体。每个实体设置有唯一的标识符以及实体类型标识符(未示出)。
实体图308存储关于实体之间的关系和关联的信息。仅作为示例,这样的关系可以是基于兴趣或基于活动的社交关系、专业关系(例如,在共同的公司或组织工作)。
配置文件数据318存储关于特定实体的多种类型的配置文件数据。基于由特定实体指定的隐私设置,配置文件数据318可以被选择性地使用并且呈现给消息收发***100的其他用户。在实体是个人的情况下,配置文件数据318包括例如用户名、电话号码、地址、设置(例如,通知和隐私设置),以及用户选择的化身表示(或这种化身表示的集合)。然后,特定用户可以将这些化身表示中的一个或更多个选择性地包括在经由消息收发***100传送的消息的内容中以及在由消息收发客户端108向其他用户显示的地图界面上。化身表示的集合可以包括“状态化身”,其呈现用户可以选择在特定时间进行通信的状态或活动的图解表示。
在实体是团体的情况下,除了团体名称、成员和相关团体的各种设置(例如,通知)之外,团体的配置文件数据318还可以类似地包括与团体相关联的一个或更多个化身表示。
数据库124还在增强表310中存储增强数据,例如覆盖或过滤器。增强数据与视频(视频的数据被存储在视频表304中)和图像(图像的数据被存储在图像表312中)相关联并且应用于视频和图像。
在一个示例中,过滤器是在向接收方用户呈现期间被显示为覆盖在图像或视频上的覆盖。过滤器可以是各种类型的,包括当发送用户正在编写消息时由消息收发客户端108呈现给发送用户的一组过滤器中用户选择的过滤器。其他类型的过滤器包括地理位置过滤器(也称为地理过滤器),其可以基于地理位置被呈现给发送用户。例如,可以基于由客户端设备106的全球定位***(GPS)单元确定的地理定位信息,由消息收发客户端108在用户接口内呈现特定于附近或特殊位置的地理定位过滤器。
另一种类型的过滤器是数据过滤器,其可以由消息收发客户端108基于在消息创建过程期间由客户端设备106收集的其他输入或信息选择性地呈现给发送用户。数据过滤器的示例包括特定位置处的当前温度、发送用户行进的当前速度、客户端设备106的电池寿命或当前时间。
可以存储在图像表312内的其他增强数据包括增强现实内容项(例如,对应于应用透镜或增强现实体验)。增强现实内容项可以是可以被添加至图像或视频的实时特殊效果和声音。
如上所述,增强数据包括增强现实内容项、覆盖、图像变换、AR图像,并且类似的术语是指可以应用于图像数据(例如,视频或图像)的修改。这包括实时修改,其在使用客户端设备106的设备传感器(例如,一个或多个摄像装置)捕获图像时对图像进行修改并且然后在修改的情况下在客户端设备106的屏幕上显示图像。这还包括对所存储的内容的修改,例如对可以被修改的图库中的视频剪辑的修改。例如,在可以访问多个增强现实内容项的客户端设备106中,用户可以使用具有多个增强现实内容项的单个视频剪辑来查看不同的增强现实内容项将如何修改存储的剪辑。例如,通过为内容选择不同的增强现实内容项,可以将应用不同伪随机运动模型的多个增强现实内容项应用于该同一内容。类似地,实时视频捕获可以与示出的修改一起使用,以显示当前由客户端设备106的传感器捕获的视频图像将如何修改捕获的数据。这样的数据可以简单地显示在屏幕上而不存储在存储器中,或者由设备传感器捕获的内容可以在进行或不进行修改(或二者)的情况下被记录并且存储在存储器中。在某些***中,预览功能可以同时显示不同的增强现实内容项在显示器的不同窗口中将看起来如何。例如,这可以实现同时在显示器上查看具有不同伪随机动画的多个窗口。
因此,使用增强现实内容项的各种***或使用该数据修改内容的其他这样的变换***以及数据可以涉及视频帧中对象(例如,脸、手、身体、猫、狗、表面、对象等)的检测,在这些对象离开视场、进入视场以及在视场四处移动时对这些对象的跟踪,以及在跟踪这些对象时对其进行的修改或变换。在各种实施方式中,可以使用用于实现这样的变换的不同方法。一些示例可以涉及生成一个或多个对象的3维网格模型,以及在视频内使用模型的变换和动画纹理来实现变换。在其他示例中,可以使用对对象上的点的跟踪来将图像或纹理(其可以是二维或三维的)放置在所跟踪的位置处。在更进一步的示例中,可以使用对视频帧的神经网络分析来将图像、模型或纹理放置在内容(例如,图像或视频帧)中。因此,增强现实内容项既指用于在内容中创建变换的图像、模型和纹理,也指通过对象检测、跟踪和放置实现这样的变换所需的附加建模和分析信息。
可以利用保存在任何类型的计算机化***的存储器中的任何类型的视频数据(例如,视频流、视频文件)来执行实时视频处理。例如,用户可以加载视频文件并且将其保存在设备的存储器中,或者可以使用设备的传感器生成视频流。此外,可以使用计算机动画模型来处理任何对象,例如人的面部和人身体的各部分、动物或非生物(诸如椅子、汽车或其他对象)。
在一些示例中,当与要变换的内容一起选择特定修改时,要变换的元素由计算设备识别,并且然后如果要变换的元素存在于视频的帧中,则被检测和跟踪。根据修改请求修改对象的元素,从而变换视频流的帧。对于不同种类的变换,可以通过不同的方法执行对视频流的帧的变换。例如,对于主要是指改变对象的元素的形式的帧的变换,计算对象的每个元素的特征点(例如,使用主动形状模型(ASM)或其他已知方法)。然后,针对对象的至少一个元素中的每一个生成基于特征点的网格。该网格用于跟踪视频流中的对象的元素的后续阶段。在跟踪过程中,将所提及的每个元素的网格与每个元素的位置对准。然后,在网格上生成附加点。基于修改请求针对每个元素生成第一点的第一集合,并且基于第一点的集合和修改请求针对每个元素生成第二点的集合。然后,可以通过基于第一点的集合和第二点的集合以及网格修改对象的元素,对视频流的帧进行转换。在这种方法中,也可以通过跟踪和修改背景来使被修改对象的背景改变或变形。
在一些示例中,可以通过计算对象的每个元素的特征点并且基于计算的特征点生成网格来执行使用对象的元素改变对象的一些区域的变换。在网格上生成点,然后基于这些点生成各种区域。然后,通过将每个元素的区域与至少一个元素中的每一个的位置对准来跟踪对象的元素,并且可以基于修改的请求来修改区域的属性,从而转换视频流的帧。根据具体的修改请求,可以以不同的方式变换所提及的区域的属性。这样的修改可以涉及:改变区域的颜色;从视频流的帧中移除区域的至少一些部分;将一个或更多个新对象包括在基于修改请求的区域中;以及对区域或对象的元素进行修改或使其变形。在各种实施方式中,可以使用这样的修改或其他类似修改的任何组合。对于要被动画化的某些模型,可以选择一些特征点作为控制点,以用于确定用于模型动画的选项的整个状态空间。
在使用面部检测来变换图像数据的计算机动画模型的一些示例中,使用特定面部检测算法(例如,Viola-Jones)在图像上检测面部。然后,将主动形状模型(ASM)算法应用于图像的面部区域以检测面部特征参考点。
在其他示例中,可以使用适合面部检测的其他方法和算法。例如,在一些实施方式中,使用界标来定位特征,该界标表示存在于所考虑的大多数图像中的可区分点。例如,对于面部界标,可以使用左眼瞳孔的位置。如果初始界标不可识别(例如,如果人有眼罩),则可以使用次级界标。这样的界标识别过程可以用于任何这样的对象。在一些示例中,一组界标形成形状。可以使用形状中的点的坐标将形状表示为矢量。将一个形状通过相似变换(允许平移、缩放和旋转)与另一形状对准,该相似变换使形状点之间的平均欧几里得距离最小化。平均形状是对准的训练形状的平均。
在一些示例中,从与由全局面部检测器确定的面部的位置和大小对准的平均形状开始搜索界标。然后,这样的搜索重复以下步骤:通过每个点周围的图像纹理的模板匹配来调整形状点的位置而建议暂定形状,并且然后使暂定形状符合全局形状模型,直至发生收敛。在一些***中,个别模板匹配是不可靠的,并且形状模型将弱模板匹配的结果进行池化,以形成较强的整体分类器。整个搜索在从粗略分辨率到精细分辨率的图像金字塔的每个级别上重复。
变换***可以在客户端设备(例如,客户端设备106)上捕获图像或视频流,并且在客户端设备106上本地执行复杂的图像操纵,同时保持适当的用户体验、计算时间和功耗。复杂的图像操纵可以包括大小和形状变化、情绪转换(例如,将面部从皱眉变为微笑)、状态转换(例如,使对象变老、减少表观年龄、改变性别)、风格转换、图形元素应用,以及由已经被配置成在客户端设备106上有效执行的卷积神经网络实现的任何其他合适的图像或视频操纵。
在一些示例中,用于变换图像数据的计算机动画模型可以由***使用,在该***中,用户可以使用具有神经网络的客户端设备106来捕获用户的图像或视频流(例如,自拍),该神经网络操作作为在客户端设备106上操作的消息收发客户端108的一部分。在消息收发客户端108内操作的变换***确定图像或视频流中的面部的存在并且提供与计算机动画模型相关联的修改图标以变换图像数据,或者计算机动画模型可以被呈现为与本文中描述的界面相关联。修改图标包括以下变化,该变化可以是作为修改操作的一部分的修改图像或视频流中的用户面部的基础。一旦选择了修改图标,则变换***发起将用户的图像转换以反映所选择的修改图标(例如,在用户上生成笑脸)的处理。一旦图像或视频流被捕获并且指定的修改被选择,修改的图像或视频流就可以呈现在客户端设备106上显示的图形用户界面中。变换***可以在图像或视频流的一部分上实施复杂的卷积神经网络,以生成和应用所选择的修改。也就是说,一旦选择了修改图标,用户就可以捕获图像或视频流并且实时或近乎实时地被呈现了修改结果。此外,当正在捕获视频流时,修改可以是持久的,并且所选择的修改图标保持被切换。机器教导的神经网络可以用于实现这样的修改。
呈现由变换***执行的修改的图形用户界面可以为用户提供附加的交互选项。这样的选项可以基于用于发起内容捕获和对特定计算机动画模型的选择的界面(例如,从内容创建者用户界面发起)。在各种实施方式中,修改可以在对修改图标的初始选择之后是持久的。用户可以通过轻击或以其他方式选择由变换***修改的面部来打开或关闭修改,并且将其存储以供以后查看或浏览到成像应用的其他区域。在由变换***修改多个面部的情况下,用户可以通过轻击或选择在图形用户界面内修改和显示的单个面部来全局打开或关闭修改。在一些实施方式中,可以通过轻击或选择图形用户接口内显示的单独面部或一系列面部来单独修改一组多个面部中的各个面部,或者单独切换这样的修改。
故事表314存储关于消息和相关联的图像、视频或音频数据的集合的数据,所述消息和相关联的图像、视频或音频数据被汇编成集合(例如,故事或图库)。特定集合的创建可以由特定用户(例如其记录保存在实体表306中的每个用户)发起。用户可以以已经由该用户创建和发送/广播的内容的集合的形式创建“个人故事”。为此,消息收发客户端108的用户接口可以包括用户可选择的图标,以使得发送用户能够将特定内容添加到他或她的个人故事。
集合还可以构成作为来自多个用户的内容的集合的“实况故事”,所述内容是手动地、自动地或者使用手动技术和自动技术的组合创建的。例如,“实况故事”可以构成来自不同位置和事件的用户提交的内容的策展流。其客户端设备启用了定位服务并且在特定时间处于共同位置事件处的用户可以例如经由消息收发客户端108的用户接口被呈现有将内容贡献给特定实况故事的选项。可以由消息收发客户端108基于他或她的位置向用户标识实况故事。最终结果是从群体角度讲述的“实况故事”。
另外类型的内容集合被称为“位置故事”,其使得其客户端设备106位于特定地理定位(例如,在学院或大学校园)内的用户能够对特定集合做出贡献。在一些示例中,对位置故事的贡献可能需要二级认证以验证最终用户属于特定组织或其他实体(例如,是大学校园中的学生)。
如上面提到的,视频表304存储视频数据,在一个示例中,该视频数据与其记录保存在消息表302内的消息相关联。类似地,图像表312存储图像数据,该图像数据与其消息数据存储在实体表306中的消息相关联。实体表306可以使来自增强表310的各种增强与存储在图像表312和视频表304中的各种图像和视频相关联。
数据库124还可以将姿势信息存储在姿势表316中。姿势表316可以与来自增强表310的各种增强相关联。
数据通信架构
图4是示出根据一些示例的消息400的结构的示意图,消息400由消息收发客户端108生成,以用于传送至另外的消息收发客户端108或消息收发服务器114。特定消息400的内容用于填充存储在数据库124中的消息表302,该消息表302可由消息收发服务器114访问。类似地,消息400的内容被存储在存储器中作为客户端设备106或应用服务器110的“传输中”或“飞行中”的数据。消息400被示出为包括以下示例组成部分:
·消息标识符402:标识消息400的唯一标识符。
·消息文本有效载荷404:要由用户经由客户端设备106的用户接口生成并且被包括在消息400中的文本。
·消息图像有效载荷406:由客户端设备106的摄像装置部件捕获的或从客户端设备106的存储器部件检索的、并且包括在消息400中的图像数据。发送或接收到的消息400的图像数据可以存储在图像表312中。
·消息视频有效载荷408:由摄像装置部件捕获的或从客户端设备106的存储器部件检索到的、并且包括在消息400中的视频数据。发送或接收到的消息400的视频数据可以存储在视频表304中。
·消息音频有效载荷410:由麦克风捕获的或从客户端设备106的存储器部件检索的、并且包括在消息400中的音频数据。
·消息增强数据412:表示要应用于消息400的消息图像有效载荷406、消息视频有效载荷408或消息音频有效载荷410的增强的增强数据(例如,过滤器、贴纸或其他注解或增强)。发送或接收到的消息400的增强数据可以存储在增强表310中。
·消息持续时间参数414:参数值,其指示消息的内容(例如,消息图像有效载荷406、消息视频有效载荷408、消息音频有效载荷410)将经由消息收发客户端108被呈现给用户或使其对于用户可访问的以秒为单位的时间量。
·消息地理定位参数416:与消息的内容有效载荷相关联的地理定位数据(例如,纬度坐标和经度坐标)。多个消息地理定位参数416值可以被包括在有效载荷中,这些参数值中的每个参数值与包括在内容中的内容项(例如消息图像有效载荷406内的特定图像或消息视频有效载荷408中的特定视频)相关联。
·消息故事标识符418:标识一个或更多个内容集合(例如,在故事表314中标识的“故事”)的标识符值,其中消息400的消息图像有效载荷406中的特定内容项与一个或更多个内容集合相关联。例如,可以使用标识符值将消息图像有效载荷406内的多个图像各自与多个内容集合相关联。
·消息标签420:每个消息400可以用多个标签来标记,多个标签中的每个标签指示消息有效载荷中所包括的内容的主题。例如,在消息图像有效载荷406中包括的特定图像描绘动物(例如狮子)的情况下,可以在消息标签420中包括指示相关动物的标签值。标签值可以基于用户输入手动地生成,或可以使用例如图像识别自动地生成。
·消息发送者标识符422:指示在其上生成消息400并且从其发送消息400的客户端设备106的用户的标识符(例如消息收发***标识符、电子邮件地址或设备标识符)。
·消息接收者标识符424:指示消息400被寻址到的客户端设备106的用户的标识符(例如,消息收发***标识符、电子邮件地址或设备标识符)。
消息400的各个组成部分的内容(例如,值)可以是指向其内存储有内容数据值的表中的位置的指针。例如,消息图像有效载荷406中的图像值可以是指向图像表312内的位置的指针(或地址)。类似地,消息视频有效载荷408内的值可以指向存储在视频表304内的数据,存储在消息增强412内的值可以指向存储在增强表310中的数据,存储在消息故事标识符418内的值可以指向存储在故事表314中的数据,并且存储在消息发送者标识符422和消息接收者标识符424内的值可以指向存储在实体表306内的用户记录。
基于时间的访问限制架构
图5是示出访问限制处理500的示意图,根据该访问限制处理,对内容(例如,短暂消息502和相关联的数据的多媒体有效载荷)或内容集合(例如,短暂消息组504)的访问可以是时间受限的(例如,使得是短暂的)。
短暂消息502被示为与消息持续时间参数506相关联,消息持续时间参数506的值确定消息收发客户端108将向短暂消息502的接收用户显示短暂消息502的时间量。在一个示例中,取决于发送用户使用消息持续时间参数506指定的时间量,接收用户可查看短暂消息502达到最多10秒。
消息持续时间参数506和消息接收者标识符424被示出为是消息定时器510的输入,消息定时器510负责确定向由消息接收者标识符424标识的特定接收用户示出短暂消息502的时间量。特别地,仅在由消息持续时间参数506的值确定的时间段内向相关接收用户示出短暂消息502。消息定时器510被示出为向更一般化的短暂定时器***202提供输出,该短暂定时器***202负责向接收用户显示内容(例如,短暂消息502)的总体定时。
图5中示出的短暂消息502被包括在短暂消息组504(例如,个人故事或事件故事中的消息的集合)内。短暂消息组504具有相关联的组持续时间参数508,组持续时间参数508的值确定短暂消息组504被呈现并且可由消息收发***100的用户访问的持续时间。例如,组持续时间参数508可以是音乐会的持续时间,其中,短暂消息组504是涉及该音乐会的内容的集合。替选地,当执行短暂消息组504的设置和创建时,用户(拥有用户或策展者用户)可以指定组持续时间参数508的值。
另外,短暂消息组504内的每个短暂消息502具有相关联的组参与参数512,组参与参数512的值确定在短暂消息组504的上下文内将可访问短暂消息502的持续时间。因此,在短暂消息组504本身根据组持续时间参数508到期之前,特定的短暂消息组504可以“到期”并且在短暂消息组504的上下文中变得不可访问。组持续时间参数508、组参与参数512和消息接收者标识符424各自向组定时器514提供输入,组定时器514可操作地首先确定短暂消息组504的特定短暂消息502是否将被显示给特定接收用户,并且如果是,则确定显示多长时间。注意,由于消息接收者标识符424,短暂消息组504也知道特定接收用户的身份。
因此,组定时器514可操作地控制相关联的短暂消息组504以及包括在短暂消息组504中的单独的短暂消息502的总寿命期限。在一个示例中,短暂消息组504内的每个短暂消息502在由组持续时间参数508指定的时间段内保持可查看和可访问。在另一示例中,在短暂消息组504的上下文内,某个短暂消息502可以基于组参与参数512而到期。注意,即使在短暂消息组504的上下文内,消息持续时间参数506也仍然可以确定向接收用户显示特定短暂消息502的持续时间。因此,消息持续时间参数506确定向接收用户显示特定短暂消息502的持续时间,而不管接收用户是在短暂消息组504的上下文之内还是之外查看该短暂消息502。
短暂定时器***202还可以基于确定特定的短暂消息502已经超过相关联的组参与参数512而从短暂消息组504中可操作地移除该特定的短暂消息502。例如,当发送用户已经建立了从发布起24小时的组参与参数512时,短暂定时器***202将在指定的24小时之后从短暂消息组504中移除相关的短暂消息502。当针对短暂消息组504内的每个短暂消息502的组参与参数512已经到期时,或者当短暂消息组504本身根据组持续时间参数508已经到期时,短暂定时器***202还进行操作以移除短暂消息组504。
在某些使用情况下,特定短暂消息组504的创建者可以指定无期限的组持续时间参数508。在这种情况下,针对短暂消息组504内最后剩余的短暂消息502的组参与参数512的到期将确定短暂消息组504本身何时到期。在这种情况下,添加至短暂消息组504的具有新的组参与参数512的新的短暂消息502实际上将短暂消息组504的寿命延长到等于组参与参数512的值。
响应于短暂定时器***202确定短暂消息组504已经到期(例如,不再是可访问的),短暂定时器***202与消息收发***100(并且例如特别是消息收发客户端108)通信,以使得与相关短暂消息组504相关联的标记(例如,图标)不再显示在消息收发客户端108的用户界面内。类似地,当短暂定时器***202确定针对特定短暂消息502的消息持续时间参数506已经到期时,短暂定时器***202使消息收发客户端108不再显示与短暂消息502相关联的标记(例如,图标或文本标识)。
图6是用于使用人的姿势信息来实时驱动虚拟效果的示例方法。虽然所描述的流程图可以将操作示为顺序处理,但是许多操作可以并行或同时执行。此外,可以重新安排操作的顺序。处理在其操作完成时终止。处理可以对应于方法、过程、算法等。方法的操作可以全部或部分地执行,可以结合其他方法中的一些或全部操作来执行,并且可以由任何数目的不同***(例如本文所述的***)或其任何部分(例如包括在任何***中的处理器)来执行。
在操作602中,骨骼姿势***122在图像捕获设备捕获视频期间识别视频中的第一姿势信息。第一姿势信息包括视频中描绘的人的第一多个关节位置。应当理解,第一姿势信息还可以包括例如动物、面部或动画生物或化身的姿势信息。在操作604处,响应于识别到第一姿势信息,骨骼姿势***122将第一虚拟效果应用于视频。第一虚拟效果可以是增强现实内容项。关于增强现实内容项的其他细节可以结合上述图3找到。在捕获视频的同时,实时或接近实时地将第一虚拟效果应用于视频。
在操作606处,骨骼姿势***122识别视频中的第二姿势信息。例如,第二姿势信息是视频中描绘的人的第二多个关节位置。第二姿势信息不同于第一姿势信息。此外,在识别到第一姿势信息之后的时间点识别第二姿势信息。例如,第二姿势信息包括人的新关节位置(例如,人已经移动,或者人正在执行不同的姿势)。在操作608处,响应于识别到第二姿势信息,骨骼姿势***122将第二虚拟效果应用于视频。第二虚拟效果可以是第二增强现实内容项。第二虚拟效果基于第一虚拟效果。例如,第二虚拟效果可以仅在第一视觉效果之后被应用。在一些示例中,第二虚拟效果描述第一视觉效果的较低级别的粒度。在另一示例中,第二虚拟效果增强了第一虚拟效果。例如,第一虚拟效果可以在视频的捕获期间向视频添加滤色器。第二虚拟效果可以基于第二姿势信息使由第一虚拟效果施加的视频的颜色变暗或变亮。
在一些示例中,骨骼姿势***122存储包括第一视觉效果和第二视觉效果的修改的视频,并且将该视频作为短暂消息发送至计算设备。修改的视频包括在视频的第一时间点出现的第一虚拟效果和在视频的第二时间点出现的第二虚拟效果。
在一些示例中,骨骼姿势***122识别视频中的手。骨骼姿势***122跟踪视频中手从第一位置到第二位置的运动,并且基于所跟踪的手的运动修改第一视觉效果的粒度级别。
图7是根据一些示例的骨骼姿势***122的示例用户行为流程。例如,当用户显示其左手时,骨骼姿势***122识别左手(操作702)。如果用户向上或向下移动手,则骨骼姿势***122应用这样的虚拟效果,该虚拟效果通过增大不透明度(例如,基于检测到每次操作706用户向上移动手)或减小不透明度(例如,基于检测到每次操作708用户向下移动手)来改变由图像捕获设备捕获的视频的不透明度(操作704)。如果用户向左或向右移动手,则骨骼姿势***122应用这样的虚拟效果,该虚拟效果通过增大饱和度(例如,基于检测到每次操作714向右移动手)或减小饱和度(例如,基于检测到每次操作712向左移动手)来改变视频中的饱和度水平(操作710)。当用户显示其右手时,骨骼姿势***122识别右手(操作716)。类似地,如果用户向上或向下移动手,则骨骼姿势***122应用这样的虚拟效果,该虚拟效果通过增大不透明度(例如,基于检测到每次操作720用户向上移动其手)或减小不透明度(例如,基于检测到每次操作722用户向下移动其手)来改变由图像捕获设备捕获的视频的不透明度(操作718)。如果用户向左或向右移动手,则骨骼姿势***122应用这样的虚拟效果,该虚拟效果通过增大饱和度(例如,基于检测到每次操作728用户向右移动其手)或减小饱和度(例如,基于检测到每次操作726用户向左移动其手)来改变视频中的饱和度水平(操作724)。
图8是根据一些示例的骨骼姿势***122的用户行为流程的示例。首先,在操作802处,用户示出她的左手。用户可以向上移动她的手(操作804)或向下移动她的手(操作806)以改变不透明度。例如,在操作804处,用户可以向上移动她的手以增加不透明度。然后,在操作808处,用户可以再次示出她的左手处于静态位置。这向骨骼姿势***122指示用户想要保持对视频的增加的不透明度效果。在操作808处再次示出她的左手处于静态位置之后,用户可以向左移动她的手(操作810)或向右移动她的手(操作812)移动她的手以改变饱和度。因此,骨骼姿势***122可以使用用户移动来增加视频的不透明度并且增加修改的视频的饱和度。
图9是根据一些示例的骨骼姿势***122中的用户行为流程的示例。例如,如果用户在摄像装置视图的右上方(例如,每次操作904的图像捕获设备的摄像装置视图中的右上方部分)拍手(操作902),则骨骼姿势***122对视频应用“屏幕抖动”和红色滤色器。例如,屏幕抖动效果增加了图像捕获设备的图形用户界面内显示的整个屏幕的模糊和抖动。当骨骼姿势***122正在使用图像捕获设备捕获视频时,骨骼姿势***122实时地应用屏幕抖动和红色滤色器。如果用户在摄像装置视图的左上方(操作908)第二次拍手(操作906),则骨骼姿势***122应用“屏幕抖动”效果和蓝色滤色器。如果用户在摄像装置视图的右下方(操作912)第三次拍手(操作910),则骨骼姿势***122应用绿色滤色器和“屏幕抖动”效果。如果用户在摄像装置视图的左下方(操作916)第四次拍手(操作914),则骨骼姿势***122对视频应用“屏幕抖动”效果并应用黄色滤色器。如果用户移动到摄像装置视图的左侧(操作918),则骨骼姿势***122将虚拟轨迹应用到摄像装置视图的左侧。如果用户向后行走(操作920)远离相机(例如,图像捕获设备),则骨骼姿势***122在用户前方应用虚拟轨迹。如果用户跳跃(操作922),则骨骼姿势***122应用使虚拟五彩碎屑片落在用户身上的增强现实效果。如果用户跺左脚(操作926),则骨骼姿势***122应用将屏幕向左移位的屏幕移位效果。如果用户跺右脚(操作924),则骨骼姿势***122应用将屏幕向右移位的屏幕移位效果。在一些示例中,图9中的用户行为流程可以在骨骼姿势***122识别音频提示时启动。例如,骨骼姿势***122可以在识别特定歌曲或歌曲的特定部分之后启动图9中描述的用户行为流程。因此,根据用户的姿势,骨骼姿势***122应用不同的虚拟效果。此外,所应用的虚拟效果对于用户的姿势是直观的。
图10是骨骼姿势***122中的用户行为流程的示例。骨骼姿势***122可以用于游戏应用的环境中。例如,如果用户成功地复制了显示在客户端设备的图形用户界面上的第一姿势1002,则骨骼姿势***122生成谜题1004。为了解决谜题,用户可能需要执行第二姿势1006。如果用户成功地执行第二姿势,则骨骼姿势***122确定用户已经赢得游戏1008。
软件架构
图11是示出软件架构1104的框图1100,该软件架构1104可以安装在本文所描述的任何一个或更多个设备上。软件架构1104由硬件例如包括处理器1120、存储器1126和I/O部件1138的机器1102支持。在该示例中,软件架构1104可以被概念化为层的堆栈,在该层的堆栈中,每个层提供特定的功能。软件架构1104包括诸如操作***1112、库1110、框架1108和应用1106的层。在操作上,应用1106通过软件堆栈来激活API调用1150并且响应于API调用1150来接收消息1152。
操作***1112管理硬件资源并且提供公共服务。操作***1112包括例如核1114、服务1116和驱动器1122。核1114充当硬件层与其他软件层之间的抽象层。例如,核1114提供存储器管理、处理器管理(例如,调度)、部件管理、网络和安全设置以及其他功能。服务1116可以为其他软件层提供其他公共服务。驱动器1122负责控制底层硬件或与底层硬件对接。例如,驱动器1122可以包括显示驱动器、摄像装置驱动器、
Figure GDA0004201013750000191
Figure GDA0004201013750000192
低功耗驱动器、闪存驱动器、串行通信驱动器(例如,USB驱动器)、
Figure GDA0004201013750000193
驱动器、音频驱动器、电源管理驱动器等。
库1110提供由应用1106使用的公共低级基础设施。库1110可以包括***库1118(例如,C标准库),***库1118提供诸如存储器分配功能、字符串操纵功能、数学功能等的功能。另外,库1110可以包括API库1124,例如媒体库(例如,用于支持各种媒体格式的呈现和操作的库,所述各种媒体格式例如运动图像专家组-4(MPEG4)、高级视频编码(H.264或AVC)、运动图像专家组层-3(MP3)、高级音频编码(AAC)、自适应多速率(AMR)音频编解码器、联合图像专家组(JPEG或JPG)或便携式网络图形(PNG))、图形库(例如,用于在显示器上的图形内容中以二维(2D)和三维(3D)进行呈现的OpenGL框架)、数据库库(例如,提供各种关系数据库功能的SQLite)、web库(例如,提供网页浏览功能的WebKit)等。库1110还可以包括各种各样的其他库1128,以向应用1106提供许多其他API。
框架1108提供由应用1106使用的公共高级基础设施。例如,框架1108提供各种图形用户界面(GUI)功能、高级资源管理以及高级定位服务。框架1108可以提供可由应用1106使用的广泛的其他API,其中的一些API可以专用于特定的操作***或平台。
在示例中,应用1106可以包括家庭应用1136、联系人应用1130、浏览器应用1132、书籍阅读器应用1134、位置应用1142、媒体应用1144、消息收发应用1146、游戏应用1148和诸如第三方应用1140的各种各样的其他应用。应用1106是执行程序中限定的功能的程序。可以使用各种编程语言来创建以各种方式构造的应用1106中的一个或更多个,所述编程语言例如面向对象的编程语言(例如,Objective-C、Java或C++)或过程编程语言(例如C或汇编语言)。在特定示例中,第三方应用1140(例如,由特定平台的供应商以外的实体使用ANDROIDTM或IOSTM软件开发工具包(SDK)开发的应用)可以是在诸如IOSTM、ANDROIDTM
Figure GDA0004201013750000201
Phone的移动操作***或其他移动操作***上运行的移动软件。在该示例中,第三方应用1140可以激活由操作***1112提供的API调用1150以有助于本文中描述的功能。
机器架构
图12是机器1200的图解表示,在该机器1200内可以执行用于使机器1200执行本文所讨论的方法中的任何一个或更多个方法的指令1210(例如,软件、程序、应用、小程序、app或其他可执行代码)。例如,指令1210可以使机器1200执行本文所描述的方法中的任何一个或更多个方法。指令1210将通用的非编程的机器1200转换成被编程成以所描述的方式执行所描述和所示出的功能的特定机器1200。机器1200可以作为独立设备操作或者可以耦接(例如,联网)到其他机器。在联网的部署中,机器1200可以在服务器-客户端网络环境中以服务器机器或客户端机器的身份进行操作,或者在对等(或分布式)网络环境中作为对等机器进行操作。机器1200可以包括但不限于:服务器计算机、客户端计算机、个人计算机(PC)、平板计算机、膝上型计算机、上网本、机顶盒(STB)、个人数字助理(PDA)、娱乐媒体***、蜂窝电话、智能电话、移动设备、可穿戴设备(例如,智能手表)、智能家居设备(例如,智能电器)、其他智能设备、web装置、网络路由器、网络交换机、网络桥接器或者能够顺序地或以其他方式执行指定要由机器1200采取的动作的指令1210的任何机器。此外,虽然仅示出了单个机器1200,但是术语“机器”还应被视为包括单独或联合执行指令1210以执行本文中讨论的方法中的任何一个或更多个方法的机器的集合。例如,机器1200可以包括客户端设备106或者形成消息收发服务器***104的一部分的若干个服务器设备中的任何一个。在一些示例中,机器1200还可以包括客户端和服务器***二者,其中在服务器侧执行特定方法或算法的某些操作,并且在客户端侧执行特定方法或算法的某些操作。
机器1200可以包括可以被配置成经由总线1240彼此通信的处理器1204、存储器1206和输入/输出(I/O)部件638。在示例中,处理器1204(例如,中央处理单元(CPU)、精简指令集计算(RISC)处理器、复杂指令集计算(CISC)处理器、图形处理单元(GPU)、数字信号处理器(DSP)、专用集成电路(ASIC)、射频集成电路(RFIC)、另外的处理器或其任何合适的组合)可以包括例如执行指令1210的处理器1208和处理器1212。术语“处理器”旨在包括多核处理器,该多核处理器可以包括可以同时执行指令的两个或更多个独立的处理器(有时被称为“核”)。虽然图12示出了多个处理器1204,但是机器1200可以包括具有单个核的单个处理器、具有多个核的单个处理器(例如,多核处理器)、具有单个核的多个处理器、具有多个核的多个处理器或者其任何组合。
存储器1206包括处理器1204可以经由总线1240访问的主存储器1214、静态存储器1216和存储单元1218。主存储器1206、静态存储器1216和存储单元1218存储实现本文中所描述的方法或功能中的任何一个或更多个方法或功能的指令1210。指令1210还可以在其被机器1200执行期间完全地或部分地驻留在主存储器1214内、在静态存储器1216内、在存储单元1218内的机器可读介质1220内、在处理器1204中的至少一个处理器内(例如,在处理器的高速缓存存储器内)或其任何合适的组合内。
I/O部件1202可以包括用于接收输入、提供输出、产生输出、发送信息、交换信息、捕获测量结果等的各种各样的部件。包括在特定机器中的特定I/O部件1202将取决于机器的类型。例如,便携式机器诸如移动电话可以包括触摸输入设备或其他这样的输入机构,而无头服务器机器将不太可能包括这样的触摸输入设备。将理解的是,I/O部件1202可以包括图12中未示出的许多其他部件。在各种示例中,I/O部件1202可以包括用户输出部件1226和用户输入部件1228。用户输出部件1226可以包括视觉部件(例如,诸如等离子显示面板(PDP)、发光二极管(LED)显示器、液晶显示器(LCD)、投影仪或阴极射线管(CRT)的显示器)、声学部件(例如,扬声器)、触觉部件(例如,振动马达、阻力机构)、其他信号生成器等。用户输入部件1228可以包括字母数字输入部件(例如,键盘、被配置成接收字母数字输入的触摸屏、光电键盘或其他字母数字输入部件)、基于点的输入部件(例如,鼠标、触摸板、轨迹球、操纵杆、运动传感器或其他指向仪器)、触觉输入部件(例如,物理按钮、提供触摸或触摸手势的位置和力的触摸屏、或其他触觉输入部件)、音频输入部件(例如,麦克风)等。
在其他示例中,I/O部件1202可以包括生物识别部件1230、运动部件1232、环境部件1234、或定位部件1236以及各种其他部件。例如,生物识别部件1230包括用于检测表达(例如,手表达、面部表情、声音表达、身体姿势或眼睛跟踪)、测量生物信号(例如,血压、心率、体温、出汗或脑波)、识别人(例如,声音识别、视网膜识别、面部识别、指纹识别或基于脑电图的识别)等的部件。运动部件1232包括加速度传感器部件(例如,加速度计)、重力传感器部件、旋转传感器部件(例如,陀螺仪)。
环境部件1234包括例如:一个或更多个摄像装置(具有静止图像/照片和视频能力)、照明传感器部件(例如,光度计)、温度传感器部件(例如,检测环境温度的一个或更多个温度计)、湿度传感器部件、压力传感器部件(例如,气压计)、声学传感器部件(例如,检测背景噪声的一个或更多个麦克风)、接近度传感器部件(例如,检测附近对象的红外传感器)、气体传感器(例如,为了安全而检测危险气体的浓度或者测量大气中的污染物的气体检测传感器)、或者可以提供与周围物理环境对应的指示、测量或信号的其他部件。
关于摄像装置,客户端设备106可以具有摄像装置***,该摄像装置***包括例如客户端设备106的前表面上的前置摄像装置和客户端设备106的后表面上的后置摄像装置。前置摄像装置可以例如用于捕获客户端设备106的用户的静止图像和视频(例如,“自拍”),然后可以用上述增强数据(例如,过滤器)对该静止图像和视频进行增强。例如,后置摄像装置可以用于以更传统的摄像装置模式捕获静止图像和视频,这些图像类似地使用增强数据进行增强。除了前置摄像装置和后置摄像装置之外,客户端设备106还可以包括用于捕获360°照片和视频的360°摄像装置。
此外,客户端设备106的摄像装置***可以包括双后置摄像装置(例如,主摄像装置以及深度感测摄像装置),或者甚至在客户端设备106的前后侧上包括三重、四重或五重后置摄像装置配置。例如,这些多摄像装置***可以包括广角摄像装置、超广角摄像装置、长焦摄像装置、微距摄像装置和深度传感器。
定位部件1236包括位置传感器部件(例如,GPS接收器部件)、海拔传感器部件(例如,检测可以得到海拔的气压的高度计或气压计)、取向传感器部件(例如,磁力计)等。
可以使用各种各样的技术来实施通信。I/O部件1202还包括通信部件1238,通信部件1238可操作以经由相应的耦接或连接将机器1200耦接至网络1222或设备1224。例如,通信部件1238可以包括网络接口部件或另一合适的设备以与网络1222对接。在其他示例中,通信部件1238可以包括有线通信部件、无线通信部件、蜂窝通信部件、近场通信(NFC)部件、
Figure GDA0004201013750000231
部件(例如,/>
Figure GDA0004201013750000232
低功耗)、/>
Figure GDA0004201013750000233
部件以及经由其他形式提供通信的其他通信部件。设备1224可以是其他机器或各种***设备中的任何***设备(例如,经由USB耦接的***设备)。
此外,通信部件1238可以检测标识符或包括可操作以检测标识符的部件。例如,通信部件1238可以包括射频识别(RFID)标签阅读器部件、NFC智能标签检测部件、光学阅读器部件(例如,用于检测诸如通用产品代码(UPC)条形码的一维条形码、诸如快速反应(QR)码、Aztec码、数据矩阵、数据符号(Dataglyph)、最大码(MaxiCode)、PDF417、超码(UltraCode)、UCC RSS-2D条形码的多维条形码和其他光学码的光学传感器)或声学检测部件(例如,用于识别标记的音频信号的麦克风)。另外,可以经由通信部件1238得出各种信息,例如经由因特网协议(IP)地理定位的位置、经由
Figure GDA0004201013750000241
信号三角测量的位置、经由检测可以指示特定位置的NFC信标信号的位置等。
各种存储器(例如,主存储器1214、静态存储器1216以及处理器1204的存储器)以及存储单元1218可以存储由本文中描述的方法或功能中的任何一个或更多个实现或使用的指令和数据结构(例如,软件)中的一组或更多组。这些指令(例如,指令1210)在由处理器1204执行时使各种操作实现所公开的示例。
可以经由网络接口设备(例如,通信部件1238中包括的网络接口部件),使用传输介质并且使用若干公知的传输协议中的任意一种传输协议(例如,超文本传输协议(HTTP)),通过网络1222来发送或接收指令1210。类似地,可以使用传输介质经由到设备1224的耦接(例如,对等耦接)来发送或接收指令1210。

Claims (20)

1.一种用于通过图像捕获设备实时捕获视频的方法,包括:
在捕获所述视频的同时识别所述视频中的第一姿势信息;
响应于识别到所述第一姿势信息,将第一虚拟效果应用于所述视频;
识别所述视频中的第二姿势信息,所述第二姿势信息在所述第一姿势信息之后识别;以及
响应于识别到所述第二姿势信息,在捕获所述视频的同时将第二虚拟效果应用于所述视频,所述第二虚拟效果基于所述第一虚拟效果。
2.根据权利要求1所述的方法,其中,所述第一姿势信息表示所述视频中描绘的人的第一多个关节位置。
3.根据权利要求1所述的方法,其中,所述第二姿势信息表示所述视频中描绘的人的第二多个关节位置。
4.根据权利要求1所述的方法,其中,所述第一虚拟效果是第一增强现实内容项。
5.根据权利要求4所述的方法,其中,在捕获期间将所述第一增强现实内容项实时地应用于所述视频。
6.根据权利要求1所述的方法,其中,所述第二虚拟效果是第二增强现实内容项。
7.根据权利要求1所述的方法,还包括:
存储包括第一时间处的所述第一虚拟效果和第二时间处的所述第二虚拟效果的所述视频;以及
将所述视频作为短暂消息发送至计算设备。
8.根据权利要求1所述的方法,其中,识别所述第一姿势信息还包括:
识别所述视频中的手;
跟踪所述手从第一位置到第二位置的运动;以及
基于所跟踪的手的运动来修改所述第一虚拟效果的粒度级别。
9.一种***,包括:
处理器;以及
存储器,其存储指令,所述指令在由所述处理器执行时将所述***配置成执行操作,所述操作包括:
使用图像捕获设备实时捕获视频;
在捕获所述视频的同时识别所述视频中的第一姿势信息;
响应于识别到所述第一姿势信息,将第一虚拟效果应用于所述视频;
识别所述视频中的第二姿势信息,所述第二姿势信息在所述第一姿势信息之后识别;以及
响应于识别到所述第二姿势信息,在捕获所述视频的同时将第二虚拟效果应用于所述视频,所述第二虚拟效果基于所述第一虚拟效果。
10.根据权利要求9所述的***,其中,所述第一姿势信息表示所述视频中描绘的人的第一多个关节位置。
11.根据权利要求9所述的***,其中,所述第二姿势信息表示所述视频中描绘的人的第二多个关节位置。
12.根据权利要求9所述的***,其中,所述第一虚拟效果是第一增强现实内容项。
13.根据权利要求12所述的***,其中,在捕获期间将所述第一增强现实内容项实时地应用于所述视频。
14.根据权利要求9所述的***,其中,所述第二虚拟效果是第二增强现实内容项。
15.根据权利要求9所述的***,其中,所述操作还包括:
存储包括第一时间处的所述第一虚拟效果和第二时间处的所述第二虚拟效果的所述视频;以及
将所述视频作为短暂消息发送至计算设备。
16.根据权利要求9所述的***,其中,识别所述第一姿势信息还包括:
识别所述视频中的手;
跟踪所述手从第一位置到第二位置的运动;以及
基于所跟踪的手的运动来修改所述第一虚拟效果的粒度级别。
17.一种非暂态计算机可读存储介质,所述计算机可读存储介质包括指令,所述指令在由计算机执行时使所述计算机执行操作,所述操作包括:
使用图像捕获设备实时捕获视频;
在捕获所述视频的同时识别所述视频中的第一姿势信息;
响应于识别到所述第一姿势信息,将第一虚拟效果应用于所述视频;
识别所述视频中的第二姿势信息,所述第二姿势信息在所述第一姿势信息之后识别;以及
响应于识别到所述第二姿势信息,在捕获所述视频的同时将第二虚拟效果应用于所述视频,所述第二虚拟效果基于所述第一虚拟效果。
18.根据权利要求17所述的计算机可读存储介质,其中,所述第一姿势信息表示所述视频中描绘的人的第一多个关节位置。
19.根据权利要求17所述的计算机可读存储介质,其中,所述第二姿势信息表示所述视频中描绘的人的第二多个关节位置。
20.根据权利要求17所述的计算机可读存储介质,其中,所述第一虚拟效果是第一增强现实内容项。
CN202180047149.3A 2020-06-30 2021-06-30 用于实时虚拟效果的骨骼跟踪 Pending CN116261850A (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US202063046551P 2020-06-30 2020-06-30
US63/046,551 2020-06-30
PCT/US2021/039855 WO2022006249A1 (en) 2020-06-30 2021-06-30 Skeletal tracking for real-time virtual effects

Publications (1)

Publication Number Publication Date
CN116261850A true CN116261850A (zh) 2023-06-13

Family

ID=77338759

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202180047149.3A Pending CN116261850A (zh) 2020-06-30 2021-06-30 用于实时虚拟效果的骨骼跟踪

Country Status (5)

Country Link
US (1) US11991469B2 (zh)
EP (1) EP4173257A1 (zh)
KR (1) KR20230029968A (zh)
CN (1) CN116261850A (zh)
WO (1) WO2022006249A1 (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11991469B2 (en) 2020-06-30 2024-05-21 Snap Inc. Skeletal tracking for real-time virtual effects

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11832015B2 (en) 2020-08-13 2023-11-28 Snap Inc. User interface for pose driven virtual effects
US11360733B2 (en) 2020-09-10 2022-06-14 Snap Inc. Colocated shared augmented reality without shared backend
US20220405982A1 (en) * 2021-06-21 2022-12-22 Lemon Inc. Spectrum algorithm with trail renderer
US11949527B2 (en) 2022-04-25 2024-04-02 Snap Inc. Shared augmented reality experience in video chat

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102413885A (zh) * 2009-05-01 2012-04-11 微软公司 用于对运动捕捉应用模型跟踪的***和方法
CN103828379A (zh) * 2011-09-12 2014-05-28 英特尔公司 使用姿势以捕捉多媒体剪辑
US20150138385A1 (en) * 2013-11-18 2015-05-21 Heekwan Kim Digital annotation-based visual recognition book pronunciation system and related method of operation
US20180268609A1 (en) * 2017-03-15 2018-09-20 Facebook, Inc. Visual Editor For Designing Augmented-Reality Effects
US20200074738A1 (en) * 2018-08-30 2020-03-05 Snap Inc. Video clip object tracking

Family Cites Families (71)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7971156B2 (en) 2007-01-12 2011-06-28 International Business Machines Corporation Controlling resource access based on user gesturing in a 3D captured image stream of the user
US20090012788A1 (en) 2007-07-03 2009-01-08 Jason Andre Gilbert Sign language translation system
US7996793B2 (en) 2009-01-30 2011-08-09 Microsoft Corporation Gesture recognizer system architecture
US8487938B2 (en) 2009-01-30 2013-07-16 Microsoft Corporation Standard Gestures
US8856691B2 (en) 2009-05-29 2014-10-07 Microsoft Corporation Gesture tool
US20140171036A1 (en) 2009-11-18 2014-06-19 Gwendolyn Simmons Method of communication
CN105843396B (zh) 2010-03-05 2019-01-01 索尼电脑娱乐美国公司 在共享的稳定虚拟空间上维持多视图的方法
US8751215B2 (en) 2010-06-04 2014-06-10 Microsoft Corporation Machine based sign language interpreter
JP5653206B2 (ja) 2010-12-27 2015-01-14 日立マクセル株式会社 映像処理装置
US10509466B1 (en) 2011-05-11 2019-12-17 Snap Inc. Headwear with computer and optical element for use therewith and systems utilizing same
US20150370320A1 (en) 2014-06-20 2015-12-24 Medibotics Llc Smart Clothing with Human-to-Computer Textile Interface
US9230160B1 (en) 2012-08-27 2016-01-05 Amazon Technologies, Inc. Method, medium, and system for online ordering using sign language
CN103049761B (zh) 2013-01-21 2016-08-03 中国地质大学(武汉) 基于手语手套的手语识别方法及***
US10439972B1 (en) 2013-05-30 2019-10-08 Snap Inc. Apparatus and method for maintaining a message thread with opt-in permanence for entries
US9705831B2 (en) 2013-05-30 2017-07-11 Snap Inc. Apparatus and method for maintaining a message thread with opt-in permanence for entries
US9742713B2 (en) 2013-05-30 2017-08-22 Snap Inc. Apparatus and method for maintaining a message thread with opt-in permanence for entries
US9558756B2 (en) 2013-10-29 2017-01-31 At&T Intellectual Property I, L.P. Method and system for adjusting user speech in a communication session
US10438631B2 (en) 2014-02-05 2019-10-08 Snap Inc. Method for real-time video processing involving retouching of an object in the video
US9276886B1 (en) 2014-05-09 2016-03-01 Snapchat, Inc. Apparatus and method for dynamically configuring application component tiles
US9537811B2 (en) 2014-10-02 2017-01-03 Snap Inc. Ephemeral gallery of ephemeral messages
US9225897B1 (en) 2014-07-07 2015-12-29 Snapchat, Inc. Apparatus and method for supplying content aware photo filters
US10284508B1 (en) 2014-10-02 2019-05-07 Snap Inc. Ephemeral gallery of ephemeral messages with opt-in permanence
US9385983B1 (en) 2014-12-19 2016-07-05 Snapchat, Inc. Gallery of messages from individuals with a shared interest
US10109219B2 (en) 2015-04-16 2018-10-23 Robert Bosch Gmbh System and method for automated sign language recognition
US10503264B1 (en) 2015-06-16 2019-12-10 Snap Inc. Radial gesture navigation
US11106273B2 (en) 2015-10-30 2021-08-31 Ostendo Technologies, Inc. System and methods for on-body gestural interfaces and projection displays
US10055895B2 (en) 2016-01-29 2018-08-21 Snap Inc. Local augmented reality persistent sticker objects
JP2017174300A (ja) 2016-03-25 2017-09-28 富士ゼロックス株式会社 情報処理装置、情報処理方法およびプログラム
US9965467B2 (en) 2016-03-28 2018-05-08 Avaya Inc. Sign language communication with communication devices
US10628664B2 (en) 2016-06-04 2020-04-21 KinTrans, Inc. Automatic body movement recognition and association system
US10102423B2 (en) 2016-06-30 2018-10-16 Snap Inc. Object modeling and replacement in a video stream
US11404056B1 (en) 2016-06-30 2022-08-02 Snap Inc. Remoteless control of drone behavior
JP6706323B2 (ja) * 2016-07-12 2020-06-03 富士フイルム株式会社 画像表示システム、並びにヘッドマウントディスプレイの制御装置とその作動方法および作動プログラム
US10446059B2 (en) 2016-12-07 2019-10-15 Thomas William Pryor Hand motion interpretation and communication apparatus
US10242477B1 (en) * 2017-01-16 2019-03-26 Snap Inc. Coded vision system
US10579869B1 (en) 2017-07-18 2020-03-03 Snap Inc. Virtual object machine learning
US10591730B2 (en) 2017-08-25 2020-03-17 II Jonathan M. Rodriguez Wristwatch based interface for augmented reality eyewear
WO2019094618A1 (en) 2017-11-08 2019-05-16 Signall Technologies Zrt Computer vision based sign language interpreter
US10217488B1 (en) 2017-12-15 2019-02-26 Snap Inc. Spherical video editing
US10962809B1 (en) 2018-01-10 2021-03-30 Snap Inc. Eyewear device with finger activated touch sensor
US11092998B1 (en) 2018-01-12 2021-08-17 Snap Inc. Eyewear device with fingerprint sensor for user input
US11227626B1 (en) 2018-05-21 2022-01-18 Snap Inc. Audio response messages
EP3857337A1 (en) 2018-09-28 2021-08-04 Snap Inc. Neural network system for gesture, wear, activity, or carry detection on a wearable or mobile device
US10796482B2 (en) 2018-12-05 2020-10-06 Snap Inc. 3D hand shape and pose estimation
US11012390B1 (en) 2019-03-28 2021-05-18 Snap Inc. Media content response in a messaging system
US11036368B1 (en) 2019-03-29 2021-06-15 Snap Inc. Messaging system with message transmission user interface
US11106342B1 (en) 2019-06-03 2021-08-31 Snap Inc. User interfaces to facilitate multiple modes of electronic communication
US11422669B1 (en) * 2019-06-07 2022-08-23 Facebook Technologies, Llc Detecting input using a stylus in artificial reality systems based on a stylus movement after a stylus selection action
US11307747B2 (en) 2019-07-11 2022-04-19 Snap Inc. Edge gesture interface with smart interactions
KR20220062338A (ko) 2019-09-09 2022-05-16 스냅 인코포레이티드 스테레오 카메라들로부터의 손 포즈 추정
US11169600B1 (en) 2019-12-06 2021-11-09 Snap Inc. Virtual object display interface between a wearable device and a mobile device
US11087728B1 (en) 2019-12-21 2021-08-10 Snap Inc. Computer vision and mapping for audio applications
US11062498B1 (en) 2019-12-30 2021-07-13 Snap Inc. Animated pull-to-refresh
US11488358B2 (en) 2020-02-05 2022-11-01 Snap Inc. Augmented reality session creation using skeleton tracking
US11409368B2 (en) 2020-03-26 2022-08-09 Snap Inc. Navigating through augmented reality content
US11675494B2 (en) 2020-03-26 2023-06-13 Snap Inc. Combining first user interface content into second user interface
US11960651B2 (en) 2020-03-30 2024-04-16 Snap Inc. Gesture-based shared AR session creation
US20210405761A1 (en) 2020-06-29 2021-12-30 Ilteris Canberk Augmented reality experiences with object manipulation
US11995774B2 (en) 2020-06-29 2024-05-28 Snap Inc. Augmented reality experiences using speech and text captions
CN116261850A (zh) 2020-06-30 2023-06-13 斯纳普公司 用于实时虚拟效果的骨骼跟踪
US11832015B2 (en) * 2020-08-13 2023-11-28 Snap Inc. User interface for pose driven virtual effects
US11925863B2 (en) 2020-09-18 2024-03-12 Snap Inc. Tracking hand gestures for interactive game control in augmented reality
US11546505B2 (en) 2020-09-28 2023-01-03 Snap Inc. Touchless photo capture in response to detected hand gestures
WO2022132381A1 (en) 2020-12-16 2022-06-23 Snap Inc. Eyewear including sign language to speech translation
US20220206588A1 (en) 2020-12-29 2022-06-30 Snap Inc. Micro hand gestures for controlling virtual and graphical elements
US11531402B1 (en) 2021-02-25 2022-12-20 Snap Inc. Bimanual gestures for controlling virtual and graphical elements
US11734959B2 (en) 2021-03-16 2023-08-22 Snap Inc. Activating hands-free mode on mirroring device
US11908243B2 (en) 2021-03-16 2024-02-20 Snap Inc. Menu hierarchy navigation on electronic mirroring devices
WO2022216784A1 (en) 2021-04-08 2022-10-13 Snap Inc. Bimanual interactions between mapped hand regions for controlling virtual and graphical elements
EP4327185A1 (en) 2021-04-19 2024-02-28 Snap, Inc. Hand gestures for animating and controlling virtual and graphical elements
EP4342196A1 (en) 2021-05-19 2024-03-27 Snap, Inc. Beacons for localization and content delivery to wearable devices

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102413885A (zh) * 2009-05-01 2012-04-11 微软公司 用于对运动捕捉应用模型跟踪的***和方法
CN103828379A (zh) * 2011-09-12 2014-05-28 英特尔公司 使用姿势以捕捉多媒体剪辑
US20150138385A1 (en) * 2013-11-18 2015-05-21 Heekwan Kim Digital annotation-based visual recognition book pronunciation system and related method of operation
US20180268609A1 (en) * 2017-03-15 2018-09-20 Facebook, Inc. Visual Editor For Designing Augmented-Reality Effects
US20200074738A1 (en) * 2018-08-30 2020-03-05 Snap Inc. Video clip object tracking

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11991469B2 (en) 2020-06-30 2024-05-21 Snap Inc. Skeletal tracking for real-time virtual effects

Also Published As

Publication number Publication date
US11991469B2 (en) 2024-05-21
WO2022006249A1 (en) 2022-01-06
KR20230029968A (ko) 2023-03-03
EP4173257A1 (en) 2023-05-03
US20210409615A1 (en) 2021-12-30

Similar Documents

Publication Publication Date Title
CN115552357A (zh) 基于姿势的共享ar会话创建
CN115552403B (zh) 用于媒体内容项的私人集合的邀请媒体覆盖物
US11991469B2 (en) Skeletal tracking for real-time virtual effects
US11517826B2 (en) Game result overlay system
US11832015B2 (en) User interface for pose driven virtual effects
US20220076492A1 (en) Augmented reality messenger system
CN115668119A (zh) 用于消息收发***的具有标贴的回复界面
CN115668887A (zh) 用于媒体内容项的共享集合的邀请媒体覆盖
CN118369637A (zh) 共享增强现实开箱体验
CN115516406B (zh) 使用生物数据进行的深度估计
CN115428414A (zh) 事件覆盖邀请消息传送***
KR20230058679A (ko) 미디어 콘텐츠 재생 및 코멘트 관리
CN116113991A (zh) 用于关节动画的运动表示
CN116134797A (zh) 增强现实自动反应
CN115885247A (zh) 用于启动应用的视觉搜索
CN115701304A (zh) 上下文发送菜单
CN116235194A (zh) 媒体内容传输和管理
CN117121461A (zh) 用户存在指示数据管理
CN115698931A (zh) 上下文动作栏
CN117136533A (zh) 用户存在指示数据管理
CN116322914A (zh) 用于增强现实连续性的qr生成***
CN116669823A (zh) 具有离线同步的多用户ar体验
CN116235500A (zh) 生成用于分享到外部应用的媒体内容项
CN118401912A (zh) 增强现实开箱体验
CN117795931A (zh) 组合的读取和反应消息

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination