CN118092665A - 中间新兴内容 - Google Patents

中间新兴内容 Download PDF

Info

Publication number
CN118092665A
CN118092665A CN202410370814.8A CN202410370814A CN118092665A CN 118092665 A CN118092665 A CN 118092665A CN 202410370814 A CN202410370814 A CN 202410370814A CN 118092665 A CN118092665 A CN 118092665A
Authority
CN
China
Prior art keywords
content item
implementations
implementer
emerging
actions
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202410370814.8A
Other languages
English (en)
Inventor
I·M·瑞切尔
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Apple Inc
Original Assignee
Apple Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Apple Inc filed Critical Apple Inc
Publication of CN118092665A publication Critical patent/CN118092665A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/004Artificial life, i.e. computing arrangements simulating life
    • G06N3/006Artificial life, i.e. computing arrangements simulating life based on simulated virtual individual or collective life forms, e.g. social simulations or particle swarm optimisation [PSO]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/64Methods for processing data by generating or executing the game program for computing dynamical parameters of game objects, e.g. motion determination or computation of frictional forces for a virtual car
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/66Methods for processing data by generating or executing the game program for rendering three dimensional images
    • A63F2300/6607Methods for processing data by generating or executing the game program for rendering three dimensional images for animating game characters, e.g. skeleton kinematics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/24Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/61Scene description

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Human Computer Interaction (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Evolutionary Computation (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biophysics (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)

Abstract

本公开涉及中间新兴内容。在一些具体实施中,一种方法包括获得跨越第一持续时间的第一内容项的结束状态。在一些具体实施中,该第一内容项的该结束状态指示合成现实(SR)代理在该第一持续时间结束时的第一状态。在一些具体实施中,该方法包括获得跨越该第一持续时间之后的第二持续时间的第二内容项的初始状态。在一些具体实施中,该第二内容项的该初始状态指示该SR代理在该第二持续时间开始时的第二状态。在一些具体实施中,该方法包括合成跨越介于该第一持续时间的结束和该第二持续时间的开始之间的中间持续时间的中间新兴内容项。

Description

中间新兴内容
本申请是申请日为2019年9月25日的、名称为“中间新兴内容”的发明专利申请No.201980063371.5的分案申请。
技术领域
本公开整体涉及中间新兴内容。
背景技术
一些设备能够生成并呈现合成现实(SR)布景。一些SR布景包括虚拟布景,该虚拟布景是物理布景的模拟替换。一些SR布景包括增强布景,该增强布景是物理布景的修改版本。呈现SR布景的一些设备包括移动通信设备,诸如智能电话、头戴式显示器(HMD)、眼镜、抬头显示器(HUD)和光学投影***。呈现SR布景的大多数先前可用的设备在呈现某些对象的表示时是无效的。例如,呈现SR布景的一些先前可用的设备不适于呈现与动作相关联的对象的表示。
附图说明
因此,本公开可被本领域的普通技术人员理解,更详细的描述可参考一些例示性具体实施的方面,其中一些具体实施在附图中示出。
图1是根据一些具体实施的用于生成中间新兴内容项的示例性***的框图。
图2A-图2F是根据一些具体实施的示出示例性中间新兴内容项的图示。
图3A是根据一些具体实施的用于训练目标实现器引擎的示例性***的框图。
图3B是根据一些具体实施的用于生成中间新兴内容项的***的框图。
图4A是根据一些具体实施的被训练以生成中间新兴内容的示例性神经网络的框图。
图4B是根据一些具体实施的生成中间新兴内容的示例性神经网络的框图。
图5A-图5L是根据一些具体实施的用于生成中间新兴内容的示例性用户界面的图示。
图6A-图6D是根据一些具体实施的生成中间新兴内容的方法的流程图表示。
图7A-图7B是根据一些具体实施的训练目标实现器引擎的方法的流程图表示。
图8A-图8C是根据一些具体实施的生成中间新兴内容项的方法的流程图表示。
图9是根据一些具体实施的生成中间新兴内容的服务器***的框图。
图10是根据一些具体实施的示例性操作环境的图示。
根据通常的做法,附图中示出的各种特征部可能未按比例绘制。因此,为了清楚起见,可以任意地扩展或减小各种特征部的尺寸。另外,一些附图可能未描绘给定的***、方法或设备的所有部件。最后,在整个说明书和附图中,类似的附图标号可用于表示类似的特征部。
发明内容
本文所公开的各种具体实施包括用于合成中间新兴内容的设备、***和方法。在各种具体实施中,一种设备包括非暂态存储器以及与非暂态存储器耦接的一个或多个处理器。在一些具体实施中,本发明公开了一种方法,该方法包括获得跨越第一持续时间的第一内容项的结束状态。在一些具体实施中,第一内容项的结束状态指示SR代理在第一持续时间结束时的第一状态。在一些具体实施中,该方法包括获得跨越该第一持续时间之后的第二持续时间的第二内容项的初始状态。在一些具体实施中,该第二内容项的该初始状态指示该SR代理在该第二持续时间开始时的第二状态。在一些具体实施中,该方法包括合成跨越介于该第一持续时间的结束和该第二持续时间的开始之间的中间持续时间的中间新兴内容项。在一些具体实施中,合成中间新兴内容项包括通过将第一内容项的结束状态和第二内容项的初始状态提供给新兴内容引擎来为SR代理生成一组有界目标。在一些具体实施中,该组有界目标由第一内容项的结束状态和第二内容项的初始状态界定。在一些具体实施中,合成中间新兴内容项包括通过向SR代理引擎提供一组有界目标来为SR代理生成一组动作。在一些具体实施中,该组动作中的第一动作与SR代理在第一持续时间结束时的动作匹配,并且该组动作中的最后一个动作与SR代理在第二持续时间开始时的动作匹配。在一些具体实施中,合成中间新兴内容项包括渲染中间内容项以供显示。
本文所公开的各种具体实施包括用于训练SR代理引擎的设备、***和方法。在各种具体实施中,一种设备包括非暂态存储器以及与非暂态存储器耦接的一个或多个处理器。在一些具体实施中,一种方法包括从内容项中提取由内容项中的动作执行元素执行的一组动作。在一些具体实施中,该方法包括通过语义分析基于该组动作来确定SR代理的一组目标。在一些具体实施中,SR代理的SR表示对应于动作执行元素。在一些具体实施中,该方法包括基于该组目标来训练为SR代理生成动作的SR代理引擎。在一些具体实施中,当SR代理引擎生成的动作在从内容项提取的一组动作的可接受性阈值内时,训练完成。
本文所公开的各种具体实施包括用于合成中间新兴内容的设备、***和方法。在各种具体实施中,一种设备包括非暂态存储器以及与非暂态存储器耦接的一个或多个处理器。在一些具体实施中,一种方法包括在显示器上显示用户界面,该用户界面包括跨越第一持续时间的第一内容项的第一表示以及跨越第二持续时间的第二内容项的第二表示。在一些具体实施中,该方法包括经由输入设备获得对应于生成中间新兴内容项的请求的用户输入,该中间新兴内容项跨越介于第一持续时间的结束和第二持续时间的开始之间的中间持续时间。在一些具体实施中,该方法包括响应于获得用户输入,在显示器上显示第一内容项的第一表示和第二内容项的第二表示之间的中间新兴内容项的表示。在一些具体实施中,中间新兴内容项在获得用户输入之后合成。
根据一些具体实施,设备包括一个或多个处理器、非暂态存储器以及一个或多个程序。在一些具体实施中,一个或多个程序存储在非暂态存储器中并由一个或多个处理器执行。在一些具体实施中,一个或多个程序包括用于执行或促使执行本文描述的任何方法的指令。根据一些具体实施,一种非暂态计算机可读存储介质中存储有指令,该指令当由设备的一个或多个处理器执行时使该设备执行或导致执行本文所述方法中的任一种。根据一些具体实施,一种设备包括一个或多个处理器、非暂态存储器,以及用于执行或导致执行本文所述方法中的任一种的装置。
具体实施方式
描述了许多细节以便提供对附图中所示的示例具体实施的透彻理解。然而,附图仅示出了本公开的一些示例方面,因此不应被视为限制。本领域的普通技术人员将理解,其他有效方面和/或变体不包括本文所述的所有具体细节。此外,没有详尽地描述众所周知的***、方法、部件、设备和电路,以免模糊本文所述的示例性具体实施的更多相关方面。
本公开提供了用于生成中间新兴内容的方法、***和/或设备。中间新兴内容跨越中间持续时间,该中间持续时间介于与第一内容项相对应的第一持续时间和与第二内容项相对应的第二持续时间之间。新兴内容引擎基于第一内容项的结束状态和第二内容项的初始状态合成中间新兴内容。中间新兴内容允许用户查看情节如何在第一内容项和第二内容项之间进行。
物理布景是指无需电子***帮助个体就能够感知和/或个体能够交互的世界。物理布景(例如,物理森林)包括物理元素(例如,物理树、物理结构和物理动物)。个体可直接与物理布景相互作用和/或感知物理布景,诸如通过触摸、视觉、嗅觉、听觉和味觉。
相比之下,合成现实(SR)布景是指经由电子***个体能够感知并且/或者个体能够与其交互的完全或部分由计算机创建的布景。在SR中,监测个体移动的子集,并且响应于该子集,以符合一个或多个物理定律的方式更改SR布景中的一个或多个虚拟对象的一个或多个属性。例如,SR***可检测到个体向前走几步,并且响应于此,以类似于此类情景和声音在物理布景中会如何变化的方式来调节呈现给个体的图形和音频。也可响应于移动的表示(例如,音频指令)而进行对SR布景中一个或多个虚拟对象的一个或多个属性的修改。
个体可使用他的任何感觉(包括触觉、嗅觉、视觉、味觉和声音)与SR对象进行交互和/或感知SR对象。例如,个体可与创建多维(例如,三维)或空间听觉布景和/或实现听觉透明性的听觉对象进行交互和/或感知听觉对象。多维或空间听觉布景为个体提供了在多维空间中对离散听觉源的感知。在具有或不具有计算机创建的音频的情况下,听觉透明性选择性地结合来自物理布景的声音。在一些SR布景中,个体可仅与听觉对象进行交互和/或仅感知听觉对象。
SR的一个示例是虚拟现实(VR)。VR布景是指被设计为仅包括针对至少一种感觉的计算机创建的感官输入的模拟布景。VR布景包括个体可与之交互和/或对其进行感知的多个虚拟对象。个体可通过在计算机创建的布景内模拟个体动作的子集和/或通过对个体或其在计算机创建的布景内的存在的模拟,来与VR布景中的虚拟对象进行交互和/或感知VR布景中的虚拟对象。
SR的另一个示例是混合现实(MR)。MR布景是指被设计为将计算机创建的感官输入(例如,虚拟对象)与来自物理布景的感官输入或其表示集成的模拟布景。在现实谱系上,混合现实布景介于(但不包括)一端的VR布景和另一端的完全物理布景之间。
在一些MR布景中,计算机创建的感官输入可以适应于来自物理布景的感官输入的变化。另外,用于呈现MR布景的一些电子***可以监测相对于物理布景的取向和/或位置,以使虚拟对象能够与真实对象(即来自物理布景的物理元素或其表示)交互。例如,***可监测运动,使得虚拟植物相对于物理建筑物看起来是静止的。
混合现实的一个示例是增强现实(AR)。AR布景是指至少一个虚拟对象叠加在物理布景或其表示之上的模拟布景。例如,电子***可具有不透明显示器和至少一个成像传感器,成像传感器用于捕获物理布景的图像或视频,这些图像或视频是物理布景的表示。***将图像或视频与虚拟对象组合,并在不透明显示器上显示该组合。个体使用***经由物理布景的图像或视频间接地查看物理布景,并且观察叠加在物理布景之上的虚拟对象。当***使用一个或多个图像传感器捕获物理布景的图像,并且使用那些图像在不透明显示器上呈现AR布景时,所显示的图像被称为视频透传。另选地,用于显示AR布景的电子***可具有透明或半透明显示器,个体可通过该显示器直接查看物理布景。该***可在透明或半透明显示器上显示虚拟对象,使得个体使用该***观察叠加在物理布景之上的虚拟对象。又如,***可包括将虚拟对象投影到物理布景中的投影***。虚拟对象可例如在物理表面上或作为全息图被投影,使得个体使用该***观察叠加在物理布景之上的虚拟对象。
增强现实布景也可指其中物理布景的表示被计算机创建的感官信息改变的模拟布景。例如,物理布景的表示的一部分可被以图形方式改变(例如,放大),使得所改变的部分仍可代表一个或多个初始捕获的图像但不是忠实再现的版本。又如,在提供视频透传时,***可改变传感器图像中的至少一者以施加不同于一个或多个图像传感器捕获的视点的特定视点。再如,物理布景的表示可通过以图形方式将其部分进行模糊处理或消除其部分而被改变。
混合现实的另一个示例是增强虚拟(AV)。AV布景是指计算机创建布景或虚拟布景并入来自物理布景的至少一个感官输入的模拟布景。来自物理布景的一个或多个感官输入可为物理布景的至少一个特征的表示。例如,虚拟对象可呈现由一个或多个成像传感器捕获的物理元素的颜色。又如,虚拟对象可呈现出与物理布景中的实际天气条件相一致的特征,如经由天气相关的成像传感器和/或在线天气数据所识别的。在另一个示例中,增强现实森林可具有虚拟树木和结构,但动物可具有从对物理动物拍摄的图像精确再现的特征。
许多电子***使得个体能够与各种SR布景进行交互和/或感知各种SR布景。一个示例包括头戴式***。头戴式***可具有不透明显示器和一个或多个扬声器。另选地,头戴式***可以被设计为接收外部显示器(例如,智能电话)。头戴式***可具有分别用于拍摄物理布景的图像/视频和/或捕获物理布景的音频的一个或多个成像传感器和/或麦克风。头戴式***也可具有透明或半透明显示器。透明或半透明显示器可结合基板,表示图像的光通过该基板被引导到个体的眼睛。显示器可结合LED、OLED、数字光投影仪、激光扫描光源、硅上液晶,或这些技术的任意组合。透射光的基板可以是光波导、光组合器、光反射器、全息基板或这些基板的任意组合。在一个实施方案中,透明或半透明显示器可在不透明状态与透明或半透明状态之间选择性地转换。又如,电子***可以是基于投影的***。基于投影的***可使用视网膜投影将图像投影到个体的视网膜上。另选地,投影***还可将虚拟对象投影到物理布景中(例如,投影到物理表面上或作为全息图)。SR***的其他示例包括平视显示器、能够显示图形的汽车挡风玻璃、能够显示图形的窗口、能够显示图形的镜片、耳机或耳塞、扬声器布置、输入机构(例如,具有或不具有触觉反馈的控制器)、平板电脑、智能电话,以及台式计算机或膝上型计算机。
图1是根据一些具体实施的合成中间新兴内容的示例性***100的框图。在各种具体实施中,***100合成中间新兴内容,该中间新兴内容跨越介于与现有内容对应的持续时间之间的持续时间。简而言之,在各种具体实施中,***100从现有内容中提取动作,分析动作以学习目标,并且利用所提取的动作和/或所学习的目标来合成中间新兴内容。为此,在各种具体实施中,***100包括新兴内容引擎110、目标实现器引擎120-1、...、120-η、目标实现器引擎训练器130和情节模板数据存储库160。
在各种具体实施中,目标实现器表示动作执行元素的行为模型。在一些具体实施中,目标实现器对动作执行元素的行为进行建模。在一些具体实施中,目标实现器执行与动作执行元素执行的动作在一定相似程度内的动作。在一些具体实施中,目标实现器对来自虚构材料(诸如电影、视频游戏、漫画和/或小说)的字符进行建模。在一些具体实施中,目标实现器对装备(例如,机器诸如飞机、坦克、机器人、汽车等)进行建模。在一些具体实施中,目标实现器从虚构材料或从真实世界(例如,从物理布景)对有形对象进行建模。在各种具体实施中,目标实现器被称为SR代理,目标实现器引擎120-1、...、120-η被称为SR代理引擎,并且目标实现器引擎训练器130被称为SR代理引擎训练器。
在各种具体实施中,目标实现器实现动作以便推进(例如,完成或满足)目标。在一些具体实施中,目标实现器与特定目标相关联,并且目标实现器实现改善推进该特定目标的可能性的动作。参考图1,目标实现器引擎120-1、...、120-η为对应的目标实现器生成动作122-1、...、122-n。在一些具体实施中,新兴内容引擎110向目标实现器引擎120-1、...、120-η提供目标112。目标实现器引擎120-1、...、120-η利用目标112来生成动作122-1、...、122-η。
在各种具体实施中,目标实现器引擎训练器130(下文为简洁起见,称为“训练器130”)训练目标实现器引擎120-1、...、120-η。在图1的示例中,训练器130基于第一内容项140和第二内容项150训练目标实现器引擎120-1、...、120-η。如图1所示,第一内容项140跨越第一持续时间T1,并且第二内容项150跨越第二持续时间T3。图1示出了介于第一持续时间T1与第二持续时间T3之间的中间持续时间T2。不存在跨越中间持续时间T2的现有内容。在训练器130利用第一内容项140和第二内容项150来训练目标实现器引擎120-1、...、120-η之后,目标实现器引擎120-1、...、120-η生成跨越中间持续时间T2的中间新兴内容项。
在一些具体实施中,训练器130获得从现有内容中提取的动作。在图1的示例中,训练器130获得从第一内容项140中提取的第一组动作142,以及从第二内容项150中提取的第二组动作152。在一些具体实施中,第一组动作142包括动作执行元素(例如,字符、装备等)在第一内容项140中执行以推进第一内容项140的情节/故事线的动作。在一些具体实施中,第二组动作152包括动作执行元素在第二内容项150中执行以推进第二内容项150的情节/故事线的动作。在一些具体实施中,通过对内容项执行场景分析来从内容项中提取一组动作,以便识别动作执行元素和动作执行元素执行的动作。在一些具体实施中,训练器130基于所提取的动作来确定目标实现器引擎120-1、...、120-η的参数132。在一些具体实施中,参数132包括神经网络参数。
在一些具体实施中,目标实现器引擎120-1、...、120-η获得与现有内容相关联的目标。在一些具体实施中,与现有内容相关联的目标基于从现有内容提取的动作(例如,从其导出)来确定。在图1的示例中,目标实现器引擎120-1、...、120-η获得基于第一组动作142确定的第一组所学习的目标144。目标实现器引擎120-1、...、120-η获得基于第二组动作152确定的第二组所学习的目标154。在一些具体实施中,通过对提取的动作执行语义分析来确定所学习的目标。在图1的示例中,目标实现器引擎120-1、...、120-η经由聚集器170获得第一组所学习的目标144和第二组所学习的目标154。在一些具体实施中,聚集器170聚集(例如,打包)第一组所学习的目标144和第二组所学习的目标154。在一些具体实施中,聚集器170将该组所学习的目标144和154提供给选择器172,该选择器在训练阶段期间将这组所学习的目标144和154转发给目标实现器引擎120-1、...、120-η。
在目标实现器引擎120-1、...、120-η的训练阶段期间,目标实现器引擎120-1、...、120-η基于所学习的目标(例如,该组所学习的目标144和154)生成动作122-1、...、122-η。训练器130将所生成的动作122-1、...、122-η与所提取的动作进行比较。如果所生成的动作122-1、...、122-η在与所提取的动作的一定相似程度内,则训练器130确定目标实现器引擎120-1、...、120-η的训练完成。如果所生成的动作122-1、...、122-η不在与所提取的动作的一定相似程度内,则训练器130基于所生成的动作122-1、...、122-η和所提取的动作之间的差异来调节参数132。
在目标实现器引擎120-1、...、120-η的训练阶段期间,目标实现器引擎120-1、...、120-η在第一持续时间T1内生成动作122-1、...、122-η。训练器130将在第一持续时间T1内生成的动作122-1、...、122-η与第一组所提取的动作142(下文为简洁起见,称为“所提取的动作142”)进行比较。在一些具体实施中,如果在第一持续时间T1内生成的动作122-1、...、122-η与所提取的动作142匹配(例如,在与其的相似程度内),则训练器130确定目标实现器引擎120-1、...、120-η的训练完成。在一些具体实施中,如果在第一持续时间T1内生成的动作122-1、...、122-η匹配所提取的动作142,则训练器130确定目标实现器引擎120-1、...、120-η是否能够在第二持续时间T3内生成与第二组提取的动作152(下文为简洁起见,称为“所提取的动作152”)匹配的动作122-1、...、122-η。在一些具体实施中,训练器130继续调节参数132,直到在第一持续时间T1内生成的动作122-1、...、122-η匹配来自第一内容项140的所提取的动作142。
在目标实现器引擎120-1、...、120-η的训练阶段期间,目标实现器引擎120-1、...、120-η在第二持续时间T3内生成动作122-1、...、122-η。训练器130将在第二持续时间T3内生成的动作122-1、...、122-η与所提取的动作152进行比较。在一些具体实施中,如果在第二持续时间T3内生成的动作122-1、...、122-η与提取动作152匹配(例如,在与其的相似程度内),则训练器130确定目标实现器引擎120-1、...、120-η的训练完成。在一些具体实施中,训练器130继续调节参数132,直到在第二持续时间T3内生成的动作122-1、...、122-η匹配来自第二内容项150的所提取的动作152。
在一些具体实施中,在确定目标实现器引擎120-1、...、120-η的训练完成之后,训练器130指示选择器172停止将所学习的目标144和154转发至目标实现器引擎120-1、...、120-η。
在训练阶段期间,目标实现器引擎120-1、...、120-η向新兴内容引擎110提供所生成的动作122-1、...、122-η,使得新兴内容引擎110可以利用动作122-1、...、122-η作为训练数据。在训练阶段期间,目标实现器引擎120-1、...、120-η向其自身提供所生成的动作122-1、...、122-η,使得目标实现器引擎120-1、...、120-η的参数132可以基于所生成的动作122-1、...、122-η来调节。
在生产阶段中,目标实现器引擎120-1、...、120-η生成动作122-1、...、122-η,这些动作共同形成跨越中间持续时间T2的中间新兴内容项。在一些具体实施中,新兴内容引擎110基于第一内容项140的结束状态和第二内容项150的初始状态生成目标112(例如,一组有界目标)。新兴内容引擎110经由选择器172将目标112提供给目标实现器引擎120-1、...、120-η。在生产阶段中,选择器172将目标112转发至目标实现器引擎120-1、...、120-η,而不是转发所学习的目标144和154。
目标实现器引擎120-1、...、120-η利用由新兴内容引擎110提供的目标112来在中间持续时间T2内生成动作122-1、...、122-η。在中间持续时间T2内的动作122-1、...、122-η共同形成跨越中间持续时间T2的中间新兴内容项。在一些具体实施中,目标实现器引擎120-1、...、120-η将在中间持续时间T2内的动作122-1、...、122-η提供给渲染和显示流水线,使得中间新兴内容项可以呈现给用户。
在一些具体实施中,情节模板数据存储库160存储各种情节模板162。在一些具体实施中,每个情节模板162对应于情节的类型(例如,故事线的类型)。在一些具体实施中,情节模板162包括用于神秘情节的情节模板。在一些具体实施中,情节模板162包括用于灾难情节的情节模板。在一些具体实施中,情节模板162包括用于喜剧情节的情节模板。在一些具体实施中,新兴内容引擎110从情节模板数据存储库160选择情节模板162。在一些具体实施中,目标112是新兴内容引擎110从情节模板数据存储库160选择的情节模板162的函数。在一些具体实施中,目标112推进与新兴内容引擎110选择的情节模板162相对应的情节。
在一些具体实施中,新兴内容引擎110基于第一内容项140的结束状态和/或第二内容项150的初始状态从情节模板数据存储库160选择情节模板162中的一者。在一些具体实施中,新兴内容引擎110基于所学习的目标144和/或154来选择情节模板162中的一者。在一些具体实施中,学习目标144和/或154指示与情节模板162中的一者匹配的图案。在此类具体实施中,新兴内容引擎110选择与所学习的目标144和/或154最紧密匹配的情节模板162。在一些具体实施中,新兴内容引擎110基于用户输入选择情节模板162中的一者。例如,在一些具体实施中,用户输入指定将情节模板162中的哪一者用于中间新兴内容项。
图2A是示出第一内容项140的结束状态146和第二内容项150的初始状态156的图示。在各种具体实施中,第一内容项140具有对应于第一持续时间T1内的不同时间t1,0、...、t1,n的各种状态。第一内容项140的结束状态146对应于时间t1,n。在各种具体实施中,第二内容项150具有对应于第二持续时间T3内的不同时间t3,0、...、t3,n的各种状态。第二内容项150的初始状态156对应于时间t3,n。
在一些具体实施中,第一内容项140的结束状态146指示第一内容项140结束的方式。在一些具体实施中,第一内容项140的结束状态146指示在时间t1,n处存在的各种动作执行元素。在一些具体实施中,第一内容项140的结束状态146指示动作执行元素的位置,动作执行元素在时间t1,n处执行的动作,第一内容项140的最后场景发生的地理位置,和/或第一内容项140的最后场景内的环境条件。在图2A的示例中,第一内容项140的结束状态146包括男孩动作执行元素202、女孩动作执行元素204、机器人动作执行元素206和无人机动作执行元素208。
在一些具体实施中,第二内容项150的初始状态156指示第二内容项150开始的方式。在一些具体实施中,第二内容项150的初始状态156指示在时间t3,0处存在的各种动作执行元素。在一些具体实施中,第二内容项150的初始状态156指示动作执行元素的位置,动作执行元素在时间t3,0处执行的动作,第二内容项150的第一场景发生的地理位置,和/或第二内容项150的第一场景内的环境条件。在图2A的示例中,第二内容项150的初始状态156包括男孩动作执行元素202和机器人动作执行元素206。
图2B示出了从图1所示的情节模板162中选择的情节模板162a。在图2B的示例中,情节模板162a包括在时间t2,1处的第一临时目标210、在时间t2,7处的第二临时目标212、在时间t2,10处的第三临时目标214、在时间t2,15处的第四临时目标216,以及在时间t2,16处的第五临时目标218。情节模板162a指示各种临时目标210-218之间的关系。中间目标210-218之间的关系指示跨越中间持续时间T2的中间新兴内容项的情节。例如,中间目标210-218之间的关系指示该情节是否为神秘情节、灾难情节、悬疑情节、喜剧情节等。
图2C示出了处于其初始状态220a(在时间t2,0处)的示例性中间新兴内容项220。中间新兴内容项220包括男孩目标实现器222的SR表示(下文为简洁起见,称为“男孩目标实现器222”)、女孩目标实现器224的SR表示(下文为简洁起见,称为“女孩目标实现器224”)、机器人目标实现器226的SR表示(下文为简洁起见,称为“机器人目标实现器226”)和无人机目标实现器228的SR表示(下文为简洁起见,称为“无人机目标实现器228”)。在图2C的示例中,男孩目标实现器222对男孩动作执行元素202的行为进行建模。女孩目标实现器224对女孩动作执行元素204的行为进行建模。机器人目标实现器226对机器人动作执行元素206的行为进行建模。无人机目标实现器228对无人机作执行元素208的行为进行建模。
如图2C所示,在一些具体实施中,中间新兴内容项220的初始状态220a与第一内容项140的结束状态146匹配(例如,相同)。因此,在一些具体实施中,中间新兴内容项220在时间t2,0处的状态是第一内容项140的结束状态146的副本。为此,男孩目标实现器222在时间t2,0处的位置和动作与男孩动作执行202在时间t1,n处的位置和动作相同。女孩目标实现器224在时间t2,0处的位置和动作与女孩动作执行元素204在时间t1,n处的位置和动作相同。机器人目标实现器226在时间t2,0的位置和动作与机器人动作执行元素206在时间t1,n的位置和动作相同。无人机目标实现器228在时间t2,0处的位置和动作与无人机动作执行元素208在时间t1,n处的位置和动作相同。
图2D和图2E分别示出了中间新兴内容项220的中间状态220b和220c。如图2D所示,中间新兴内容项220的中间状态220B对应于时间t2,7。在中间状态220b下,男孩目标实现器222和女孩目标实现器224执行的动作不同于男孩目标实现器222和女孩目标实现器224在中间新兴内容项220的初始状态220a下执行的动作。例如,如图2D所示,女孩目标实现器224已转身,并且男孩目标实现器222已举起其臂。
如图2E所示,中间新兴内容项220的中间状态220c对应于时间t2,15。在中间状态220c下,男孩目标实现器222和女孩目标实现器224执行的动作不同于男孩目标实现器222和女孩目标实现器224在中间新兴内容项220的初始状态220a和中间状态220b下执行的动作。例如,如图2E所示,女孩目标实现器224和无人机目标实现器228即将从场景退出,并且机器人目标实现器226朝向男孩目标实现器222移动。
图2F示出了中间新兴内容项220在时间t2,n处的结束状态220d。如图2F所示,在一些具体实施中,中间新兴内容项220的结束状态220d与第二内容项150的初始状态156匹配(例如,相同)。因此,在一些具体实施中,中间新兴内容项220在时间t2,n处的状态是第二内容项150的初始状态156的副本。为此,男孩目标实现器222在时间t2,n处的位置和动作与男孩动作执行元素202在时间t3,0处的位置和动作相同。机器人目标实现器226在时间t2,n的位置和动作与机器人动作执行元素206在时间t3,n的位置和动作相同。
图3A示出了用于训练目标实现器引擎120的示例性***100a。在一些具体实施中,***100a包括目标实现器引擎120、训练器130、动作提取器174和目标确定器176。
在一些具体实施中,动作提取器174获得第一内容项140,并且从第一内容项140提取动作142。在一些具体实施中,动作提取器174执行场景分析以识别正在第一内容项140中执行的所提取的动作142。尽管图3A示出了单个内容项,但在一些具体实施中,动作提取器174获得多个内容项(例如,一系列内容项,例如,具有许多剧集的整季)。在一些具体实施中,动作提取器174将所提取的动作142提供给训练器130和/或目标确定器176。
在一些具体实施中,目标确定器176基于所提取的动作142确定第一组目标144。在一些具体实施中,目标确定器176从所提取的动作142导出第一组目标144。在一些具体实施中,目标确定器176通过分析所提取的动作142来学习第一组目标144。因此,在一些具体实施中,第一组目标144被称为所学习的目标或导出的目标。在一些具体实施中,目标确定器176包括语义分析仪,该语义分析仪对所提取的动作142执行语义分析以确定第一组目标144。例如,在一些具体实施中,目标确定器176对与由第一内容项140中的动作执行元素所说的对话相对应的文本执行语义分析。
在一些具体实施中,目标确定器176将第一组目标144提供给目标实现器引擎120。在一些具体实施中,目标实现器引擎120基于第一组目标144生成动作122。例如,在一些具体实施中,目标实现器引擎120生成推进(例如,完成或满足)第一组目标144的动作122。在一些具体实施中,至少在训练阶段期间,目标实现器引擎120向训练器130提供所生成的动作122。
在一些具体实施中,训练器130包括动作比较器134和目标实现器引擎参数确定器136(下文为简洁起见,称为“参数确定器136”)。在一些具体实施中,参数确定器136基于所提取的动作142确定参数132。在一些具体实施中,动作比较器134将所生成的动作122与所提取的动作142进行比较。如果动作比较器134确定所生成的动作122与所提取的动作142匹配,则训练器130确定目标实现器引擎120的训练完成。如果动作比较器134确定所生成的动作122与所提取的动作142不匹配,则参数确定器136调节参数132。在一些具体实施中,参数确定器136基于所生成的动作122和所提取的动作142之间的差异来调节参数132。在一些具体实施中,对参数132的调节是所生成的动作122和所提取的动作142之间的差值的函数(例如,与该差值成正比)。
图3B示出了用于合成中间新兴内容项的示例性***100b。在一些具体实施中,***100b包括状态获得器178和中间新兴内容合成器300。在图3B的示例中,中间新兴内容合成器300包括新兴内容引擎110、目标实现器引擎120-1、...、120-η和情节模板数据存储库160。
在一些具体实施中,状态获得器178获得第一内容项140的结束状态146和第二内容项150的初始状态156。在一些具体实施中,状态获得器178获得第一内容项140。在此类具体实施中,状态获得器178分析第一内容项140以确定第一内容项140的结束状态146。例如,在一些具体实施中,状态获得器178对第一内容项140执行场景分析,以识别在第一内容项140中的动作执行元素以及在第一内容项结束时动作执行元素的位置和动作。在一些具体实施中,状态获得器178将第一内容项140的结束状态146提供给中间新兴内容合成器300。
在一些具体实施中,状态获得器178获得第二内容项150。在此类具体实施中,状态获得器178分析第二内容项150以确定第二内容项150的初始状态156。例如,在一些具体实施中,状态获得器178对第二内容项150执行场景分析,以识别在第二内容项150中的动作执行元素以及在第二内容项开始时动作执行元素的位置和动作。在一些具体实施中,状态获得器178将第二内容项150的初始状态156提供给中间新兴内容合成器300。
在一些具体实施中,中间新兴内容合成器300利用第一内容项140的结束状态146和第二内容项150的初始状态156来合成中间新兴内容项310。中间新兴内容项310跨越中间持续时间T2,该中间持续时间介于对应于第一内容项140的第一持续时间T1和对应于第二内容项150的第二持续时间T2之间。
在一些具体实施中,新兴内容引擎110基于第一内容项140的结束状态146和第二内容项150的初始状态156来确定一组有界目标(例如,目标112)。在一些具体实施中,新兴内容引擎110从情节模板数据存储库160选择情节模板162。在此类具体实施中,目标112是所选择的情节模板162的函数。在一些具体实施中,目标112由与第一内容项140的结束状态146相关联的第一组目标(例如,图1所示的第一组目标144)和与第二内容项150的初始状态156相关联的第二组目标(例如,图1所示的第二组目标154)界定。
在一些具体实施中,目标实现器引擎120-1、...、120-η从新兴内容引擎1120获得目标112。目标实现器引擎120-1、...、120-η基于目标112生成相应的动作122-1、...、122-η。在一些具体实施中,动作122-1、...、122-η共同形成中间新兴内容项310。
图4A是根据一些具体实施的***400的框图。在一些具体实施中,***400包括神经网络***410(下文为简洁起见,称为“神经网络410”)和训练器130。在一些具体实施中,神经网络410实现目标实现器引擎(例如,图3A所示的目标实现器引擎120)。在一些具体实施中,训练器130向神经网络410提供神经网络参数432(例如,神经网络权重,例如图3A所示的参数132)。
在一些具体实施中,神经网络410包括长短期记忆(LSTM)递归神经网络(RNN)。在图4A的示例中,神经网络410包括输入层420、第一隐藏层422、第二隐藏层424、分类层426以及目标选择模块428。虽然作为示例,神经网络410包括两个隐藏层,但是本领域的普通技术人员将从本公开理解,在各种具体实施中,也存在一个或多个附加隐藏层。添加附加隐藏层会增加计算复杂性和存储器需求,但可改善某些应用的性能。
在各种具体实施中,输入层420接收各种输入。在一些具体实施中,输入层420获得(例如,接收)从一组所提取的动作导出的一组目标。在图4A的示例中,输入层420接收从图3A所示的第一内容项140的所提取的动作142导出的第一组所学习的目标144。在一些具体实施中,神经网络410包括特征提取模块(未示出),该特征提取模块基于第一组所学习的目标144来生成特征流(例如,特征向量)。在此类具体实施中,特征提取模块将特征流提供到输入层420。因此,在一些具体实施中,输入层420接收特征流,该特征流是所学习的目标144的函数。在各种具体实施中,输入层420包括多个LSTM逻辑单元420a,这些逻辑单元也被本领域的普通技术人员称为神经元或神经元的模型。在一些此类具体实施中,从特征到LSTM逻辑单元420a的输入矩阵包括矩形矩阵。此矩阵的大小是特征部流中包含的特征部数量的函数。
在一些具体实施中,第一隐藏层422包括多个LSTM逻辑单元422a。在一些具体实施中,LSTM逻辑单元422a的数量在约10个至500个之间的范围内。本领域的普通技术人员将会理解,在此类具体实施中,每层的LSTM逻辑单元的数量比先前已知的方法小几个数量级(约为(X101)-(X102)),这允许此类具体实施被嵌入高度资源受限的设备中。如图4A的示例所示,第一隐藏层422从输入层420接收其输入。
在一些具体实施中,第二隐藏层424包括多个LSTM逻辑单元424a。在一些具体实施中,LSTM逻辑单元424a的数量与输入层420中的LSTM逻辑单元420a的数量或第一隐藏层422中的LSTM逻辑单元422a的数量相同或类似。如图4A的示例所示,第二隐藏层424从第一隐藏层422接收其输入。附加地或另选地,在一些具体实施中,第二隐藏层424从输入层420接收其输入。
在一些具体实施中,分类层426包括多个LSTM逻辑单元426a。在一些具体实施中,LSTM逻辑单元426a的数量与输入层420中的LSTM逻辑单元420a的数量、第一隐藏层422中的LSTM逻辑单元422a的数量或第二隐藏层424中的LSTM逻辑单元424a的数量相同或类似。在一些具体实施中,分类层426包括多项式逻辑函数(例如,柔性最大值函数)的具体实施,该多项式逻辑函数产生的输出数量大约等于可能动作的数量。在一些具体实施中,每个输出包括对应动作匹配所提取的动作142的概率或置信度测量。
在一些具体实施中,动作选择模块428通过选择由分类层426提供的前N个候选动作而生成动作122。在一些具体实施中,前N个动作候选很可能与所提取的动作142相匹配。在一些具体实施中,动作选择模块428向训练器130提供所生成的动作122,使得训练器130可将所生成的动作122与所提取的动作142进行比较。
在一些具体实施中,训练器130(例如,动作比较器134)将所生成的动作122与所提取的动作142进行比较。如果所生成的动作122与所提取的动作142匹配,则训练器130确定神经网络410已被训练。如果所生成的动作122与所提取的动作142不匹配,则训练器130(例如,参数确定器136)调节神经网络参数432。在一些具体实施中,训练器130(例如,参数确定器136)迭代地调节神经网络参数432,直到所生成的动作122匹配所提取的动作142。在一些具体实施中,如果所生成的动作122在与所提取的动作142的一定相似程度内,则所生成的动作122与提取的动作142匹配。
在一些具体实施中,使用单个内容项(例如,图3A所示的第一内容项140)训练神经网络410。在一些具体实施中,使用多个内容项(例如,图3B所示的第一内容项140和第二内容项150)训练神经网络410。在一些具体实施中,使用一系列内容项(例如,具有许多剧集的节目的整季)来训练神经网络410。在一些具体实施中,使用多个系列的内容项(例如,节目的多季,其中每季具有许多剧集)来训练神经网络410。
参见图4B,神经网络410基于一个或多个输入生成中间新兴内容项310。在一些具体实施中,神经网络410基于一组有界目标(例如,基于图3B所示的一组有界目标112)生成中间新兴内容项310。如本文所讨论,在一些具体实施中,有界目标从第一内容项的结束状态和第二内容项的初始状态导出。例如,如图3B所示,从第一内容项140的结束状态146和第二内容项150的初始状态156导出目标112。
在一些具体实施中,神经网络410利用情节模板162来生成中间新兴内容项310。在一些具体实施中,由神经网络410生成的动作122是情节模板162a的函数。例如,如果情节模板162a是喜剧情节模板,则由神经网络410生成的动作122满足喜剧情节模板。
在一些具体实施中,神经网络410利用场景信息440(例如,关于SR布景的环境信息)来生成中间新兴内容项310。在一些具体实施中,场景信息440指示场景的边界(例如,SR布景的边界)。在此类具体实施中,形成中间新兴内容项310的动作122在场景的边界内执行。在一些具体实施中,场景信息440指示关于场景的环境信息。在此类具体实施中,基于场景的环境生成形成中间新兴内容项310的动作122。
在一些具体实施中,神经网络410利用关于实例化装备/字符442的信息来生成中间新兴内容项310。例如,在一些具体实施中,形成中间新兴内容项310的动作122包括与实例化装备/字符442进行交互。
在一些具体实施中,神经网络410利用用户指定的约束444来生成中间新兴内容项310。在一些具体实施中,形成中间新兴内容项310的动作122满足用户指定的约束444。例如,在一些具体实施中,用户指定的约束444指定中间新兴内容项310将发生的位置。在此类具体实施中,形成中间新兴内容项310的动作122发生在用户指定的约束444中指定的位置处。在一些具体实施中,用户指定的约束444指定要包括在中间新兴内容项310中的特定装备/字符。在此类具体实施中,形成中间新兴内容项310的动作122与用户指定的约束444中指示的装备/字符相关联。
图5A是根据一些具体实施的示例性用户界面500的图示。用户界面500显示关于内容系列(例如,节目)的信息。在图5A的示例中,用户界面500包括节目名称502、季数504、评级506、第一集表示510、第二集表示512、第三集表示514、第四集表示516、以及每集的播放示能表示520。
图5B示出了对应于创建中间新兴内容项(例如,间隙内容,例如,间隙剧集)的请求的用户输入530a。在图5B的示例中,检测用户输入530a包括检测正在将第一集表示510和第二集表示512远离彼此移动的接触。在一些具体实施中,用户输入530a包括缩放手势,该缩放手势在第一集表示510和第二集表示512之间缩放。在一些具体实施中,用户输入530a对应于创建跨越节目的第一集和第二集之间的中间持续时间的中间新兴内容项的请求。
图5C示出了包括标准生成示能表示542和定制生成示能表示544的提示540。在一些具体实施中,用户界面500响应于接收到用户输入530a而显示提示540。在一些具体实施中,标准生成示能表示542的用户选择对应于以默认布景生成中间新兴内容项的请求。在一些具体实施中,定制生成示能表示544的用户选择对应于以定制布景生成中间新兴内容项的请求。
图5D示出了选择标准生成示能表示542的用户输入530b。在一些具体实施中,用户输入530b对应于以默认布景生成中间新兴内容项的请求。
图5E示出了间隙内容表示511,其表示跨越第一集与第二集之间的中间持续时间的中间新兴内容项(例如,间隙内容)。如图5E所示,间隙内容表示511与播放示能表示520相关联。播放示能表示520的用户选择触发间隙内容的回放。
图5F示出了选择标准定制生成示能表示544的用户输入530c。在一些具体实施中,用户输入530c对应于基于定制布景(例如,代替默认布景或除了默认布景之外)生成间隙内容的请求。
图5G示出了允许用户定制间隙内容的生成的示例性定制屏幕550。在图5G的示例中,定制屏幕550包括情节示能表示552、位置示能表示554、动作执行元素示能表示556、时间示能表示558和生成示能表示560。
情节示能表示552允许用户为间隙内容选择情节模板。例如,在一些具体实施中,情节示能表示552允许用户选择图1所示的情节模板162中的一者。
位置示能表示554允许用户为间隙内容选择位置。在一些具体实施中,位置示能表示554允许用户选择第一集结束的位置。在一些具体实施中,位置示能表示554允许用户选择第二集开始的位置。在一些具体实施中,位置示能表示554允许用户指定与第一集和第二集的位置不同的位置。
动作执行元素示能表示556允许用户为间隙内容选择动作执行元素。在一些具体实施中,动作执行元素示能表示556允许用户从第一集选择动作执行元素。在一些具体实施中,动作执行元素示能表示556允许用户从第二集选择动作执行元素。在一些具体实施中,动作执行元素示能表示556允许用户选择不包括在第一集和第二集中的其他动作执行元素。
时间示能表示558允许用户为间隙内容选择持续时间。在一些具体实施中,时间示能表示允许用户为间隙内容指定与所建议持续时间不同的持续时间。
生成示能表示560允许用户基于对情节示能表示552、位置示能表示554、动作执行元素示能表示556和时间示能表示558的选择来生成间隙内容。
参考图5H,在一些具体实施中,情节示能表示552中的一些是不能够选择的。在图5H的示例中,营救情节示能表示是不能够选择的。在一些具体实施中,某些情节示能表示不能够基于第一集和第二集与之相关联的情节的类型来选择。例如,如果第一集和第二集与喜剧情节相关联,则不能够为间隙内容选择营救情节示能表示。
在一些具体实施中,位置示能表示554中的一些是不能够选择的。在图5H的示例中,第一集结束的位置不可用于间隙内容(例如,因为该位置在第一集结束时被损坏/破坏)。
在一些具体实施中,动作执行元素示能表示中的一些是不能够选择的。例如,如果特定动作执行元素在第一集期间死亡,则对应的动作执行元素示能表示是不能够选择的,因为该特定动作执行元素不再可用于间隙内容。
参见图5I,在一些具体实施中,间隙内容表示511与修改示能表示570和共享示能表示580相关联。修改示能表示570允许用户修改间隙内容。共享示能表示580允许用户共享间隙内容。图5I示出了选择修改示能表示570的用户输入530d。
图5J示出了响应于选择修改示能表示570的用户输入530d而显示的修改屏幕572。在一些具体实施中,修改屏幕572包括情节示能表示552、位置示能表示554、动作执行元素示能表示556和时间示能表示558。因此,修改屏幕572允许用户改变间隙内容的情节模板、位置、动作执行元素和/或持续时间。
图5K示出了选择共享示能表示580的用户输入530e。在一些具体实施中,用户输入530e对应于与另一用户共享间隙内容的请求。
图5L示出了响应于用户输入530e而显示的共享表单590。在一些具体实施中,共享表单590包括本地共享示能表示592、消息示能表示594、邮件示能表示596和发布示能表示598。在一些具体实施中,本地共享示能表示592允许用户与附近设备共享间隙内容。消息示能表示594允许用户经由消息(例如,即时消息)发送间隙内容。邮件示能表示596允许用户经由电子邮件发送间隙内容。发布示能表示598允许用户发布间隙内容(例如,在内容存储库上)并获得用于发布间隙内容的额度。
图6A是生成中间新兴内容项的方法600的流程图表示。在各种具体实施中,方法600由具有非暂态存储器以及与该非暂态存储器耦接的一个或多个处理器的设备(例如,图9所示的设备900)执行。在一些具体实施中,方法600由处理逻辑部件(包括硬件、固件、软件或其组合)执行。在一些具体实施中,方法600由执行存储在非暂态计算机可读介质(例如,存储器)中的代码的处理器执行。简而言之,在一些具体实施中,方法600包括获得第一内容项的结束状态,获得第二内容项的初始状态,以及基于第一内容项的结束状态和第二内容项的初始状态来合成中间新兴内容项。
如框610所表示,在一些具体实施中,方法600包括获得跨越第一持续时间的第一内容项的结束状态。例如,如图3B所示,方法600包括获得跨越第一持续时间T1的第一内容项140的结束状态146。在一些具体实施中,第一内容项的结束状态指示目标实现器在第一持续时间结束时的第一状态。例如,如图2B所示,第一内容项140的结束状态146指示男孩目标实现器222的第一状态。
如框620所表示,在一些具体实施中,方法600包括获得跨越第二持续时间的第二内容项的初始状态。例如,如图3B所示,方法600包括获得跨越第二持续时间T2的第二内容项150的初始状态156。在一些具体实施中,第二内容项的初始状态指示目标实现器在该第二持续时间开始时的第二状态。例如,如图2F所示,第二内容项150的初始状态156指示男孩目标实现器222的第二状态。
如框630所表示,在一些具体实施中,方法600包括合成跨越介于该第一持续时间的结束和该第二持续时间的开始之间的中间持续时间的中间新兴内容项。例如,如图3B所示,中间新兴内容项310跨越中间持续时间T2,该中间持续时间介于第一持续时间T1和第二持续时间T3之间。
如框632所表示,在一些具体实施中,方法600包括通过将第一内容项的结束状态和第二内容项的初始状态提供给新兴内容引擎来为目标实现器生成一组有界目标。例如,通过向新兴内容引擎110提供第一内容项140的结束状态146和第二内容项150的初始状态156来生成图3B所示的一组有界目标112。在一些具体实施中,该组有界目标由第一内容项的结束状态和第二内容项的初始状态界定。例如,图3B所示的目标112由第一内容项140的结束状态146和第二内容项150的初始状态156界定。
如框634所表示,在一些具体实施中,方法600包括通过将一组有界目标提供给目标实现器引擎来为目标实现器生成一组动作。例如,通过将一组有界目标112提供给目标实现器引擎120-1来为目标实现器(例如,图2C所示的男孩目标实现器222)生成图3B所示的一组动作122-1。
如框636所表示,在一些具体实施中,方法600包括渲染中间新兴内容项以供显示。例如,如图1所示,形成中间新兴内容项的所生成的动作122-1、...、122-η被发送到渲染和显示流水线。
在各种具体实施中,合成中间新兴内容项允许用户查看最初不是由创建第一内容项和第二内容项的实体创建的新内容。因此,合成中间新兴内容项为用户提供了观看附加内容的选项,从而增强了用户体验并增加了设备的可操作性。
参见图6B,如框630a所表示,在一些具体实施中,中间新兴内容项的初始状态在与第一内容项的结束状态的一定相似程度内。例如,如图2C所示,中间新兴内容项220的初始状态220a与第一内容项140的结束状态146匹配(例如,相同)。在各种具体实施中,中间新兴内容项的初始状态在与第一内容项的结束状态的一定相似程度内,提供中间新兴内容项与第一内容项的结束状态之间的连续性,从而使中间新兴内容项看起来更真实。
如框630b所表示,在一些具体实施中,中间新兴内容项的结束状态在与第二内容项的初始状态的一定相似程度内。例如,如图2F所示,中间新兴内容项220的结束状态220d与第二内容项150的初始状态156匹配(例如,相同)。在各种具体实施中,中间新兴内容项的结束状态在与第二内容项的初始状态的一定相似程度内,提供中间新兴内容项与第二内容项的初始状态之间的连续性,从而使中间新兴内容项看起来更真实。
如框630c所表示,在一些具体实施中,在中间持续时间开始时目标实现器的第三状态在与在第一持续时间结束时目标实现器的第一状态的一定相似程度内。例如,如图2C所示,男孩目标实现器222在时间t2,0处的状态与男孩动作执行元素202在时间t1,n处的状态匹配(例如,相同)。
如框630d所表示,在一些具体实施中,在中间持续时间结束时目标实现器的第四状态在与在第二持续时间开始时目标实现器的第二状态的一定相似程度内。例如,如图2F所示,男孩目标实现器222在时间t2,n处的状态与男孩动作执行元素202在时间t3,0处的状态匹配。
如框630e所表示,在一些具体实施中,一组动作指示目标实现器从第一持续时间结束时的第一状态到第二持续时间开始时的第二状态的转变。例如,图2C-图2F指示男孩目标实现器222从其在第一持续时间T1结束时的状态到其在第二持续时间T3开始时的状态的转变。
如框630f所表示,在一些具体实施中,目标实现器在第一内容项中不存在并且存在于第二内容项中,并且一组动作对应于目标实现器进入第二内容项。
如框630g所表示,在一些具体实施中,目标实现器存在于第一内容项中并且在第二内容项中不存在,并且一组动作对应于目标实现器从第一内容项离开。例如,图2C-图2F示出女孩目标实现器224的离开。
如框640所表示,在一些具体实施中,第一内容项的结束状态指示表征包括在第一内容项内的第一场景的场景信息,并且第二内容项的初始状态指示表征包括在第二内容项内的第二场景的场景信息。
如框642所表示,在一些具体实施中,合成中间新兴内容项包括基于表征第一场景的场景信息和表征第二场景的场景信息来合成第三场景。
如框644所表示,在一些具体实施中,第一场景对应于第一地理位置,第二场景对应于第二地理位置,并且第三场景对应于在跨越第一地理位置和第二地理位置之间的路线上的第三地理位置。
如框610a所表示,在一些具体实施中,方法600包括对第一内容项执行场景分析,以便识别目标实现器并确定目标实现器的第一状态。在各种具体实施中,执行场景分析减少了用户手动指定第一内容项的结束状态的需要,从而减少了用户与设备的交互次数并改善了电池寿命。
如框620a所表示,在一些具体实施中,方法600包括对第二内容项执行场景分析,以便识别目标实现器并确定目标实现器的第二状态。在各种具体实施中,执行场景分析减少了用户手动指定第二内容项的初始状态的需要,从而减少了用户与设备的交互次数并改善了电池寿命。
参见图6D,如框650所表示,在一些具体实施中,方法600包括从多个情节模板中选择情节模板,并且基于情节模板合成中间新兴内容项。例如,如图1所示,新兴内容引擎110从情节模板数据存储库160选择情节模板162,并且新兴内容引擎110利用所选择的情节模板162来生成目标112。在各种具体实施中,基于情节模板合成中间新兴内容项使中间新兴内容项看起来与第一内容项和第二内容项一样真实,从而增强用户体验并提高设备的可操作性。
如框652所表示,在一些具体实施中,基于第一内容项的结束状态和第二内容项的初始状态来选择情节模板。例如,在一些具体实施中,方法600包括选择由第一内容项和第二内容项使用的相同情节模板。
如框654所表示,在一些具体实施中,选择情节模板包括获得对情节模板的用户选择(例如,经由图5G所示的情节示能表示552)。在各种具体实施中,允许用户选择情节模板给予用户对中间新兴内容项的情节/故事线的控制,从而增强用户体验并提高设备的可操作性。
如框656所表示,在一些具体实施中,方法600包括将情节模板提供给新兴内容引擎,以便允许新兴内容引擎基于情节模板生成一组有界目标。例如,如图2B所示,基于情节模板162a生成临时目标210-218。
图7A是训练目标实现器引擎以生成与中间新兴内容项相对应的动作的方法700的流程图表示。在各种具体实施中,方法700由具有非暂态存储器以及与该非暂态存储器耦接的一个或多个处理器的设备(例如,图9所示的设备900)执行。在一些具体实施中,方法700由处理逻辑部件(包括硬件、固件、软件或其组合)执行。在一些具体实施中,方法700由执行存储在非暂态计算机可读介质(例如,存储器)中的代码的处理器执行。简而言之,在一些具体实施中,方法700包括提取由动作执行元素执行的一组动作,基于该组动作确定目标实现器的一组目标,以及训练为目标实现器生成动作的目标实现器引擎。
如框710所表示,在一些具体实施中,方法700包括从内容项中提取由内容项中的动作执行元素执行的一组动作。例如,如图3A所示,动作提取器174从第一内容项140提取第一组动作142。
如框720所表示,在一些具体实施中,方法700包括通过语义分析基于一组动作来确定目标实现器的一组目标。例如,如图3A所示,目标确定器176利用语义分析从所提取的动作142导出第一组所学习的目标144。在一些具体实施中,目标实现器的合成现实(SR)表示对应于动作执行元素。
如框730所表示,在一些具体实施中,方法700包括基于一组目标来训练为目标实现器生成动作的目标实现器引擎。例如,如图3A所示,训练器130基于第一组所学习的目标144训练目标实现器引擎120。在一些具体实施中,当目标实现器引擎生成的动作在从内容项提取的一组动作的可接受性阈值内时,训练完成。例如,如图3A所示,当所生成的动作122在所提取的动作142的可接受性阈值内时,目标实现器引擎120的训练完成。在一些具体实施中,当目标实现器引擎生成的动作在与从内容项提取的一组动作的一定相似程度内(例如,与该组动作相同)时,训练完成。
在各种具体实施中,训练目标实现器引擎允许目标实现器引擎生成与中间新兴内容项相对应的动作,从而为用户提供更多内容来观看。为用户提供更多内容来观看增强了用户体验并提高了设备的可操作性。使目标实现器引擎能够生成与中间新兴内容项相对应的动作与内容创建者组织演出内容相比资源密集度较低。因此,训练目标实现器引擎倾向于节省计算资源。
如框710a所表示,在一些具体实施中,动作执行元素执行推进内容项中的情节的动作。在一些具体实施中,动作执行元素是字符或装备(例如,图2A所示的男孩动作执行元素202)。
如框710b所表示,在一些具体实施中,方法700包括对内容项执行场景分析,以便识别动作执行元素并且提取动作执行元素在内容项中执行的一组动作。例如,如图3A所示,动作提取器174对第一内容项140执行场景分析并从第一内容项140提取第一组动作142。
如框720a所表示,在一些具体实施中,SR表示包括增强现实(AR)表示。在一些具体实施中,SR表示包括虚拟现实(VR)表示。在一些具体实施中,SR表示包括混合现实(MR)表示。
如框730a所表示,在一些具体实施中,方法700包括当目标实现器引擎生成的动作在与从内容项提取的动作的一定相似程度内时,确定训练完成。例如,如图3A所示,当训练器130确定所生成的动作122与提取的动作142匹配时,目标实现器引擎120的训练完成。
如框730b所表示,在一些具体实施中,方法700包括确定目标实现器引擎的一个或多个参数的值。例如,如图3A所示,训练器130确定目标实现器引擎120的参数132。
如框730c所表示,在一些具体实施中,方法700包括将由目标实现器引擎生成的动作与从内容项中提取的一组动作进行比较,并且基于该比较来调节一个或多个参数的值。例如,如图3A所示,动作比较器134将所生成的动作122与所提取的动作142进行比较,并且参数确定器136基于所生成的动作122和所提取的动作142之间的差异来调节参数132。
如框730d所表示,在一些具体实施中,对一个或多个参数的值的调节量是由目标实现器生成的动作与从内容项提取的一组动作之间的相异度的函数。例如,如图3A所示,参数确定器136基于所生成的动作122和所提取的动作142之间的差异来调节参数132。
参见图7B,如框740所表示,在一些具体实施中,方法700包括从另一个内容项中提取目标实现器在另一个内容项中执行的另一组动作。在一些具体实施中,方法700包括基于另一组动作来确定另一组目标。在一些具体实施中,方法700包括基于另一组目标进一步训练目标实现器引擎。
如框740a所表示,在一些具体实施中,方法700包括当目标实现器引擎生成与第一组动作在一定相似性程度内的第三组动作和与第二组动作在一定相似性程度内的第四组动作时,确定训练完成。
在各种具体实施中,利用多个内容项(例如,节目的多个剧集或整季)来训练目标实现器引擎产生更真实的中间新兴内容项,从而增强用户体验并提高生成中间新兴内容项的设备的可操作性。
如框750所表示,在一些具体实施中,方法700包括基于一组动作训练为目标实现器生成目标的新兴内容引擎。例如,训练图1所示的新兴内容引擎110。
如框750a所表示,在一些具体实施中,方法700包括当新兴内容引擎生成与基于第一组目标确定的第一组目标匹配的目标时,确定新兴内容引擎的训练完成。例如,如图1所示,当由新兴内容引擎110生成的目标112与第一组所学习的目标144和/或第二组所学习的目标匹配154时,新兴内容引擎110的训练完成。
如框760所表示,在一些具体实施中,方法700包括提取另一个动作执行元素在内容项中执行的另一组动作,基于另一组动作确定另一组目标,以及基于另一组目标来训练另一个目标实现器引擎,该另一个目标实现器引擎为对应于另一个动作执行元素的另一个目标实现器生成动作。
如框770所表示,在一些具体实施中,方法700包括确定与内容项相对应的情节模板,以及在训练期间向目标实现器引擎提供情节模板。例如,如图1所示,新兴内容引擎110从情节模板数据存储库160选择情节模板162中的一者。
如框770a所表示,在一些具体实施中,方法700包括基于来自目标实现器的一组目标和/或基于由内容项中的动作执行元素执行的一组动作从多个情节模板中选择情节模板。基于该组目标和/或该组动作选择情节模板使得中间新兴内容项看起来更真实,从而增强用户体验并改善正在合成中间新兴内容项的设备的有效性。
图8A是根据一些具体实施的生成中间新兴内容项的方法800的流程图表示。在各种具体实施中,方法800由具有非暂态存储器以及与该非暂态存储器耦接的一个或多个处理器的设备(例如,图9所示的设备900)执行。在一些具体实施中,方法800由处理逻辑部件(包括硬件、固件、软件或其组合)执行。在一些具体实施中,方法800由执行存储在非暂态计算机可读介质(例如,存储器)中的代码的处理器执行。简而言之,在一些具体实施中,方法800包括显示包括内容项的表示的用户界面,获得与生成中间新兴内容项的请求相对应的用户输入,以及显示中间新兴内容项的表示。
如框810所表示,在一些具体实施中,方法800包括在显示器上显示用户界面,该用户界面包括跨越第一持续时间的第一内容项的第一表示以及跨越第二持续时间的第二内容项的第二表示。例如,如图5A所示,用户界面500包括第一集表示510和第二集表示512。
如框820所表示,在一些具体实施中,方法800包括经由输入设备获得对应于生成中间新兴内容项的请求的用户输入,该中间新兴内容项跨越介于第一持续时间的结束和第二持续时间的开始之间的中间持续时间。例如,如图5B所示,用户输入530a对应于创建跨越介于第一集与第二集之间的中间持续时间的间隙内容的请求。
如框830所表示,在一些具体实施中,方法800包括响应于获得用户输入,在显示器上显示第一内容项的第一表示和第二内容项的第二表示之间的中间新兴内容项的表示。在一些具体实施中,中间新兴内容项在获得用户输入之后合成。例如,如图5E所示,在第一集表示510和第二集表示512之间显示间隙内容表示511。
参见图8B,如框840所表示,在一些具体实施中,响应于获得用户输入,方法800包括显示提示,该提示包括对应于生成中间新兴内容项的标准版本的第一示能表示和对应于生成中间新兴内容项的定制版本的第二示能表示。例如,如图5D所示,提示540包括标准生成示能表示542和定制生成示能表示544。显示提示允许用户生成中间新兴内容项的标准版本或中间新兴内容项的定制版本,从而提供更多的设备功能。
如框842所表示,在一些具体实施中,方法800包括检测对第一示能表示的选择。在一些具体实施中,响应于检测到对与标准版本相对应的第一示能表示的选择,方法800包括合成中间新兴内容项的标准版本而不获得附加用户输入。例如,如图5D-图5E所示,响应于接收到用户输入530b,设备生成间隙内容并显示间隙内容表示511。
如框844所表示,在一些具体实施中,方法800包括检测对第二示能表示的选择。在一些具体实施中,响应于检测到对与定制版本相对应的第二示能表示的选择,方法800包括在显示器上显示允许定制中间新兴内容项的定制屏幕。例如,如图5F-图5G所示,响应于用户输入530c,设备显示定制屏幕550。
如框846所表示,在一些具体实施中,定制屏幕包括对应于中间新兴内容项的相应情节模板的多个情节示能表示。例如,如图5G所示,定制屏幕550包括情节示能表示552。
如框846a所表示,在一些具体实施中,情节示能表示中的一者或多者基于第一内容项的结束状态和第二内容项的初始状态是不能够选择的。例如,如图5H所示,情节示能表示552中的一些是不能够选择的。
如框848所表示,在一些具体实施中,定制屏幕包括对应于中间新兴内容项的相应位置的多个位置示能表示。例如,如图5G所示,定制屏幕550包括位置示能表示554。
如框848a所表示,在一些具体实施中,多个位置示能表示中的一个位置示能表示对应于第一内容项的结束状态。例如,如图5G所示,位置示能表示554中的一者允许用户为间隙内容选择与第一集结束的位置相对应的位置。
如框848b所表示,在一些具体实施中,多个位置示能表示中的一个位置示能表示对应于第二内容项的初始状态。例如,如图5G所示,位置示能表示554中的一者允许用户为间隙内容选择与第二集开始的位置相对应的位置。
如框848c所表示,在一些具体实施中,多个位置示能表示中的一个包括接受中间新兴内容项的位置的输入字段。例如,如图5G所示,位置示能表示554中的一者包括允许用户指定与第一集结束的位置和第二集开始的位置不同的位置的输入字段。
如框850所表示,在一些具体实施中,定制屏幕包括多个示能表示,该多个示能表示对应于可包括在中间新兴内容项中的动作执行元素。例如,如图5G所示,定制屏幕550包括各种动作执行元素示能表示556。
如框850a所表示,在一些具体实施中,多个示能表示中的一个示能表示对应于来自第一内容项的动作执行元素。例如,如图5G所示,动作执行元素示能表示556中的一些对应于来自第一集的动作执行元素。
如框850b所表示,在一些具体实施中,多个示能表示中的一个示能表示对应于来自第二内容项的动作执行元素。例如,如图5G所示,动作执行元素示能表示556中的一些对应于来自第二集的动作执行元素。
如框850c所表示,在一些具体实施中,多个示能表示中的一个示能表示对应于第一内容项和第二内容项中不存在的动作执行元素。例如,如图5G所示,动作执行元素示能表示556中的一些对应于既不存在于第一集也不存在于第二集中的动作执行元素。
参见图8C,如框860所表示,在一些具体实施中,定制屏幕包括对应于中间新兴内容项的相应持续时间的多个时间示能表示。例如,如图5G所示,定制屏幕550包括时间示能表示558。
如框870所表示,在一些具体实施中,中间新兴内容项的表示与允许与共享示能表示相关联,该共享示能表示允许与其他设备共享中间新兴内容项。例如,如图5I所示,间隙内容表示511与共享示能表示580相关联。
如框880所表示,在一些具体实施中,中间新兴内容项的表示与允许修改中间新兴内容项的修改示能表示相关联。例如,如图5I所示,间隙内容表示511与修改示能表示570相关联。
如框880a所表示,在一些具体实施中,方法800包括检测对修改示能表示的选择。响应于检测到对修改示能表示的选择,方法800包括显示修改屏幕,该修改屏幕允许修改与中间新兴内容项相关联的情节模板、位置、动作执行元素和持续时间。例如,如图5I-图5J所示,响应于接收到用户输入530d,显示修改屏幕572。
图9是根据一些具体实施的设备900的框图。尽管示出了一些具体特征,但本领域的普通技术人员将从本公开中认识到,为简洁起见并且为了不模糊本文所公开的具体实施的更多相关方面,未示出各种其他特征。为此,作为非限制性示例,在一些具体实施中,设备900包括一个或多个处理单元(CPU)901、网络接口902、编程接口903、存储器904以及用于互连这些和各种其他部件的一个或多个通信总线905。
在一些具体实施中,提供了网络接口902以便除其他用途之外,在云托管网络管理***与包括一个或多个兼容设备的至少一个专用网络之间建立和维护元数据隧道。在一些具体实施中,一条或多条通信总线905包括互连和控制***部件之间的通信的电路。存储器904包括高速随机存取存储器,诸如DRAM、SRAM、DDR RAM或其他随机存取固态存储器设备,并且可包括非易失性存储器,诸如一个或多个磁盘存储设备、光盘存储设备、闪存存储器设备或其他非易失性固态存储设备。存储器904任选地包括与一个或多个CPU 901远程定位的一个或多个存储设备。存储器904包括非暂态计算机可读存储介质。
在一些具体实施中,存储器904或存储器904的非暂态计算机可读存储介质存储以下程序、模块和数据结构,或其子集:包括任选操作***906、新兴内容引擎110、目标实现器引擎120-1、...、120-η、包括情节模板162的情节模板数据存储库160、以及目标实现器训练器130。
参见图10,示例性操作环境1000包括控制器102和头戴式设备(HMD)104。在图10的示例中,由用户10佩戴的HMD 104根据各种具体实施呈现(例如,显示)SR布景。在图10的示例中,SR布景对应于(例如,显示)中间内容项220。在一些具体实施中,HMD 104包括显示SR布景的集成显示器(例如,内置显示器)。在一些具体实施中,HMD 104包括可头戴壳体。在各种具体实施中,头戴式壳体包括附接区,具有显示器的另一设备可附接到该附接区。例如,在一些具体实施中,电子设备可附接到可头戴式壳体。在各种具体实施中,头戴式壳体被成形为形成用于接收包括显示器的另一设备(例如,电子设备)的接收器。例如,在一些具体实施中,电子设备滑动/卡扣到头戴式壳体中或以其他方式附接到该头戴式壳体。在一些具体实施中,附接到可头戴壳体的设备的显示器呈现(例如,显示)SR布景(例如,中间内容项220)。在各种具体实施中,电子设备的示例包括智能电话、平板电脑、媒体播放器、膝上型电脑等。在一些具体实施中,控制器102和/或HMD 104包括生成中间内容项220的新兴内容引擎110。
虽然上文描述了在所附权利要求书范围内的具体实施的各个方面,但是应当显而易见的是,上述具体实施的各种特征可通过各种各样的形式体现,并且上述任何特定结构和/或功能仅是例示性的。基于本公开,本领域的技术人员应当理解,本文所述的方面可以独立于任何其他方面来实现,并且这些方面中的两个或更多个可以采用各种方式组合。例如,可以使用本文阐述的任何数量的方面来实现装置和/或可以实践方法。另外,除了本文阐述的一个或多个方面之外或者不同于本文阐述的一个或多个方面,可以使用其他结构和/或功能来实现这样的装置和/或可以实践这样的方法。
还将理解的是,虽然术语“第一”、“第二”等可能在本文中用于描述各种元素,但是这些元素不应当被这些术语限定。这些术语只是用于将一个元件与另一元件区分开。例如,第一节点可以被称为第二节点,并且类似地,第二节点可以被称为第一节点,其改变描述的含义,只要所有出现的“第一节点”被一致地重命名并且所有出现的“第二节点”被一致地重命名。第一节点和第二节点都是节点,但它们不是同一个节点。
本文中所使用的术语仅仅是为了描述特定具体实施并非旨在对权利要求进行限制。如在本具体实施的描述和所附权利要求书中所使用的那样,单数形式的“一个”、“一”和“该”旨在也涵盖复数形式,除非上下文清楚地另有指示。还将理解的是,本文中所使用的术语“和/或”是指并且涵盖相关联的所列出的项目中的一个或多个项目的任何和全部可能的组合。还将理解的是,术语“包括”在本说明书中使用时是指定存在所陈述的特征、整数、步骤、操作、元件和/或部件,但是并不排除存在或添加一个或多个其他特征、整数、步骤、操作、元件、部件,和/或其分组。
如本文所使用的,术语“如果”可以被解释为表示“当所述先决条件为真时”或“在所述先决条件为真时”或“响应于确定”或“根据确定”或“响应于检测到”所述先决条件为真,具体取决于上下文。类似地,短语“如果确定[所述先决条件为真]”或“如果[所述先决条件为真]”或“当[所述先决条件为真]时”被解释为表示“在确定所述先决条件为真时”或“响应于确定”或“根据确定”所述先决条件为真或“当检测到所述先决条件为真时”或“响应于检测到”所述先决条件为真,具体取决于上下文。

Claims (41)

1.一种方法,包括:
在包括非暂态存储器以及与所述非暂态存储器耦接的一个或多个处理器的设备处:
从内容项中提取由所述内容项中的动作执行元素执行的一组动作;
通过语义分析基于所述一组动作来确定目标实现器的一组目标,其中所述目标实现器的计算机促成的表示对应于所述动作执行元素;以及
基于所述一组目标来训练为所述目标实现器生成动作的目标实现器引擎,其中当由所述目标实现器引擎生成的所述动作在从所述内容项提取的所述一组动作的可接受性阈值内时,所述训练完成。
2.根据权利要求1所述的方法,其中所述训练包括:
当由所述目标实现器引擎生成的动作在与从所述内容项提取的动作的一定相似程度内时,确定所述训练完成。
3.根据权利要求1至2中任一项所述的方法,其中所述训练包括:
确定所述目标实现器引擎的一个或多个参数的值。
4.根据权利要求1至3中任一项所述的方法,其中所述训练包括:
将由所述目标实现器引擎生成的动作与从所述内容项提取的所述一组动作进行比较;以及
基于所述比较来调节所述一个或多个参数的所述值。
5.根据权利要求4所述的方法,其中对所述一个或多个参数的所述值的调节量是由所述目标实现器生成的动作与从所述内容项提取的所述一组动作之间的相异度的函数。
6.根据权利要求1至5中任一项所述的方法,还包括:
从另一个内容项中提取所述目标实现器在所述另一个内容项中执行的另一组动作;
基于所述另一组动作来确定另一组目标;以及
基于所述另一组目标来进一步训练所述目标实现器引擎。
7.根据权利要求6所述的方法,其中所述训练包括:
当所述目标实现器引擎生成与所述第一组动作在一定相似性程度内的第三组动作和与所述第二组动作在一定相似性程度内的第四组动作时,确定所述训练完成。
8.根据权利要求1至7中任一项所述的方法,还包括:
基于所述一组动作训练为所述目标实现器生成目标的新兴内容引擎。
9.根据权利要求8所述的方法,其中训练所述新兴内容引擎包括:
当所述新兴内容引擎生成与基于所述第一组动作确定的第一组目标匹配的目标时,确定所述新兴内容引擎的训练完成。
10.根据权利要求1至9中任一项所述的方法,还包括:
提取另一目标实现器在所述内容项中执行的另一组动作;
基于所述另一组动作来确定另一组目标;以及
基于所述另一组目标来训练为所述另一目标实现器生成动作的另一目标实现器引擎。
11.根据权利要求1至10中任一项所述的方法,其中所述动作执行元素执行推进所述内容项中的情节的动作。
12.根据权利要求1至11中任一项所述的方法,其中提取所述一组动作包括:
对所述内容项执行场景分析,以便识别所述动作执行元素并且提取所述动作执行元素在所述内容项中执行的所述一组动作。
13.根据权利要求1至12中任一项所述的方法,其中所述计算机促成的表示包括增强现实(AR)表示。
14.根据权利要求1至13中任一项所述的方法,其中所述计算机促成的表示包括虚拟现实(VR)表示。
15.根据权利要求1至14中任一项所述的方法,其中所述计算机促成的表示包括混合现实(MR)表示。
16.根据权利要求1至15中任一项所述的方法,还包括:
确定与所述内容项相对应的情节模板;以及
在所述训练期间将所述情节模板提供给所述目标实现器引擎。
17.根据权利要求16所述的方法,确定所述情节模板包括:
基于所述目标实现器的所述一组目标和/或基于由所述内容项中的所述动作执行元素执行的所述一组动作,从多个情节模板中选择所述情节模板。
18.一种设备,包括:
一个或多个处理器;
非暂态存储器;和
一个或多个程序,所述一个或多个程序存储在所述非暂态存储器中,所述一个或多个程序当由所述一个或多个处理器执行时使所述设备执行根据权利要求1至17所述的方法中的任一个。
19.一种存储一个或多个程序的非暂态存储器,所述一个或多个程序当由设备的一个或多个处理器执行时使所述设备执行根据权利要求1至17所述的方法中的任一个。
20.一种设备,包括:
一个或多个处理器;
非暂态存储器;和
用于使得所述设备执行根据权利要求1至17所述的方法中的任一个的装置。
21.一种方法,包括:
在包括显示器、输入设备、非暂态存储器以及与所述显示器、所述输入设备和所述非暂态存储器耦接的一个或多个处理器的设备处:
在所述显示器上显示用户界面,所述用户界面包括跨越第一持续时间的第一内容项的第一表示以及跨越第二持续时间的第二内容项的第二表示;
经由所述输入设备获得对应于生成中间新兴内容项的请求的用户输入,所述中间新兴内容项跨越介于所述第一持续时间的结束和所述第二持续时间的开始之间的中间持续时间;以及
响应于获得所述用户输入,在所述显示器上显示所述第一内容项的所述第一表示和所述第二内容项的所述第二表示之间的所述中间新兴内容项的表示,其中所述中间新兴内容项是在获得所述用户输入之后被合成的。
22.根据权利要求21所述的方法,还包括:
响应于获得所述用户输入,显示提示,所述提示包括对应于生成所述中间新兴内容项的标准版本的第一示能表示和对应于生成所述中间新兴内容项的定制版本的第二示能表示。
23.根据权利要求22所述的方法,还包括:
检测对所述第一示能表示的选择;以及
响应于检测到对与所述标准版本相对应的所述第一示能表示的所述选择,在不获得附加用户输入的情况下合成所述中间新兴内容项的所述标准版本。
24.根据权利要求22至23中任一项所述的方法,还包括:
检测对所述第二示能表示的选择;以及
响应于检测到对与所述定制版本相对应的所述第二示能表示的所述选择,在所述显示器上显示允许定制所述中间新兴内容项的定制屏幕。
25.根据权利要求24所述的方法,其中所述定制屏幕包括对应于所述中间新兴内容项的相应情节模板的多个情节示能表示。
26.根据权利要求25所述的方法,其中所述多个情节示能表示中的一者或多者基于所述第一内容项的结束状态和所述第二内容项的初始状态是不能够选择的。
27.根据权利要求24至26中任一项所述的方法,其中所述定制屏幕包括对应于所述中间新兴内容项的相应位置的多个位置示能表示。
28.根据权利要求27所述的方法,其中所述多个位置示能表示中的一个位置示能表示对应于所述第一内容项的结束状态。
29.根据权利要求27至28中任一项所述的方法,其中所述多个位置示能表示中的一个位置示能表示对应于所述第二内容项的初始状态。
30.根据权利要求27至29中任一项所述的方法,其中所述多个位置示能表示中的一个位置示能表示包括接受所述中间新兴内容项的位置的输入栏。
31.根据权利要求24至30中任一项所述的方法,其中所述定制屏幕包括多个示能表示,所述多个示能表示对应于可以包括在所述中间新兴内容项中的动作执行元素。
32.根据权利要求31所述的方法,其中所述多个示能表示中的一个示能表示对应于来自所述第一内容项的动作执行元素。
33.根据权利要求31至32中任一项所述的方法,其中所述多个示能表示中的一个示能表示对应于来自所述第二内容项的动作执行元素。
34.根据权利要求31至33中任一项所述的方法,其中所述多个示能表示中的一个示能表示对应于所述第一内容项和所述第二内容项中不存在的动作执行元素。
35.根据权利要求24至34中任一项所述的方法,其中所述定制屏幕包括对应于所述中间新兴内容项的相应持续时间的多个时间示能表示。
36.根据权利要求21至35中任一项所述的方法,其中所述中间新兴内容项的所述表示与共享示能表示相关联,所述共享示能表示允许与其他设备共享所述中间新兴内容项。
37.根据权利要求21至36中任一项所述的方法,其中所述中间新兴内容项的所述表示与允许修改所述中间新兴内容项的修改示能表示相关联。
38.根据权利要求37所述的方法,还包括:
检测对所述修改示能表示的选择;以及
响应于检测到对所述修改示能表示的所述选择,显示修改屏幕,所述修改屏幕允许修改与所述中间新兴内容项相关联的情节模板、位置、动作执行元素和持续时间。
39.一种设备,包括:
一个或多个处理器;
非暂态存储器;和
一个或多个程序,所述一个或多个程序存储在所述非暂态存储器中,所述一个或多个程序当由所述一个或多个处理器执行时使所述设备执行根据权利要求21至38所述的方法中的任一个。
40.一种存储一个或多个程序的非暂态存储器,所述一个或多个程序当由设备的一个或多个处理器执行时使所述设备执行根据权利要求21至38所述的方法中的任一个。
41.一种设备,包括:
一个或多个处理器;
非暂态存储器;和
用于使所述设备执行根据权利要求21至38所述的方法中的任一个的装置。
CN202410370814.8A 2018-09-27 2019-09-25 中间新兴内容 Pending CN118092665A (zh)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US201862737768P 2018-09-27 2018-09-27
US62/737,768 2018-09-27
CN201980063371.5A CN112753008B (zh) 2018-09-27 2019-09-25 中间新兴内容
PCT/US2019/052857 WO2020068917A1 (en) 2018-09-27 2019-09-25 Intermediary emergent content

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
CN201980063371.5A Division CN112753008B (zh) 2018-09-27 2019-09-25 中间新兴内容

Publications (1)

Publication Number Publication Date
CN118092665A true CN118092665A (zh) 2024-05-28

Family

ID=68172272

Family Applications (2)

Application Number Title Priority Date Filing Date
CN201980063371.5A Active CN112753008B (zh) 2018-09-27 2019-09-25 中间新兴内容
CN202410370814.8A Pending CN118092665A (zh) 2018-09-27 2019-09-25 中间新兴内容

Family Applications Before (1)

Application Number Title Priority Date Filing Date
CN201980063371.5A Active CN112753008B (zh) 2018-09-27 2019-09-25 中间新兴内容

Country Status (3)

Country Link
US (3) US11341725B2 (zh)
CN (2) CN112753008B (zh)
WO (1) WO2020068917A1 (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021242521A1 (en) * 2020-05-29 2021-12-02 Limonox Projects Llc Hierarchical scene model
US12008720B1 (en) * 2021-06-28 2024-06-11 Apple Inc. Scene graph assisted navigation

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5751281A (en) * 1995-12-11 1998-05-12 Apple Computer, Inc. Apparatus and method for storing a movie within a movie
US6351545B1 (en) * 1999-12-14 2002-02-26 Dynapel Systems, Inc. Motion picture enhancing system
US7296007B1 (en) * 2004-07-06 2007-11-13 Ailive, Inc. Real time context learning by software agents
US7769819B2 (en) * 2005-04-20 2010-08-03 Videoegg, Inc. Video editing with timeline representations
EP1977395B1 (en) * 2006-01-27 2018-10-24 Imax Corporation Methods and systems for digitally re-mastering of 2d and 3d motion pictures for exhibition with enhanced visual quality
JP4730183B2 (ja) 2006-04-17 2011-07-20 株式会社日立製作所 映像表示装置
US20120098925A1 (en) * 2010-10-21 2012-04-26 Charles Dasher Panoramic video with virtual panning capability
US8866898B2 (en) * 2011-01-31 2014-10-21 Microsoft Corporation Living room movie creation
EP2600316A1 (en) * 2011-11-29 2013-06-05 Inria Institut National de Recherche en Informatique et en Automatique Method, system and software program for shooting and editing a film comprising at least one image of a 3D computer-generated animation
US9616329B2 (en) * 2012-06-28 2017-04-11 Electronic Arts Inc. Adaptive learning system for video game enhancement
US20140019865A1 (en) * 2012-07-13 2014-01-16 Whamix Inc. Visual story engine
US9884254B2 (en) * 2014-09-05 2018-02-06 Trigger Global Inc. Augmented reality gaming systems and methods
US10726593B2 (en) * 2015-09-22 2020-07-28 Fyusion, Inc. Artificially rendering images using viewpoint interpolation and extrapolation
JP2016122392A (ja) * 2014-12-25 2016-07-07 キヤノンマーケティングジャパン株式会社 情報処理装置、情報処理システム、その制御方法及びプログラム
US11430158B2 (en) * 2015-12-01 2022-08-30 Eliza Y Du Intelligent real-time multiple-user augmented reality content management and data analytics system
EP3405865A1 (en) * 2016-01-21 2018-11-28 Playgiga S.L. Modification of software behavior in run time
US10361982B2 (en) * 2016-05-17 2019-07-23 Daybreak Game Company Llc Interactive message-based delivery of narrative content using a communication network
US10135950B2 (en) * 2016-10-10 2018-11-20 Google Llc Creating a cinematic storytelling experience using network-addressable devices
WO2018212822A1 (en) * 2017-05-16 2018-11-22 Google Inc. Suggested actions for images
CN107158695A (zh) * 2017-06-16 2017-09-15 苏州蜗牛数字科技股份有限公司 一种现实与虚拟场景混合展现的方法及***
US20190321730A1 (en) * 2018-04-20 2019-10-24 International Business Machines Corporation Cognitive personalized game experience based on player personality

Also Published As

Publication number Publication date
US11847744B2 (en) 2023-12-19
US20240054732A1 (en) 2024-02-15
CN112753008B (zh) 2024-04-12
CN112753008A (zh) 2021-05-04
WO2020068917A1 (en) 2020-04-02
US11341725B2 (en) 2022-05-24
US20220222898A1 (en) 2022-07-14
US20210319622A1 (en) 2021-10-14

Similar Documents

Publication Publication Date Title
US20240179374A1 (en) Modifying Existing Content Based on Target Audience
US20240054732A1 (en) Intermediary emergent content
US20210398360A1 (en) Generating Content Based on State Information
CN111602104B (zh) 用于与所识别的对象相关联地呈现合成现实内容的方法和设备
US11949949B2 (en) Content generation based on audience engagement
US11768590B2 (en) Configuring objective-effectuators for synthesized reality settings
US20230377237A1 (en) Influencing actions of agents
US20220262081A1 (en) Planner for an objective-effectuator
US20210027164A1 (en) Objective-effectuators in synthesized reality settings
CN111630526B (zh) 在合成现实布景中生成用于目标实现器的目标
US11320977B2 (en) Emergent content containers
US11055930B1 (en) Generating directives for objective-effectuators
US11783514B2 (en) Generating content for physical elements
US11379471B1 (en) Hierarchical datastore for an agent
US20240104818A1 (en) Rigging an Object

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination