CN103635953A - 使用用户特定内容增强可视数据流的*** - Google Patents

使用用户特定内容增强可视数据流的*** Download PDF

Info

Publication number
CN103635953A
CN103635953A CN201280008140.2A CN201280008140A CN103635953A CN 103635953 A CN103635953 A CN 103635953A CN 201280008140 A CN201280008140 A CN 201280008140A CN 103635953 A CN103635953 A CN 103635953A
Authority
CN
China
Prior art keywords
information
mobile computing
computing device
enhancing
database
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201280008140.2A
Other languages
English (en)
Other versions
CN103635953B (zh
Inventor
肖恩·马克·布兰什弗劳尔
迈克尔·理查德·林奇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hewlett Packard Development Co LP
Original Assignee
Lonza AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Lonza AG filed Critical Lonza AG
Publication of CN103635953A publication Critical patent/CN103635953A/zh
Application granted granted Critical
Publication of CN103635953B publication Critical patent/CN103635953B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/60Network streaming of media packets
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/45Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
    • H04N21/4508Management of client data or end-user data
    • H04N21/4524Management of client data or end-user data involving the geographical location of the client
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/45Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
    • H04N21/4508Management of client data or end-user data
    • H04N21/4532Management of client data or end-user data involving end-user characteristics, e.g. viewer profile, preferences

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Databases & Information Systems (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Information Transfer Between Computers (AREA)
  • Telephonic Communication Services (AREA)

Abstract

诸多用户的用户配置文件信息可以被存储在与连接至网络的服务器计算机相关联的用户配置文件数据库中。基于从移动计算设备接收的信息,服务器计算机从与用户配置文件数据库联接的增强信息数据库中选择增强信息。从移动计算设备接收的信息与移动计算设备拍摄的视频流的帧以及这些帧所关联的地理信息相关。增强信息还基于与移动计算设备相关联的用户配置文件来选择。增强信息使用无线通信从服务器计算机传输至移动计算设备,并且被移动计算设备用于叠加移动计算设备所拍摄的视频流的帧。

Description

使用用户特定内容增强可视数据流的***
技术领域
本发明的实施例大体上涉及数字图像处理领域,并且在一些实施例中具体涉及将增强信息***视频流中。
背景技术
当今在市场上能以非常便宜的价格买到各种视频拍摄设备。这允许众多消费者能够在任何地方和在任何时间为任何场合拍摄视频。典型地,所拍摄的视频的内容局限于视频拍摄设备的操作者可见的内容。例如,当操作者正在由于建筑物的独特的建筑结构而摄录建筑物时,操作者在视频拍摄设备的取景器中或显示器上看见的是同一建筑物的图像,而没有更多其它内容。
发明内容
对于一些实施例,随时间捕获关于用户如何使用移动计算设备的信息。使用无线通信将所捕获的信息以及移动计算设备的标识信息传输至服务器计算机,使得服务器计算机能够更新与移动计算设备相关联的用户配置文件。提取在移动计算设备拍摄的视频流的帧中包括的关注点的特性信息,并使用无线通信将其传输至服务器计算机。与所述帧相关联的地理信息也被传输至所述服务器计算机。从服务器计算机接收与关注点相关并基于移动计算设备所关联的用户配置文件的增强信息。然后,在移动计算设备的显示屏上与视频流的帧一起显示增强信息。
附图说明
多个附图涉及本发明的实施例。虽然本文描述的本发明的实施例可经历各种修改和可替代形式,但是本发明的特定实施例在附图中通过示例示出并且将在本文中详细地进行描述。
图1图示根据一些实施例的可以使用的移动计算设备的一个示例。
图2图示根据一些实施例的可以用于增强所拍摄的视频流的网络的示例。
图3A图示根据一些实施例的可以用于确定对所拍摄的视频流使用的增强信息的服务器计算机的示例。
图3B图示根据一些实施例的用户配置文件信息的示例。
图4图示根据一些实施例的具有可以用于过滤从移动计算设备接收的信息的镜像服务器的网络图示例。
图5图示根据一些实施例的可以在移动计算设备上执行以创建增强的视频流的过程的示例流程图。
图6A图示根据一些实施例的可以在服务器计算机上执行以确定增强信息的过程的示例流程图。
图6B图示根据一些实施例的可以在服务器计算机上执行以基于用户配置文件确定增强信息的过程的示例流程图。
图6C图示根据一些实施例的可以用于基于移动计算设备所生成的啁啾信号确定距离的过程的示例流程图。
图7图示根据一些实施例的IDOL服务器的一些模块的示例框图。
图8图示根据一些实施例的可以用于实现增强的视频流的示例计算机***。
具体实施方式
对于一些实施例,公开了用于基于用户配置文件产生相关增强信息的方法。针对多个移动计算设备的用户配置文件信息被存储在可从网络访问的用户配置文件数据库中。使用无线通信接收来自连接至网络的第一移动计算设备的标识信息。标识信息对应于与第一移动计算设备相关联的用户配置文件。使用无线通信接收包括在由第一移动计算设备拍摄的视频流帧中的关注点的特性信息。使用无线通信还接收与来自第一移动计算设备的视频流帧相关联的地理信息。选择与用户配置文件数据库联接的增强信息数据库中的相关增强信息。基于与第一移动计算设备相关联的用户配置文件选择相关增强信息。相关增强信息被传送至第一移动计算设备,以使相关增强信息可以被用于叠加视频流的帧。
在下面的描述中,阐述诸如特定数据信号示例、组件示例、连接示例等之类的多个特定细节,以便提供本发明的透彻理解。然而,将对本领域技术人员显而易见的是,本发明可以在没有这些特定细节的情况下实施。在其它情况下,众所周知的组件或方法未被详细地描述,而是在框图中进行描述,以便避免不必要地使本发明模糊。因此,所阐述的特定细节只是示例性的。特定细节可以根据本发明的精神和范围改变,并且仍然被认为在本发明的精神和范围内。
从对计算机存储器内的数据位进行的操作的算法和符号表示的角度,呈现下面的详细描述的一些部分。这些算法描述和表示是在数据处理领域的技术人员所使用的手段,以最有效地将它们工作的实质传达给该领域的其它技术人员。算法在这里通常被构思为导致期望结果的自洽的一系列步骤。这些步骤是需要对物理量的物理操作的那些步骤。通常但不必须,这些量采用能够被储存、被传输、被组合、被比较和以其它方式***纵的电信号或磁信号的形式。已经证明,主要出于通常使用的原因,有时将这些信号称为比特、值、元素、符号、字符、项、数字等等是方便的。这些算法可以用诸如C、C++、Java或其它类似语言之类的多种不同软件编程语言编写。此外,算法可以用软件中的多行代码、以软件配置的逻辑门或这两者的组合来实现。在实施例中,逻辑由遵循布尔逻辑规则的电子电路、包含指令模式的软件或这两者的任意组合组成。
然而,应该记住,所有这些和类似术语应与合适的物理量关联,并且仅仅是应用于这些量的方便标记。除非特别声明,否则如从以下讨论中显而易见的,将理解在整个说明书中,使用诸如“处理”或“计算”或“运算”或“确定”或“显示”等之类术语的讨论涉及计算机***或类似电子计算设备的动作或过程,该计算机***或类似电子计算设备将计算机***的寄存器和存储器内作为物理量(电子量)表示的数据操作和转换成计算机***的存储器或寄存器或其它这样的信息存储、传输或显示设备中类似地作为物理量表示的其它数据。
本发明还涉及用于执行本文中的操作的装置。该装置可以是为所需用途专门构造的,或其可以包括由存储在计算机中的计算机程序选择性地激活或重配置的通用计算机。这样的计算机程序可以存储在计算机可读存储介质中,例如但不限于:包括软盘、光盘、CD-ROM及磁光盘在内的任何类型的盘,只读存储器(ROM),随机存取存储器(RAM),EPROM,EEPROM,磁卡或光卡,或任何种类的适合于存储电子指令的介质,并且每个介质都与计算机***总线联接。本文描述的任何模块或组件的部分可以用软件中的多行代码、软件中配置过的逻辑门或这两者的组合实现,并且在软件中实现的部分被有形地存储在计算机可读存储介质上。
本文提出的算法和显示本质上不与任何特定的计算机或其它装置相关。根据本文的教导,各种通用***可以与程序一起使用,或构造更专业的设备来执行所需的方法框会证明是方便的。用于多种这些***的所需结构将从下面的描述中显现。
在示例性实施例的下面描述中,参考附图,附图构成本发明的一部分并且在附图中通过图解示出特定实施例,在这些特定实施例中能够实施本发明。应当理解,能够使用其它实施例且能够在不脱离本发明实施例的范围的情况下进行结构变化。本文使用的术语“联接”、“连接”及“附接”是可互换的,并且包括将一个部分直接地或间接地连接至另一部分的各种形式。此外,应该理解,在一个实施例中描述的一个或多个结构特征可以在不同实施例中实现,即便未特别地被提到为不同实施例的特征。
概要
本发明的实施例提供一种合并两个或更多个数据源的可扩展方法,该方法包括使用可视信息来触发增强和使用地理位置来允许所拍摄的视频流的高级增强。由视频流提供的信息典型地局限于用户可见的或可听的信息,例如几何形状、与该形状关联的颜色图案、与该视频流中的对象关联的符号和其它特征。可能存在与视频流中的场景关联的未被传达至用户的深入得多的信息。单独使用与关注点或对象有关的可视信息或特性信息来增强视频流可能是有用的,但在可视信息或特性信息的量大时可能是不足够的或不可扩展的。单独使用地理信息可能不允许增强视频流中的场景的特定对象或景物。
将可视信息和地理信息结合可以允许对已知的且预存储在对象数据库中的对象的特性的快速识别或匹配。该地理信息可以由全球定位***(GPS)提供。将可视信息与地理信息结合可以减少为辨别和识别已知对象和/或人而需要由服务器计算机整理的可能关注点的量。来自GPS的粗略地理信息减少需要被整理为那个区域中已知对象的可能匹配的可能关注点的量。进一步,与移动计算设备的摄像头在拍摄视频流时面向何处有关的方向信息也被传输至服务器计算机。该方向信息连同那个帧中的关注点的特征可以由移动计算设备中的内置指南针或方向传感器提供给服务器计算机。所有这些有助于通过将从移动计算设备传输的特性信息与在数据库中存储的已知对象进行比较来减少数量庞大的潜在景物,这构成可扩展且可管理的***。
移动计算设备和增强的视频流的生成
图1图示根据一些实施例的可以使用的移动计算设备的一个示例。移动计算设备100可以包括显示模块105、通信模块110、全球定位***(GPS)模块115、视频拍摄模块120、处理器125和存储器130。移动计算设备100可以是例如移动电话、笔记本电脑、上网本、触摸板或任何其它类似设备。移动计算设备100与网络200(见图2)协作,以基于地理和可视信息的结合供应移动计算设备100中的视频流的帧中的所拍摄关注点的增强信息。移动计算设备100包括移动计算设备100上的视频处理模块135,以帮助辨别每个视频帧中的所拍摄对象然后将增强信息***视频流的帧中。
通信模块110可以用于允许移动计算设备100与网络(例如网络200(见图2))连接。通信模块110可以被配置为使移动计算设备100能够使用无线通信协议或任何其它适合的通信协议与网络200连接。例如,通信模块110可以包括无线保真(Wi-Fi)模块111、蓝牙模块112、宽带模块113、短消息服务(SMS)模块114等等。如将描述的,通信模块110可以被配置为将与视频流关联的可视信息从移动计算设备100传送至与网络200连接的一个或多个服务器计算机。
GPS模块115可以用于使用户能够获得从一个位置至另一位置的方向。GPS模块115还可以用于使能生成地理信息,并将地理信息与视频流的图像和帧关联。该过程典型地被称为地理标记(geotagging)。当移动计算设备100用于拍摄视频流时,地理信息可以被***视频流的一个或多个帧中。地理信息可以被***并与由移动计算设备100生成的图像、视频流以及文本消息一起被存储。地理信息可以被存储为元数据,并且可以包括纬度坐标和经度坐标。例如,用于地理特定位置的标记和增强的服务器***能够,通过使用与图像关联或与图像一起存储的纬度坐标和经度坐标,使用那个图像中的建筑物的位置,并且使用建筑物的其它区别性特征,来确定在视频流中出现什么对象。
视频拍摄模块120可以被配置为拍摄图像或视频流。视频拍摄模块120可以与摄像头121关联,并可以使用户能拍摄图像和/或视频流。视频拍摄模块120可以与方向传感器122关联,以感应摄像头121正指向的方向。摄像头121可以是内置的摄像头。
显示模块105可以被配置为显示由视频拍摄模块120拍摄的图像和/或视频流。对于一些实施例,显示模块105可以被配置为显示已经用存储在网络中的数据库中的增强信息增强后的图像和/或视频流。显示模块105可以与显示屏106关联。
存储器130可以包括内部存储器和扩展存储器。例如,内部存储器可以包括只读存储器(ROM)和随机存取存储器(RAM),并且扩展存储器可以包括闪存。存储器130可以用于存储操作***(OS)和各种其它应用程序,各种其它应用程序包括例如生产应用程序、娱乐应用程序、通信应用程序、图像和/或视频处理应用程序、用户接口应用程序等。处理器125可以被配置为运行与OS、网络浏览器和各种应用程序关联的指令。OS的一些示例可以包括来自谷歌的安卓、来自苹果的iOS、来自微软的Windows Phone和来自Palm/HP的WebOS等等。网络浏览器可以由移动计算设备100用来允许用户使用网络200访问网站。
对于一些实施例,移动计算设备100可以包括视频处理模块135,视频处理模块135被配置为处理由视频拍摄模块120拍摄的图像和/或视频流。视频处理模块135可以分析所拍摄的视频流的帧,并辨别所拍摄的视频流的每个帧中的对象/关注点。辨别对象的关注点可以包括将该对象分解为几何形状和区别性特征。该操作可以适用于一组对象,该组中的每个对象被分解成不同几何形状和相关联的区别性特征。
对由摄像头121拍摄的每个帧,视频处理模块135可以使用提取算法来辨别帧中关注点的特征,并提取这些特征以及地理信息和其它相关信息,并且将具有与那个帧有关的信息的数据包传输至服务器计算机(见图3A)。视频处理模块135可以生成关注点的几何形状的X-Y坐标的图案和与这些形状关联的颜色。视频处理模块135可以从与摄像头121关联的指南针或方向传感器122提取方向信息,以确定在拍摄视频流中的帧时摄像头121面对的方向。由方向传感器122提供的方向信息可以包括北、南、东、西、上、下和任何可能相关的组合(例如西北且从水平面向上20度等)。对于一些实施例,用于关注点的点的图案、所使用的点的数量和关注点的数量可能取决于帧中的不同关注点的数量。帧中非中心的或***的对象、小对象和非区别性对象能够被提取算法过滤掉,而仅关注点上明显的和区别性的特征可以被提取。
视频处理模块135可以分析视频流中的每个拍摄的帧。视频处理模块135可以使来自该系列帧的图案相关以帮助确定对象/关注点是什么。视频处理模块135可以使来自该系列帧的图案相关以帮助使关注点的特征能更快传输。对于一些实施例,如果先前传输的特定帧的特征不存在变化,则不需要传输相同的特征。对于一些实施例,如果当前帧包括不同于先前帧的特征,那么仅传输特征变化的差异。
对于一些实施例,对象/关注点可以通常位于帧的中心区域。可以注意到,所拍摄的视频流的特定连续帧可以在中心区域具有相同对象,或至少在该系列连续帧中包含相同对象。视频处理模块135可以分析这些帧,以辨别该对象的特性或可视信息。由于视频拍摄模块135继续拍摄视频流,所以视频处理模块135可能可以辨别很多不同对象。
视频处理模块135可以执行基本场景分析,基本场景分析包括使用光学字符识别(OCR)提取所拍摄的视频流的帧中的关注点的区别性特征,利用那个特征的关联的区别性颜色和图案信息将它们编码为用于几何形状格式的X-Y坐标的小图案。视频处理模块135可以辨别那个对象的地理信息和关于那个对象的其它已知区别性特征。对于一些实施例,由移动计算设备100传输至服务器计算机的信息可能呈文本格式。
上述由视频处理模块135执行的操作能够用来最小化被传输至服务器的文件大小,且加速通过服务器进行的关注点的近实时识别和增强信息向移动计算设备100的近实时传输。视频处理模块135不是试图传输JPEG或MPEG类型文件,而是辨别并提取区别性特征,区别性特征包括与视频帧中的对象/关注点关联的形状、形状的点对点型X-Y坐标、图案颜色、字母数字、符号等等,以最小化被传输至服务器计算机的文件大小,且加速通过服务器计算机进行的关注点的近实时识别和增强信息向移动计算设备100的近实时传输。增强信息应被叠加在关注点上或在关注点上被高亮,因此用户能够激活来查看和/或收听对所拍摄的视频流叠加的增强信息。随着传输速度提高,整个图像可以被连续地传输至服务器计算机。可用来减少移动计算设备100和服务器计算机之间传输的信息量的其它技术,可以包括以黑白灰度传输彩色图像、传输减少的每英寸点数(DPI)图像等。
对于一些实施例,帧中的关注点可以与人相关。视频处理模块135可以被配置为分析所拍摄的视频流的帧,并辨别可能位于帧的中心区域的人的面部特性或可视信息。由于视频处理模块135分析所拍摄的视频流的许多帧,所以视频处理模块135可能可以辨别许多不同的人。
视频处理模块135可以包括压缩解压缩(编解码器)模块136。对于一些实施例,编解码器136可以将所拍摄的视频流压缩成DivX格式。DivX是由加利福尼亚的圣地亚哥的DivX有限责任公司开发的视频压缩技术。DivX格式也许能使用户快速播放和创建高品质的视频流。DivX编解码器因它的质量、速度和效率而成为流行的基于动态图像专家组-4(MPEG-4)的编解码器。作为一种DivX编解码器,编解码器136可以使所拍摄的视频流和/或对象/关注点的所辨别的特征或特性信息能够被快速地传输至通信带宽受限(例如无线通信)的服务器计算机。还可以使用能够将信息从移动计算设备快速传输至服务器计算机的其它技术。例如,不是以图像或所拍摄的视频流的原来颜色传输该图像或视频流,而是可以执行转换来将该图像或所拍摄的视频流从彩色转换为黑白色,以减少要传递的信息的大小。
啁啾信号传输、检测、位置估算
与服务器计算机有一些潜在交互的移动计算设备100可以使用音频和/或可视信息来检测并确定一个或多个移动计算设备的空间准确位置。对于一些实施例,移动计算设备100可以包括音频处理模块140,以处理音频信息。音频处理模块140可以包括啁啾(chirp)信号生成模块141和扬声器142。啁啾信号生成模块141可以被配置为以特定频率模式(例如高频噪声、低频噪声)传输啁啾信号。啁啾信号可以由移动计算设备100传输和由位于附近的另一移动计算设备接收。传输啁啾信号时与接收该啁啾信号时之间的时间间隔可以用来估算这两个移动计算设备距离彼此多远。在该示例中,第一移动计算设备可以传输其自己的啁啾信号,并且可以接收由第二移动计算设备传输的啁啾信号。高频信号和低频信号之间的差异可以用来确定啁啾从第一(或发送)移动计算设备和第二(或接收)移动计算设备所行进的距离。
在可替代方案中,移动计算设备可以传输时间戳通知至服务器计算机300,以表示已经传输啁啾信号。另一移动计算设备可以传输时间戳通知至服务器计算机300,以表示已接收或检测到啁啾信号。然后,服务器计算机300基于传输通知和接收通知之间的时间差计算这两个移动计算设备之间的距离。对于一些实施例,啁啾信号的传输和接收可以用于将两个移动计算设备的两个用户向彼此引导。可以注意,基于与这两个移动计算设备关联的标识信息,服务器计算机300可能已经知道使用这两个移动计算设备的用户的标识。
移动计算设备100是支持音频/视频的设备(例如iPhone)。啁啾信号生成模块141允许持有移动计算设备100的用户检测并定位附近持有类似移动计算设备的其它用户。基于传输和接收啁啾信号的两个移动计算设备或基于使用面部识别引擎320(见图3A),音频处理模块140可以允许检测附近的人。
对于一些实施例,一种可以使用的基于音频信号的距离计算方法如下。这两个移动计算设备向彼此传输/广播啁啾信号,以算出它们之间的距离。第三移动计算设备也能够收听并辨别来自其它两个移动计算设备的两个啁啾信号,从而使能够计算精确位置(使用X-Y坐标)。
如所讨论的,啁啾信号频率用于检测两个用户的接近度。这两个移动计算设备依次广播啁啾信号。当广播和检测啁啾信号时,每个具有其麦克风和/或音频接收器的移动计算设备记录/检测时间。基于这些时间值,计算这两个移动计算设备之间的距离。一个移动计算设备的音频处理模块140被配置为计算至另一移动计算设备(或持有该设备的用户)的距离。可替代地,当采用第三观察移动计算设备(被置于预定位置)时,音频处理模块140还允许计算另一人的准确位置(准确距离和方向)。音频处理模块140被配置为对所有三个移动计算设备的位置进行三角测量。然后,音频处理模块140通过指明方向和距离的文本生成另一移动计算设备的近似方向。
音频处理模块140可以向在移动计算设备上播放的视频流中***箭头。该箭头可以表示指示移动计算设备的用户为到达另一人而应当行走的方向。该方向信息可以叠加到在显示屏上观看的视频流。如前所介绍的,当面部识别操作的使用可能是不可能的时,可替代实现可以使用来自两个移动计算设备并被传送至服务器计算机300的通知信号来确定移动计算设备之间的距离。该通知可以由音频处理模块140生成,以使用户能够辨别并定位相同附近的其它移动计算设备或用户。
音频处理模块140可以包括编码算法,该编码算法使能够在一组音频频率下生成啁啾模式并且检测啁啾信号。该算法还使能够确定从当前移动计算设备至传输或广播检测到的啁啾信号的移动计算设备的距离。由于声音回声路径,算法还被用于使距离计算误差最小化。不是生成超过标准移动计算设备的扬声器***和麦克风***的操作能力/范围的高频/低频信号来避免背景噪声,啁啾信号可以是在麦克风和扬声器***的标准范围内的一系列高频率和低频率突发脉冲,但是在那些频率下的突发脉冲序列实际上不会自然地发生。音频处理模块140具有信号处理过滤器,以特别地寻找那些频率下的那个图案来辨别何时检测到啁啾信号和这两个移动计算设备之间的距离是多少。
对于一些实施例,当移动计算设备100正在拍摄视频场景时,视频流被传输至服务器计算机300,并由服务器计算机300分析来进行面部识别。可替代地,所期望用户的标识被传输至服务器计算机300,并且图像和不同的视图被传输至移动计算设备。因此,服务器计算机300将用于面部识别的照片存储在面部识别数据库340中,并且向移动计算设备100传输面部识别图像/一组图像,该面部识别图像/一组图像的前侧、右侧和左侧轮廓要由视频处理模块135匹配,这使移动计算设备100的视频处理模块135的面部识别更快速且更容易。可以注意,着眼于像肤色这样的特征和像眼睛这样的面部特征的一种或多种快速面部识别软件可以被并入视频处理模块135中。
这个过程在诸如酒吧、竞技场或主题公园、初次会见和问候等之类的大型嘈杂公共场所中可能是有用的。基于声音的距离计算和场景分析的集成允许创建动态形成的移动社区。该***自动地创建移动社区,使用户能够与具有类似关注的人联系,否则他们永远不会见面。在某人附近的具有类似配置文件的用户将被提示并给予与另一用户见面的方向。
移动计算设备100可以包括被配置为在网络中给移动计算设备100提供唯一标识的标识模块150。标识模块150可以是用户标识模块(SIM)。
尽管在图1中未示出,但是移动计算设备100可以包括电源(例如电池)、用户标识模块(SIM)、键盘(虽然可以实现软键盘)、输入/输出接口(例如视频、音频端口)、外部电源连接器、外部存储器连接器、天线、扬声器等。应注意,尽管在本文的示例中使用移动计算设备100,但是具有类似特征的非移动设备也可以用于传输可视信息和接收增强信息。
具有移动计算设备和服务器计算机的网络环境
图2图示根据一些实施例的可以用于增强所拍摄的视频流的网络的示例。网络200可以是互联网。多个服务器计算机205A-205C和多个移动计算设备210A-210D可以连接至网络200。服务器计算机205A-205C中的每个服务器计算机分别可以与数据库206A-206C关联。移动计算设备210A-210D可以被称为移动计算设备。本示例中图示的网络环境可以被称为客户机-服务器环境。客户机-服务器关系允许在全世界任何位置触发移动计算设备205A-205C的操作,并用加强用户对真实世界的视角的有用信息来增强任何所拍摄的视频流。应注意,在本示例中图示的移动计算设备、服务器计算机和数据库的数量仅用于说明目的,而不意在限制。全世界可以存在许多服务器计算机和数据库来为更多移动计算设备提供服务,是在本发明实施例的范围内的。
移动计算设备210A-210D可以包括与图1中描述的移动计算设备100类似的特征。服务器计算机205A-205C可以包括通信模块和关联的应用程序,通信模块和关联的应用程序允许服务器计算机与网络200连接并与移动计算设备210A-210D交换信息。例如,使用移动计算设备210A的用户可以与包含嵌入式应用的网页交互,然后向该应用所关联的用户界面所呈现的查询/域和/或服务提供输入。在支持超文本标记语言(HTML)或无线接入协议(WAP)或任何其等价物的移动计算设备205A上,网页可以由服务器计算机205A服务。移动计算设备205A可以包括浏览器软件(例如Internet Explorer、火狐(Firefox)),以访问由服务器计算机205A服务的网页。
服务器计算机和增强信息的选择
图3A图示根据一些实施例的可以用于确定对所拍摄的视频流使用的增强信息的服务器计算机的示例。服务器计算机300可以包括通信模块(未示出),以允许该服务器计算机连接至网络,例如图2中图示的网络200。服务器计算机300还可以包括服务器应用程序,服务器应用程序允许该服务器计算机与包括例如移动计算设备100在内的一个或多个移动计算设备通信。在服务器计算机300和移动计算设备100之间可以建立通信会话,以使能够从移动计算设备100接收可视信息306并向移动计算设备100传输增强信息391。对于一些实施例,服务器计算机300可以与对象数据库300、面部识别数据库340和增强信息数据库350联接。
如所讨论的,客户机模块使用提取算法来辨别那个帧中的关注点的特征,提取那些特征连同诸如地理信息、指南针方向及其它相关信息之类的数据,并且将具有与那个帧有关的信息的数据包传输至IDOL服务器。IDOL服务器具有知识库和分布式计算能力,以辨别关注点。IDOL服务器能够分析视频流中出现的一系列帧,并且使用该信息来将关注点的所传输特征与数据库中的已知对象或图像相匹配。大约与对象识别引擎310层次化地过滤或减少与所传输的特征匹配的可能已知图像/对象同时,增强引擎325准备并选择要被传回移动计算设备100上的视频处理模块135以便显示的增强信息。
增强引擎325具有数据库,该数据库具有准备的要叠加到帧中的已知关注点上的增强信息(例如视频文件、广告、链接等)。基于潜在的与那个用户相关的内容,增强引擎325减少要添加至视频文件中的可能叠加。当对象识别引擎310确定对象是什么时,增强引擎325能够开始向移动计算设备100传输潜在的大文件,例如视频文件及广告。另外,增强引擎325能够在辨别关注点以后,开始传输视频文件、广告和图像、文本消息、至相关网页的链接等。然后,视频处理模块135将增强信息叠加到视频流的帧上。增强信息可以是文本消息或关注点的高亮。用户能够选择激活被高亮的关注点,以查看与在移动计算设备100的显示屏106上显示的视频文件的帧相关联的增强信息。
对象数据库300可以被配置为存储与一组已知对象相关的信息。该信息可以描述已知对象的不同特性。这可以包括地理信息、颜色信息、图案信息等等。通常,对象的特性可以包括与该对象有关的可以用于辨别该对象且将该对象识别为已知对象的任何信息。例如,坐落在旧金山商业区的百老汇大街第四街道的角落的办公楼,可以基于其独特的金字塔形建筑结构和橙色来辨别。可以注意到,对象数据库330在其被配置为存储关于许多对象或许多组对象的信息时可以是大型数据库。可以使用许多技术来生成关于对象的信息。例如,信息可以由人生成,或者信息可以由专用计算机程序生成,该专用计算机程序被编码为扫描彩色图像并生成包含在图像中的对象的列表及其特性。
对于一些实施例,面部识别数据库340可以存储与一组已知的人有关的面部识别信息。与该组中每个人有关的面部识别信息可以事先生成并存储在面部识别数据库340中。面部识别数据库340在其被配置为存储与许多人有关的面部识别信息时可以是大型数据库。可以使用许多技术来生成和存储面部识别信息。例如,一人使用面部识别应用程序来生成自己的面部识别信息,并且请求将其自己的面部识别信息存储在面部识别数据库340中。
对于一些实施例,增强信息数据库340可以被配置为存储可被***所拍摄的视频流305中的信息。该信息可以包括标识信息(例如大学)、广告信息(例如餐厅优惠券)、链接信息(例如餐厅网站的URL链接)和面部信息(例如鲍勃·史密斯)等等。可以为同一对象存储不同类型的增强信息。对于一些实施例,服务器计算机300可以包括对象识别引擎310、面部识别引擎320和增强引擎325。
对象识别引擎310可以被配置为从移动计算设备100接收对象的特性。对象识别引擎310能够被配置为利用跨越多个服务器的分布式工作负荷计算,以提高与视频处理模块135所传输的特性信息相比过滤对象数据库330中存储的已知图像的速度。对象识别引擎310可以使用包含在所拍摄的视频流305的帧中的地理信息和存储在对象数据库330中的信息来识别对象。例如,位于纬度坐标X和经度坐标Y处的具有金字塔形状的黄色建筑物可以被识别为国家金融大厦。对于一些实施例,对象识别引擎310可以使用一组过滤器,并将这些过滤器应用于从移动计算设备100接收的特性或可视信息,以确定它是否能够识别该对象是什么或该人是谁。由于所拍摄的视频流305包括一系列在时间上和近似位置上密切相关的帧,所以这些帧通常包括相同的对象和/或人,并且特性/可视信息可以具有所辨别的对象(或关注点)的主要特征的相同图案。这可以帮助对象识别引擎310减少对象数据库330中可利用的匹配选项。例如,对象识别引擎310可以将关注点的区别性特征识别为电影的广告牌或海报、餐厅(例如麦当劳)、建筑物(例如办公室)、历史地标、住宅等。
面部识别引擎320可以被配置为从移动计算设备100接收人的面部特性。面部识别引擎320可以使用包含在所拍摄的视频流305的帧中的地理信息和存储在面部识别数据库340中的信息来辨别和识别人。对于一些实施例,面部识别引擎320还可以使用包含在帧中的地理信息来辨别所识别的人的位置,以用于方向用途。
增强引擎325可以被配置为从对象识别引擎310和/或面部识别引擎320接收结果,来确定如何选择要传输至移动计算设备110的适合的增强信息,以增强原始视频文件中被辨别的对象,并且被配置为从增强信息数据库350中选择增强信息391。增强信息391可以与对象识别引擎310和/或面部识别引擎320所识别的对象或人相关。通常,增强信息391可以包括能提供与包含在所拍摄的视频流305的帧中的对象和/或人有关的深入信息或内容的任何信息。例如,增强信息391可包括各个建筑物内的食品机构的列表、对特殊生意的用户评论的链接、对网页的链接等。增强引擎325可以选择与用户最相关的增强信息。例如,对象可以是具有许多不同商行的办公楼,并且对象数据库330可以包括与每个商行关联的增强信息。但是,可以仅选择与艺廊关联的增强信息,因为移动计算设备100的用户或操作者的配置文件可能表示该用户只关注现代艺术。
然后,所选择的增强信息391可以被传输至移动计算设备100,并且被视频处理模块135用来生成增强的视频流390。然后,增强的视频流390可以由用户观看或由可能存在于移动计算设备100上的任何其它应用程序使用。拍摄视频流、处理所拍摄的视频流、识别所拍摄的视频流中的对象和/或人、增强所拍摄的视频流以及向用户或其它应用程序呈现增强的视频流的操作实时发生,是在本发明的实施例的范围内的。例如,用户可以拍摄视频流305并且几乎瞬间看见在移动计算设备100的显示屏幕106上显示的增强的视频流390。
对于一些实施例,增强信息可以包括图形信息和/或音频信息。图形增强信息可以叠加所拍摄的视频流305的帧。音频增强信息可以通过移动计算设备100的扬声器142听见。因此,移动计算设备100上的视频处理模块135辨别由摄像头120拍摄的视频流的每个帧中的一个或多个关注点的主要特征,将那些辨别出的关注点传输至服务器计算机300,并且在显示屏106上显示在原始拍摄的视频流上1)叠加、2)高亮或3)叠加和高亮的增强信息,和/或与原始拍摄的视频流一起通过移动计算设备100的扬声器142输出增强信息的音频部分。
对于一些实施例,在对象识别引擎310和/或面部识别引擎320辨别对象时,增强引擎325可以开始传输潜在大的增强信息391(例如视频文件、广告、图像等)。另外,增强引擎325可以在辨别出关注点和对象以后开始传输增强信息391。然后,视频处理模块135可以将增强信息叠加到视频流上。对于一些实施例,用户可以有查看所拍摄视频流的原样的选择权,或者用户可以选择查看相应的增强的视频流。
对于一些实施例,服务器计算机300可以被实现为使用加利福尼亚州旧金山的Autonomy公司的智能数据操作层(IDOL)软件产品及关联***的智能数据操作层(IDOL)服务器。该IDOL服务器从自各种源的连接器收集索引数据来训练这些引擎,并将索引数据存储为其为数据的快速处理和检索而优化的专有结构。作为信息处理层,IDOL形成对企业中所有内容的概念的和上下文的理解,自动分析来自超过数千种不同内容格式及甚至人们关注的任一条信息。IDOL能够对数字内容进行数百个操作,这些操作包括超链接、代理、归纳、分类生成、聚类、推断、剖析、提示和检索。IDOL服务器具有知识库,并与视频处理模块135所传输的特征图案相互关联。图7图示在IDOL服务器中包含的模块的示例。
IDOL服务器使组织能受益于自动化而不丧失人工控制。这种互补方法允许自动处理与人可控制的多种代用相结合,提供两全其美且从来不需要“要么…/要么…”的选择。IDOL服务器集成所有已知的历史***,省去对拼凑多个***来支持它们完全不同的组件的组织的需要。
IDOL服务器可以与IDOL连接器关联,IDOL连接器能够连接数百个内容贮存库和支持超过数千种文件格式。这提供将任何形式的结构化的、半结构化的和非结构化的数据聚合并索引到单一索引内的能力,而不管该文件驻留在哪里。全面的一组连接器能够支持对所有企业信息(包括富媒体)的单点搜索,为组织节约大量时间和金钱。通过几乎访问每一条内容,IDOL为组织的数据资产提供360度的查看。
IDOL服务器实现上下文感知的概念技术,并且使用深度音频和视频索引技术来寻找最相关的产品,最相关的产品包括音乐、游戏和视频。IDOL服务器在没有人工输入的情况下自动分类内容来提供直观导航。IDOL服务器还生成至概念上类似的内容的链接,而不需要用户搜索。可以用自由文本描述和样品图像(例如产品的快照)训练IDOL服务器。业务控制台提供关于查询模式的、人气和点击率的实时度量,这允许操作者响应于改变的需求而配置环境、设置提升和调整相关度。
对于一些实施例,移动计算设备100的视频处理模块135可以辨别对象和/或人的特性,然后致使那个信息被实时传输至IDOL服务器。因此,有可能在服务器计算机300的增强引擎325对第一组帧执行其操作时,移动计算设备100的视频处理模块135可以对第二组帧执行其操作,并且第三组帧连同关联的增强信息可以在显示屏106上显示。
用户配置文件信息和相关增强信息的选择
图3B图示根据一些实施例的可以用于确定对所拍摄的视频流使用的增强信息的服务器计算机的示例。服务器计算机300中包含的组件可以是除图3A中所示的组件以外的组件。这包括用户配置文件引擎328和用户配置文件数据库360。通过维护用户配置文件,服务器计算机300可以利用关于视频流的每个帧中的辨别的关注点的、与主管视频处理模块135的特定移动计算设备的用户更相关的增强信息,来增强这些辨别的关注点。
对于一些实施例,本文描述的***利用关于视频流的每个帧中的辨别的关注点的、与主管视频处理应用135的特定移动计算设备的用户更相关的增强信息(图形信息或音频信息)来增强每个辨别的关注点。能够供应的增强信息的类型被存储在增强信息数据库350中。在选择要对视频流使用的增强信息的过程中,服务器计算机300使用移动计算设备的用户特定信息。
对于一些实施例,移动计算设备100可以与独特的标识信息相关联。该独特的标识信息可以与移动计算设备100的用户标识模块(SIM)150相关联。独特的标识信息可以由用户提供。独特的标识信息可以由服务器计算机300使用,从而在用户配置文件数据库360中建立特定用户或移动计算设备的用户配置文件。用户配置文件信息可以基于怎样使用移动计算设备而产生。随后可以使用相同的独特的标识信息来检索用户配置文件信息。
当用户使用移动计算设备100时,视频处理模块135捕获用户的习惯,并将捕获的信息用作用户配置文件信息。例如,当用户正在拍摄视频流、浏览互联网和拨打电话号码等时,可以捕获用户习惯。用户配置文件信息可以包括常常呼叫的电话号码、经常访问的网站、购买的产品种类、用户的年龄和性别、家庭的城市和地址信息等。用户特定信息的使用以及随时间自动更新和完善用户配置文件信息的能力,对于增强信息的准确提供和靶定是非常重要的,并且将该技术与所有前身区分开。
视频处理模块135将关注点的特征和可视信息的组合连同用户个人的配置文件传输至服务器计算机300,并且将附加的多条信息传输至服务器计算机300。然后,服务器计算机300使用对视频流305中具有在那个位置和那时时间与那个用户具有特别相关性的信息的帧来确定视频流305中的帧的增强信息。用户特定的方面能够自动训练和更新那个用户的用户配置文件,这允许提供更多相关信息。由于每个用户利用该增强视频流的***,所以关于他的使用的信息可以被用于建立代表示他的关注关注、人口特征和/或特定具体使用模式的用户“配置文件”。随后,用户的移动计算设备100能够被部署来为从摄像头搜集信息和视频流,并且将所收集的信息传输至服务器计算机300。这可用于确定在那个特定时间为针对那个用户向该可以被用于***做出的最相关的增强信息,以及并用于使用增强具有附加的可视的或视听的对象或图像来增强的视频流305。因此,维护“用户配置文件”的数据库以表示每个用户的关注、人口特征和/或具体使用模式,在确定什么类型的内容来增强移动设备上拍摄的视频文件的帧中的关注点时,“用户配置文件”的数据库可以被增强引擎所引用。
用户配置文件数据库360被维护以表示每个用户的配置文件,包括用户的关注、人口特征和/或具体使用模式,在确定何种增强信息来增强移动计算设备100上所拍摄的视频流的帧中的关注点时,用户配置文件引擎328和增强引擎325可以引用用户配置文件数据库360。增强引擎325可以具有一组例如二十或更多种不同的增强关注点的方式,无论是向如连锁餐厅这样的一类已知对象应用的一般增强信息,或是仅仅应用于已知对象的特定内容的增强信息,还是从历史关注点的广告、相关网页的链节、街道地址的叠加、电话号码、建筑物中的商铺列表到诸如被创建以加强对象的动画之类的加强的增强信息的不同主题。
用户配置文件引擎328帮助增强引擎325确定选择并向移动计算设备100传输哪个增强信息来加入由移动计算设备100拍摄的视频流的帧中。在实施例中,IDOL服务器***可以自动地规划用户彼此交互以及与他们的移动计算设备上的信息交互的方式,建立他们的关注和位置的概念性理解以提供量身定制的商业内容。一发布新的音轨和相关产品,IDOL服务器就提供自动通知,或者提供位置特定的信息(例如交通报告和最新新闻),而不需要用户搜索。
服务器镜像和分布式处理
图4图示根据一些实施例的具有可以用于过滤从移动计算设备接收的信息的镜像服务器的网络图的示例。连接至网络200的服务器计算机405M、405A、405B和405C可以被配置为IDOL服务器。IDOL服务器可以包括主IDOL服务器405M和多个镜像IDOL服务器405A-405C。主IDOL服务器405M可以将其信息镜像到镜像IDOL服务器405A-405C上。该镜像可以包括将主IDOL服务器数据库406M的内容镜像到镜像IDOL服务器数据库406A-406C中。例如,对象数据库300、面部识别数据库340和增强信息数据库350可以遍及所有镜像IDOL服务器405A-405C镜像。主IDOL服务器405M和镜像IDOL服务器405A-405C可以位于或分布在多个地理位置,以服务这些地区的移动计算设备。例如,主IDOL服务器405M可以位于巴黎,镜像IDOL服务器405A可以位于波士顿,镜像IDOL服务器405B可以位于费城,并且镜像IDOL服务器405C可以位于纽约。
图4中示出的IDOL服务器中每个IDOL服务器可以包括其自己的对象识别引擎310、面部识别引擎320和增强引擎325。服务器在特定位置内的分布有助于提高辨别和增强响应时间。相同服务器站点位置的镜像也帮助提高辨别和增强响应时间。然而此外,通过分布工作负荷并限制物理传输距离和关联时间,相同服务器站点位置的镜像协助给潜在的数百万具有驻留的视频应用的、全部递交具有区别性关注点特征的数据包的移动计算设备提供服务。用相同的内容复制该IDOL服务器组并且穿越互联网镜像该IDOL服务器组,以将该负荷分布至多个相同的站点来改善响应时间并应对那些移动计算设备的查询容量。
对于一些实施例,视频处理模块135可以包括编码块,以在移动计算设备100用于拍摄视频流时呼叫并与主IDOL服务器的最近非过载镜像站点建立永久安全通信信道。例如,移动计算设备410A可以经由通信信道450与IDOL服务器405A连接,因为它们都位于波士顿。然而,即便IDOL服务器405C可能离移动计算设备410A比IDOL服务器405A离移动计算设备410A更远,但因为IDOL服务器405C可能未超载,所以在IDOL服务器405A过载时,移动计算设备410A可能与纽约的IDOL服务器405C连接。
对于一些实施例,一组IDOL服务器可以用于过滤从移动计算设备接收的信息。层次化的一组过滤器可以遍及该组IDOL服务器线性地散布。这些IDOL服务器可以协作地一起工作来处理所传输的对象和/或人可视信息,以确定或识别该对象是什么或该人是谁。例如,当移动计算设备410A与IDOL服务器405A建立通信信道时,IDOL服务器405A-405C可以共同工作来处理从移动计算设备410A接收的信息。这种协作通过IDOL服务器405A和IDOL服务器405C之间的通信信道451以及IDOL服务器405A和IDOL服务器405B之间的通信信道452来图示。类似地,当移动计算设备410B与IDOL服务器405C建立通信信道454时,IDOL服务器405C、405B和405A可以共同工作来处理从移动计算设备410B接收的信息。这种协作通过IDOL服务器405C和IDOL服务器405A之间的通信信道451以及IDOL服务器405C和405B之间的通信信道453来图示。
该组服务器中的每个服务器应用过滤器来消除从移动计算设备100接收的可能与对象数据库330中的多组已知对象的特征相匹配的特征的图案。能够同时消除可能全部种类的匹配对象,然而能够在不同的服务器上同时解决甚至单个种类的可能匹配对象内的子集。每个服务器可以层次化地排除每个机器上的潜在已知图像,以减少通往与所分析的关注对象匹配或不匹配的层次化分支和叶路径。
移动计算设备100有内置的Wi-Fi电路,并且视频流被传输至互联网上的IDOL服务器。IDOL服务器组包括遍布该IDOL服务器组分布的对象识别引擎310、IDOL数据库,还包括增强引擎325。遍布该IDOL服务器组分布的对象识别引擎310将层次化的一组过滤器应用至视频流每个帧中的所传输的经辨别的关注点和与其关联的主要特征,以确定那个帧中的那一个或多个关注点是什么。由于这是一系列在时间和近似位置上密切相关的帧的视频馈给,所以视频流的每个帧中的经辨别的关注点的主要特征的图案帮助减少在对象数据库330中存储的匹配已知对象。
IDOL服务器之间的协作可以帮助加速识别过程。例如,IDOL服务器中的每个IDOL服务器可以应用过滤器来消除可能与存储在对象数据库330中的已知对象的特征相匹配的特征的图案。可以同时消除全部种类的对象,然而协作的IDOL服务器可以同时将甚至单个类别的对象内的子集辨别为潜在的匹配对象。每个IDOL服务器可以层次化地排除潜在的已知对象来减少层次化的分支和叶路径,以确定是否存在匹配。
对于一些实施例,IDOL服务器中的每个IDOL服务器可以将帧中的关注点的可视区别性特征的图案与对象数据库330中的已知对象进行匹配。关注点的特征的几何形状的X-Y坐标可能像点对点连接图示那样给人留下印象。当点在纸的网格上的X-Y坐标以正确顺序连接时,识别与这张纸上的那些点关联的图像/对象是简单的任务。这可以包括将所传输特征的点对点型几何形状连同它们的区别性颜色、识别的文本、数字和符号、地理信息、相对于相机的方向信息与存储在对象数据库330中的特征组进行比较。点对点型几何形状能够被补充设置为区别性的三角形、金字塔、矩形、立方体、圆和圆柱等,每个形状具有其自己的关联的区别性颜色或图案,以帮助辨别和识别。IDOL服务器中的每个IDOL服务器可以层次化地将与关注点有关的特征点的集合映射至存储的已知对象的特征点的图案,以将帧中内容与已知对象进行匹配。
对于一些实施例,当那个被辨别的对象正近实时地(例如小于5秒)在显示屏上显示时,视频处理模块135可以连续地传输所拍摄的视频流305的帧中的关注点306的所辨别的特征,同时对象识别引擎310(分布在大量的IDOL服务器上)和增强引擎325传输回增强信息来增强在移动计算设备100的存储器中存储的视频文件的所拍摄的帧中的所辨别的图像/对象。
如所讨论的,服务器计算机300具有一组一个或多个数据库来存储关于位置(例如建筑物)和结构的可视信息的可扩展数据库,以便执行可视数据流的随后匹配来确定被查看的建筑物或结构。通过将移动用户与这些可视图像所关联的特性的数据库进行匹配,在任何时候,服务器-客户机***解决确定移动用户的确切位置的问题,并且准确地确定用户正在看什么。不管位置如何且以最少训练,该***提供能力来构造对辨别位置的问题的可扩展方案。
具有服务器计算机300和一组一个或多个数据库(例如对象数据库330、面部识别数据库340、增强信息数据库350、用户配置文件数据库330)的***在世界的一组视图上进行训练,所得到的模型被存储以供今后检索。地理信息和可视特性的组合允许更快的匹配。此后,移动计算设备能够被部署为从摄像头搜集地理空间信息和视频数据流并且将其反馈至该***。这用于精准定位视图内的对象或位置,并且使用附加的可视或视听对象或图像来增强视频流。
流程图
图5图示根据一些实施例的可以在移动计算设备上执行来创建增强的视频流的过程的示例流程图。该方法可以与可在移动计算设备100上执行的操作相关联。移动计算设备100可以拍摄视频流的许多帧。在正拍摄这些帧时,这些帧被分析并且这些帧中的对象的特性信息被提取,如框505所示。提取可以涉及特征、几何形状信息、不同颜色、点对点型图案和其它相关信息。提取可以涉及生成关注点的几何形状的X-Y坐标的图案和与这些形状关联的颜色,并且涉及来自GPS模块的地理坐标、来自与该移动计算设备的摄像头121关联的方向传感器122的方向信息。
在框510,将特性信息和地理信息传输至网络中的服务器计算机(例如服务器计算机300),使得该服务器计算机能够过滤信息并确定增强信息。接收特性信息的服务器计算机可以是地理上与移动计算设备100最接近的服务器计算器。如果这个服务器计算机过载,那么作为替代可以选择附近的未过载的服务器计算机。所选择的服务器计算机可以与其它镜像服务器计算机协作来确定增强信息。服务器计算机可以使用层次化的方法执行比较操作和匹配操作。服务器计算机可以查找可使用的不同增强信息。准则可以用于选择向移动计算设备100传输的适当的增强信息。
在框515,从服务器计算机接收增强信息。也许可能的是,当移动计算设备100正接收一系列帧的增强信息时,移动计算设备100还在准备待传输至服务器计算机的另一系列帧的特性信息。通常,针对视频流中的每个帧,从移动计算设备100将包含关注点的特性信息的传输数据包传输至服务器计算机。
在框520,移动计算设备100可以使用增强信息来叠加视频流的适当的帧,并且创造增强的视频流。在框525,增强的视频流在移动计算设备100的显示屏106上显示。
图6A图示根据一些实施例的可以在服务器计算机上执行来确定增强信息的过程的示例流程图。与该方法关联的操作可以由许多服务器执行,这许多服务器协作地工作来几乎实时地向移动计算设备提供结果。该方法可以在框605处开始,这里从移动计算设备10接收特性和地理信息。还可以从方向传感器122接收摄像头121的方向信息。如先前提到的,可以压缩从移动计算设备100传输的信息。因此,服务器可以包括解压缩逻辑,以解压缩信息。如果需要,服务器还可以包括压缩逻辑,以压缩增强信息。在框610,服务器可以执行比较和匹配或识别操作。这可以包括过滤和消除不具有相同特性的任何已知对象。这可以包括减少为可能具有相同特性的潜在已知对象。
也许可能的是,存在每个已知对象的一组增强信息,并且服务器可能需要确定选择哪个增强信息,如框615所示。在框620,将增强信息传输至移动计算设备100。也许可能的是,当服务器在传输视频流的一组帧的增强信息时,服务器还在对与同一视频流关联的另一组帧执行框610中的操作。可以注意到,图5和图6A中描述的方法还可以用于使用面部识别引擎320和面部识别数据库340执行面部识别。
图6B图示根据一些实施例的可以在服务器计算机上执行以基于用户配置文件确定增强信息的过程的示例流程图。与该方法关联的操作可以由IDOL服务器执行,并且可以在图6A的框615中描述的操作上进行扩展。该方法可以在框625开始,这里验证移动计算设备100的标识。移动计算设备100的标识信息可以在初始通信期间,例如在建立移动设备100和服务器计算机300之间的通信信道期间,被传输至服务器计算机300。该标识信息可以由用户配置文件引擎328来确定来自用户配置文件数据库360的合适的用户配置文件,如框630所示。如所讨论的,随着用户随时间推移使用移动计算设备100,可能已经收集用户配置文件。用户配置文件可以包括特定的用户提供的信息。在框635,可以基于用户配置文件中的信息选择增强信息。这允许将相关增强信息传输至移动计算设备100,以增强视频流305,如框640所示。
图6C图示根据一些实施例的可以用于基于移动计算设备所生成的啁啾信号确定距离的过程的示例流程图。该方法可以在已经执行面部识别引擎320的面部识别操作且已经出现确定的识别以后操作。该方法可以在框650开始,这里两个移动计算设备进行初始的啁啾通信。在框655,第一移动计算设备广播啁啾信号预定的次数(例如3次),并记录广播啁啾信号的时钟时间。在框660,第二移动计算设备记录音频信号,并且检测啁啾信号和它们的时钟时间。在框665,在数秒(例如5秒)的暂停以后,该过程反向,此时第二移动计算设备广播其啁啾信号相同的预定次数。然后,第二设备记录其广播时间,并且向第一设备发送检测时间和广播时间。在框670,第一移动计算设备在其记录的音频信号中检测第二移动计算设备的啁啾信号。在框675,从第一移动计算设备中,基于所测得的时钟时间,使用第一公式来确定这两个移动计算设备之间的距离。
在框680,收听由第一移动计算设备和第二移动计算设备广播的这两个啁啾信号的第三移动计算设备也在其记录的音频信号中检测啁啾信号,并且将时间报告给第一移动计算设备。第三移动计算设备可以被置于预定的位置。在框685,从第一移动计算设备,使用第二公式来计算第二移动计算设备关于它自己和第三移动计算设备的位置(x,y),并且对所有三个移动计算设备之间的位置和距离进行三角测量。然后在框690,第一移动计算设备和第二移动计算设备的视频处理模块135将箭头或足迹叠加在显示在各自的显示屏上的视频流上,以指出第一移动计算设备和第二移动计算设备的每个用户应当向哪个方向前进来见面。因此,场景分析、面部识别和后续音频信号的组合用于检测并确定一个或多个移动计算设备的空间精确位置。
智能数据操作层(IDOL)服务器
图7图示根据一些实施例的IDOL服务器的一些模块的示例框图。IDOL服务器700可以包括自动超链接模块705、自动类别模块710、自动查询指引模块715、自动分类生成模块720、配置文件模块725、自动聚类模块730和概念检索模块735。自动超链接模块705被配置为允许相关的多条信息之间人工的和全自动的链接。超链接在查看文件时实时生成。自动类别模块710被配置为允许通过在未结构化的文本中发现的概念获取精确的类别,确保所有数据被分组在正确的上下文中。
自动查询指引模块715被配置为提供查询建议来发现最相关的信息。其通过将结果动态聚类到它们最相关的分组中来辨别词的不同含义。自动分类生成模块720被配置为自动生成分类,并且立即将数据组织到熟悉的子/父分类结构中。其以数据集作为整体基于对概念的理解来辨别名称并创建每个节点。配置文件模块725被配置为基于个人的浏览、内容消费和内容贡献来准确理解个人的关注。它基于明确的配置文件和隐含的配置文件来生成每个用户的多层面的概念配置文件。
自动聚类模块730被配置为帮助分析多组文档和用户配置文件,并且自动辨别内在的主题或信息聚类。它甚至对在邮件、电话交谈和即时消息中交换的未结构化的内容进行聚类。概念检索模块735被配置为使用对概念进行识别的可扩展技术来识别图案,并基于可能不在文档中的词语来查找信息。应当注意,IDOL服务器700还可以包括能够使其能与移动计算设备100一起工作来生成本文描述的增强的视频流的其它模块和特征。如上文描述的,IDOL服务器700的模块中的一个或多个模块可以用于实现对象识别引擎310、面部识别引擎320、增强引擎325和用户配置文件引擎328的功能。
计算机***
图8图示根据一些实施例的可以用于实现增强的视频流的示例计算机***。计算环境802仅是适合的计算环境的一个示例,而并不旨在表示对本发明实施例的使用或功能的范围的任何限制。计算环境802也不应被解释为具有与图8所示的组件中的任一个组件或任何组合相关的任何依赖或需求。
本发明的实施例可以用通用的或专用的计算机***或配置来操作。可以使用的众所周知的计算机***的示例包括但不限于:个人计算机、服务器计算机、手持设备或笔记本电脑设备、平板电脑、智能电话、上网本、多处理器***、基于微处理器的***、机顶盒、可编程消费电子设备、网络PC、微型计算机、大型计算机、包括以上***或设备中任一种的分布式计算环境等等。
本发明的实施例可以在由计算机***执行的计算机可执行指令(例如程序模块)的通常背景下描述。通常,程序模块包括执行特定任务或实现特定抽象数据类型的例程、程序、数据库、对象、组件、数据结构等。本领域技术人员能够将本文中的描述和/或附图实现为计算机可运行指令,计算机可运行指令能够体现在下面介绍的任何形式的计算机可读介质上。
本发明的实施例还可以在分布式计算环境中实施,在分布式计算环境中由通过通信网络链接的远程处理设备执行任务。在分布式计算环境中,程序模块可以位于包括存储器存储设备的本地计算机存储介质和远程计算机存储介质中。
参考图8,计算环境802包括通用计算机***810。计算机***810的组件可以包括但不限于:具有一个或多个处理核心的处理单元820、***存储器830和***总线821,***总线821将包括***存储器在内的各个***组件联接至处理单元820。***总线821可以是使用多种总线体系结构中任一种的包括存储器总线或存储器控制器、***总线及本地总线在内的数种总线结构中的任一种总线结构。作为示例而不作为限制,这样的体系结构包括:工业标准体系结构(ISA)总线、微通道体系结构(MCA)总线、增强型ISA(EISA)总线、视频电子标准协会(VESA)场所总线以及外设组件互连(PCI)总线(也被称为夹层(Mezzanine)总线)。
计算机***810典型地包括各种计算机可读介质。计算机可读介质可以是计算机***810能够访问的且包括易失性介质和非易失性介质、可移除介质和不可移动介质的任何可用介质。作为示例而不作为限制,计算机可读介质的用途包括诸如计算机可读指令、数据结构、程序模块或其它数据之类的信息的存储。计算机存储介质包括但不限于:RAM、ROM、EEPROM、闪存或其它存储器技术、CD-ROM、数字多功能盘(DVD)或其它光盘存储器、磁带盒、磁带、磁盘存储或其它磁性存储设备、或者能够用于存储所需要的信息并能够被计算机***810访问的任何其它介质。通信介质典型地包含计算机可读指令、数据结构、程序模块或其它传输机制,并且包括任何信息传递介质。
***存储器830包括呈易失性和/或非易失性存储器形式的计算机存储介质,例如只读存储器(ROM)831和随机存取存储器(RAM)832。在ROM831中典型地存储基本输入/输出***833(BIOS),基本输入/输出***833(BIOS)包含帮助在计算机***810内的元件之间例如在启动期间传递信息的基本例程。RAM832典型地包含可由处理单元820立即访问的和/或当前由处理单元820操作的数据和/或程序模块。作为示例而不作为限制,图8图示操作***834、应用程序835、其它程序模块836以及程序数据837。
计算机***810还可以包括其它可移除的/不可移除的易失性/非易失性计算机存储介质。仅作为示例,图8图示硬盘驱动器841、磁盘驱动器851和光盘驱动器855,硬盘驱动器841从不可移除的非易失性磁性介质读取或向不可移除的非易失性磁性介质写入,磁盘驱动器851从可移除的非易失性磁盘852读取或向可移除的非易失性磁盘852写入,光盘驱动器855从可移除的非易失性光盘856(例如CD ROM)或其它光学介质读取或向可移除的非易失性光盘856或其它光学介质写入。能够在示例性操作环境中使用的其它可移除/不可移除的易失性/非易失性计算机存储介质包括但不限于:USB驱动器和设备、盒式磁带、闪存卡、数字多功能盘、数字视频磁带、固态RAM、固态ROM等。硬盘驱动器841典型地通过不可移除的存储器接口(例如接口840)连接至***总线821,并且磁盘驱动器851和光盘驱动器855典型地通过可移除的存储器接口(例如接口850)连接至***总线821。
上面讨论的和图8所示的驱动器及其关联的计算机存储介质,为计算机***810提供计算机可读指令、数据结构、程序模块和其它数据的存储。在图8中,例如,硬盘驱动器841被图示为存储操作***844、应用程序845、其它程序模块846和程序数据847。注意,这些组件可以与操作***834、应用程序835、其它程序模块836和程序数据837相同或不同。这里,操作***844、应用程序845、其它程序模块846和程序数据847被给予不同的数字标识,以说明至少它们是不同的副本。
参与者可以通过诸如键盘862、麦克风863和指点设备861(例如鼠标、跟踪球或触摸板)之类的输入设备将命令和信息输入计算机***810。其它输入设备(未示出)可以包括操纵杆、游戏垫、扫描仪等。这些和其它输入设备经常通过与***总线821联接的用户输入接口860与处理单元820连接,但是可以通过诸如并行端口、游戏端口或通用串行总线(USB)之类的其它接口和总线结构连接。监视器891或其它类型的显示设备也通过接口(例如视频接口890)连接至***总线121。除监视器以外,计算机还可以包括诸如扬声器897和打印机896之类的其它***输出设备,其它***输出设备可以通过输出***接口890连接。
计算机***810可以在使用与一个或多个远程计算机(例如远程计算机880)的逻辑连接的联网环境中操作。远程计算机880可以是个人计算机、手持设备、服务器、路由器、网络PC、对等设备或其它公共网络节点,并且典型地包括上面关于计算机***810描述的元件中的许多元件或全部元件。图8所示的逻辑连接包括局域网(LAN)871和广域网(WAN)873,但还可以包括其它网络。这样的联网环境在办公室、企业范围的计算机网络、内联网和互联网中是常见的。
当在LAN联网环境中使用时,计算机***810通过网络接口或适配器870连接至LAN871。当在WAN联网环境中使用时,计算机***810典型地包括调制解调器872或用于通过WAN873(例如互联网)建立通信的其它装置。调制解调器872可以是内部的或外部的,其可以经由用户输入接口860或其它适当机制连接至***总线821。在联网环境中,关于计算机***810或其部分描述的程序模块可以存储在远程存储器存储设备中。作为示例而不作为限制,图8将远程应用程序885图示为驻留在远程计算机880上。将理解,所示出的网络连接是示例性的,可以使用在计算机之间建立通信链路的其它装置。
应当注意,本发明的一些实施例可以在如关于图8描述的计算机***那样的计算机***上实施。然而,本发明的一些实施例可以在服务器上、在专用于消息处理的计算机上、在手持设备上或在分布式***上实施,在分布式***中本设计的不同部分可以在分布式***的不同部分上实施。
可以与***总线821联接的另一设备是电源,例如电池或直流(DC)电源和交流(AC)适配器电路。DC电源可以是电池、燃料电池或类似的需要周期性地再充电的DC电源。通信模块(或调制解调器)872可以采用无线应用协议(WAP)来建立无线通信信道。通信模块872可以实现无线联网标准,例如电气和电子工程师协会(IEEE)802.11标准、IEEE标准802.11-1999(IEEE于1999年公布)。
移动计算设备的示例可以是笔记本计算机、平板电脑、上网本、移动电话、个人数字助理或具有板载处理能力和无线通信能力的由直流(DC)电源(例如燃料电池或电池)供电的其它类似设备,该DC电源向移动计算设备供应DC电压并且仅在移动计算设备中并且需要周期性地再充电。
虽然参考附图对本发明的实施例充分地进行描述,但是要注意,各种变化和修改将对本领域技术人员变得明显。这样的变化和修改应当被理解为包括在由所附权利要求限定的本发明的实施例的范围内。例如,为形状和材料提供特定示例,然而实施例包括那些对本领域技术人员显而易见的变化,例如改变形状或将材料组合在一起。此外,虽然已经示出本发明的一些特定实施例,但是本发明不应局限于这些实施例。例如,已经示出几个特定模块。每个模块执行一些特定功能。然而,所有这些功能可以被组合至一个模块中或者甚至可以进一步被分解成很多模块。由电子硬件组件执行的大多数功能可以由软件模拟来复制,反之亦然。本发明应被理解为不由本文描述的特定实施例限制,而是仅由所附权利要求的范围限制。

Claims (20)

1.一种基于用户配置文件产生相关增强信息的计算机实现方法,所述方法包括:
将针对多个移动计算设备的用户配置文件信息存储在从网络可访问的用户配置文件数据库中,
使用无线通信从连接至所述网络的第一移动计算设备接收标识信息,所述标识信息对应于与所述第一移动计算设备相关联的用户配置文件;
使用无线网络从所述第一移动计算设备接收在第一移动计算设备拍摄的视频流的帧中包括的关注点的特性信息以及与所述视频流的帧相关联的地理信息;
从与所述用户配置文件数据库联接的增强信息数据库中选择相关的增强信息,其中基于与所述第一移动计算设备相关联的用户配置文件选择所述相关的增强信息;以及
将所述相关的增强信息传输至所述第一移动计算设备,以使能够使用所述相关的增强信息来1)叠加、2)高亮或3)叠加并高亮所述视频流中的关注点。
2.根据权利要求1所述的方法,其中来自所述第一移动计算设备的标识信息与所述第一移动计算设备的用户标识模块(SIM)相关联。
3.根据权利要求1所述的方法,其中所述用户配置文件信息基于用户如何随时间使用所述第一移动计算设备而产生、存储并更新,并且由所述第一移动计算设备捕获,并从所述第一移动计算设备接收。
4.根据权利要求3所述的方法,其中所述用户配置文件信息包括用户的个人信息。
5.根据权利要求1所述的方法,其中所述相关的增强信息从与所述特性信息有关的多个增强信息中选择。
6.根据权利要求5所述的方法,其中所述特性信息包括几何形状的图案和相关联的颜色信息。
7.根据权利要去6所述的方法,进一步包括:
将过滤器组应用于所述几何形状的图案和所述相关联的颜色信息以确定是否能够匹配已知对象,所述已知对象存储在与所述增强信息数据库联接的对象数据库中;以及
基于与所述已知对象的匹配,来辨别与所述已知对象相关联的多个增强信息。
8.根据权利要求7所述的方法,其中所述过滤器组通过两个或多个服务器计算机使用分布式处理方式而应用。
9.一种基于用户配置文件产生增强的视频流的计算机实现方法,所述方法包括:
捕获关于用户如何随时间使用第一移动计算设备的信息;
使用无线通信将所捕获的信息以及所述第一计算设备的标识信息传输至服务器计算机,使得所述服务器计算机能够更新与所述第一移动计算设备相关联的用户配置文件;
提取在所述第一移动计算设备拍摄的视频流的帧中包括的关注点的特性信息;
使用无线通信将在所述帧中包括的关注点的特性信息和与所述帧相关联的地理信息传输至所述服务器计算机;
从所述服务器计算机接收与所述关注点相关且基于所述第一移动计算设备所关联的用户配置文件的增强信息;以及
在所述第一移动计算设备的显示屏上与所述视频流的帧一起显示所述增强信息。
10.根据权利要求9所述的方法,其中所述关注点的特性信息包括几何形状信息和相关联的颜色信息,并且其中所述特性信息以文本传输。
11.根据权利要求9所述的方法,其中与所述第一移动计算设备相关联的用户配置文件被存储在与所述服务器计算机相关联的用户配置文件数据库中。
12.根据权利要求11所述的方法,其中关于用户如何随时间使用第一移动计算设备的信息至少包括随时间的浏览习惯和购物习惯,并且其中所述第一移动计算设备的标识信息被所述服务器计算机使用以从所述用户配置文件数据库中辨别与所述第一移动计算设备相关联的用户配置文件。
13.根据权利要求9所述的方法,其中所述第一移动计算设备的标识信息与所述第一移动计算设备的用户标识模块(SIM)相关联。
14.一种基于用户配置文件选择增强信息的服务器计算机***,所述***包括:
被配置为存储关于已知对象的特性信息的对象数据库;
被配置为存储已知对象的增强信息的增强数据库;
被配置为针对连接至网络的包括第一移动计算设备在内的多个移动计算设备存储用户配置文件信息的用户配置文件数据库;
与所述对象数据库联接的对象识别引擎,用于基于从所述第一移动计算设备接收的特性和地理信息与所述对象数据库中的已知对象的特性和地理信息的匹配,来辨别所述已知对象;
与所述用户配置文件数据库联接的用户配置文件引擎,用于辨别与所述第一移动计算设备相关联的用户配置文件信息;以及
与所述增强数据库联接的增强引擎,用于基于与所述第一移动计算设备相关联的用户配置文件信息,并基于已经辨别的已知对象,来选择增强信息,其中所述增强信息需被传输至所述第一移动计算设备。
15.根据权利要求14所述的***,其中从所述第一移动计算设备接收的特性和地理信息与在所述第一移动计算设备拍摄的视频流的帧中包括的关注点相关联,其中所述增强信息从多个增强信息中选择,并且其中所述增强信息包括文本消息或所述关注点的高亮。
16.根据权利要求14所述的***,其中所述对象识别引擎进一步被配置为从所述第一移动接收设备接收摄像头方向信息,并且使用所述摄像头方向信息来辨别所述已知对象。
17.根据权利要求14所述的***,其中所述用户配置文件引擎被配置为基于所述第一移动计算设备的标识信息来辨别与所述第一移动计算设备相关联的用户配置文件信息。
18.根据权利要求17所述的方法,其中所述第一移动计算设备的标识信息与所述第一移动计算设备的用户标识模块(SIM)相关联。
19.根据权利要求14所述的***,其中所述对象识别引擎被配置为应用过滤器组来匹配从所述第一移动计算设备接收的特性和地理信息与所述已知对象的特性和地理信息,并且其中所述过滤器与连接至所述网络的镜像服务器计算机组协作应用。
20.根据权利要求14所述的***,其中所述用户配置文件信息包括与所述第一移动计算设备相关联的用户的个人信息,并且其中所述用户配置文件信息基于用户如何随时间使用所述第一移动计算设备而更新。
CN201280008140.2A 2011-02-08 2012-02-07 使用用户特定内容增强可视数据流的*** Expired - Fee Related CN103635953B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US13/023,495 US8392450B2 (en) 2011-02-08 2011-02-08 System to augment a visual data stream with user-specific content
US13/023,495 2011-02-08
PCT/US2012/024068 WO2012109186A1 (en) 2011-02-08 2012-02-07 A system to augment a visual data stream with user-specific content

Publications (2)

Publication Number Publication Date
CN103635953A true CN103635953A (zh) 2014-03-12
CN103635953B CN103635953B (zh) 2016-12-28

Family

ID=46601402

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201280008140.2A Expired - Fee Related CN103635953B (zh) 2011-02-08 2012-02-07 使用用户特定内容增强可视数据流的***

Country Status (4)

Country Link
US (2) US8392450B2 (zh)
EP (1) EP2673767A4 (zh)
CN (1) CN103635953B (zh)
WO (1) WO2012109186A1 (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104822072A (zh) * 2014-04-25 2015-08-05 腾讯科技(北京)有限公司 推送视频的播放控制方法和播放***以及客户端和服务器
CN111133763A (zh) * 2017-09-26 2020-05-08 Lg 电子株式会社 360视频***中的叠加处理方法及其设备
US10802324B2 (en) 2017-03-14 2020-10-13 Boe Technology Group Co., Ltd. Double vision display method and device

Families Citing this family (41)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012040099A1 (en) * 2010-09-20 2012-03-29 Qualcomm Incorporated An adaptable framework for cloud assisted augmented reality
US8908911B2 (en) * 2011-03-04 2014-12-09 Qualcomm Incorporated Redundant detection filtering
US8582850B2 (en) * 2011-03-08 2013-11-12 Bank Of America Corporation Providing information regarding medical conditions
US8718612B2 (en) 2011-03-08 2014-05-06 Bank Of American Corporation Real-time analysis involving real estate listings
US9773285B2 (en) 2011-03-08 2017-09-26 Bank Of America Corporation Providing data associated with relationships between individuals and images
US9224166B2 (en) 2011-03-08 2015-12-29 Bank Of America Corporation Retrieving product information from embedded sensors via mobile device video analysis
US8611601B2 (en) * 2011-03-08 2013-12-17 Bank Of America Corporation Dynamically indentifying individuals from a captured image
US9317860B2 (en) 2011-03-08 2016-04-19 Bank Of America Corporation Collective network of augmented reality users
US8873807B2 (en) 2011-03-08 2014-10-28 Bank Of America Corporation Vehicle recognition
US8922657B2 (en) 2011-03-08 2014-12-30 Bank Of America Corporation Real-time video image analysis for providing security
US9317835B2 (en) 2011-03-08 2016-04-19 Bank Of America Corporation Populating budgets and/or wish lists using real-time video image analysis
US8721337B2 (en) 2011-03-08 2014-05-13 Bank Of America Corporation Real-time video image analysis for providing virtual landscaping
US9973470B2 (en) * 2011-09-23 2018-05-15 Tara Chand Singhal Systems and methods for faster download of digital content in mobile wireless devices
US9606992B2 (en) * 2011-09-30 2017-03-28 Microsoft Technology Licensing, Llc Personal audio/visual apparatus providing resource management
US9536251B2 (en) * 2011-11-15 2017-01-03 Excalibur Ip, Llc Providing advertisements in an augmented reality environment
US9325797B2 (en) 2012-02-29 2016-04-26 Google Inc. System and method for requesting an updated user location
US20130297998A1 (en) * 2012-05-04 2013-11-07 Qualcomm Innovation Center, Inc. Processing of displayed content to augment viewing
WO2014058357A1 (en) * 2012-10-08 2014-04-17 Telefonaktiebolaget L M Ericsson (Publ) Methods and apparatus for providing contextually relevant data in augmented reality
US9369766B2 (en) 2012-11-06 2016-06-14 Yahoo! Inc. Method and system for remote altering static video content in real time
US9424472B2 (en) * 2012-11-26 2016-08-23 Ebay Inc. Augmented reality information system
CN103873925B (zh) * 2012-12-13 2017-07-25 联想(北京)有限公司 视频处理设备和方法
US9749710B2 (en) * 2013-03-01 2017-08-29 Excalibur Ip, Llc Video analysis system
KR20140118604A (ko) * 2013-03-29 2014-10-08 인텔렉추얼디스커버리 주식회사 개인화된 증강 객체를 전송하는 서버 및 방법
US20140379710A1 (en) 2013-06-19 2014-12-25 International Business Machines Corporation Pattern based video frame navigation aid
US9942295B2 (en) 2013-06-28 2018-04-10 Intel Corporation Live crowdsourced media streaming
US11669562B2 (en) * 2013-10-10 2023-06-06 Aura Home, Inc. Method of clustering photos for digital picture frames with split screen display
JP2015090553A (ja) * 2013-11-05 2015-05-11 株式会社ソニー・コンピュータエンタテインメント 端末装置、付加情報管理装置、および付加情報管理方法
US9677840B2 (en) 2014-03-14 2017-06-13 Lineweight Llc Augmented reality simulator
US9884254B2 (en) * 2014-09-05 2018-02-06 Trigger Global Inc. Augmented reality gaming systems and methods
US10509619B2 (en) * 2014-12-15 2019-12-17 Hand Held Products, Inc. Augmented reality quick-start and user guide
US10334085B2 (en) * 2015-01-29 2019-06-25 Splunk Inc. Facilitating custom content extraction from network packets
US9805269B2 (en) * 2015-11-20 2017-10-31 Adobe Systems Incorporated Techniques for enhancing content memorability of user generated video content
US10129126B2 (en) 2016-06-08 2018-11-13 Bank Of America Corporation System for predictive usage of resources
US10581988B2 (en) 2016-06-08 2020-03-03 Bank Of America Corporation System for predictive use of resources
US10178101B2 (en) 2016-06-08 2019-01-08 Bank Of America Corporation System for creation of alternative path to resource acquisition
US10291487B2 (en) 2016-06-08 2019-05-14 Bank Of America Corporation System for predictive acquisition and use of resources
US10433196B2 (en) 2016-06-08 2019-10-01 Bank Of America Corporation System for tracking resource allocation/usage
TWI617930B (zh) * 2016-09-23 2018-03-11 李雨暹 空間物件搜尋排序方法、系統與電腦可讀取儲存裝置
US20190197312A1 (en) 2017-09-13 2019-06-27 Edward Rashid Lahood Method, apparatus and computer-readable media for displaying augmented reality information
US10728624B2 (en) * 2017-12-29 2020-07-28 Rovi Guides, Inc. Systems and methods for modifying fast-forward speeds based on the user's reaction time when detecting points of interest in content
US10311913B1 (en) 2018-02-22 2019-06-04 Adobe Inc. Summarizing video content based on memorability of the video content

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1710957A (zh) * 2005-06-03 2005-12-21 安凯(广州)软件技术有限公司 用于无线网络和无线手持式设备的mtv播放方法
US20060227992A1 (en) * 2005-04-08 2006-10-12 Rathus Spencer A System and method for accessing electronic data via an image search engine
US7389526B1 (en) * 2001-11-02 2008-06-17 At&T Delaware Intellectual Property, Inc. System and method for recording a digital video image
US20080214153A1 (en) * 2005-09-14 2008-09-04 Jorey Ramer Mobile User Profile Creation based on User Browse Behaviors
US20080268876A1 (en) * 2007-04-24 2008-10-30 Natasha Gelfand Method, Device, Mobile Terminal, and Computer Program Product for a Point of Interest Based Scheme for Improving Mobile Visual Searching Functionalities
US20090167787A1 (en) * 2007-12-28 2009-07-02 Microsoft Corporation Augmented reality and filtering

Family Cites Families (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7177651B1 (en) 2000-09-22 2007-02-13 Texas Instruments Incorporated System and method for the exchange of location information in a telephone network
US7333820B2 (en) 2001-07-17 2008-02-19 Networks In Motion, Inc. System and method for providing routing, mapping, and relative position information to users of a communication network
DE10150105A1 (de) * 2001-10-11 2003-04-30 Siemens Ag Automatische Ermittlung von geometrischen Modellen für optische Teilerkennungen
US6641037B2 (en) * 2001-12-13 2003-11-04 Peter Williams Method and system for interactively providing product related information on demand and providing personalized transactional benefits at a point of purchase
US7084809B2 (en) 2002-07-15 2006-08-01 Qualcomm, Incorporated Apparatus and method of position determination using shared information
US7050786B2 (en) 2002-10-30 2006-05-23 Lockheed Martin Corporation Method and apparatus for locating a wireless device
US7050787B2 (en) 2002-10-30 2006-05-23 Lockheed Martin Corporation Cooperative element location system
US6845338B1 (en) 2003-02-25 2005-01-18 Symbol Technologies, Inc. Telemetric contextually based spatial audio system integrated into a mobile terminal wireless system
US8005958B2 (en) * 2003-06-27 2011-08-23 Ixia Virtual interface
US7221902B2 (en) 2004-04-07 2007-05-22 Nokia Corporation Mobile station and interface adapted for feature extraction from an input media sample
US20060218191A1 (en) * 2004-08-31 2006-09-28 Gopalakrishnan Kumar C Method and System for Managing Multimedia Documents
JP2007072520A (ja) * 2005-09-02 2007-03-22 Sony Corp 映像処理装置
MX2007015979A (es) 2006-03-31 2009-04-07 Nielsen Media Res Inc Metodos, sistemas y aparato para medicion de multiples fines.
GB2436924A (en) 2006-04-08 2007-10-10 David Everett Portable security monitor
US20080077952A1 (en) 2006-09-25 2008-03-27 St Jean Randy Dynamic Association of Advertisements and Digital Video Content, and Overlay of Advertisements on Content
US20080165843A1 (en) 2007-01-03 2008-07-10 Human Monitoring Ltd. Architecture for image compression in a video hardware
EP1965344B1 (en) 2007-02-27 2017-06-28 Accenture Global Services Limited Remote object recognition
US20090176520A1 (en) * 2007-04-12 2009-07-09 Telibrahma Convergent Communications Private Limited Generating User Contexts for Targeted Advertising
US8644842B2 (en) 2007-09-04 2014-02-04 Nokia Corporation Personal augmented reality advertising
US8180396B2 (en) 2007-10-18 2012-05-15 Yahoo! Inc. User augmented reality for camera-enabled mobile devices
US9043828B1 (en) * 2007-12-28 2015-05-26 Google Inc. Placing sponsored-content based on images in video content
US8098881B2 (en) 2008-03-11 2012-01-17 Sony Ericsson Mobile Communications Ab Advertisement insertion systems and methods for digital cameras based on object recognition
US8732246B2 (en) 2008-03-14 2014-05-20 Madhavi Jayanthi Mobile social network for facilitating GPS based services
US20090276154A1 (en) 2008-04-30 2009-11-05 Verizon Corporate Services Group Inc. Method and system for coordinating group travel among mobile devices
US8976027B2 (en) 2008-06-06 2015-03-10 Harris Corporation Information processing system for consumers at a store using personal mobile wireless devices and related methods
US20100081458A1 (en) 2008-10-01 2010-04-01 Qualcomm Incorporated Mobile Terminal Motion Detection Methods and Systems
WO2010051342A1 (en) 2008-11-03 2010-05-06 Veritrix, Inc. User authentication for social networks
US20100309225A1 (en) 2009-06-03 2010-12-09 Gray Douglas R Image matching for mobile augmented reality
US20100325126A1 (en) * 2009-06-18 2010-12-23 Rajaram Shyam S Recommendation based on low-rank approximation
US8958815B2 (en) 2010-02-12 2015-02-17 Broadcom Corporation Method and system for characterizing location and/or range based on transmit power
US8884871B2 (en) 2010-02-26 2014-11-11 Thl Holding Company, Llc Adjunct device for use with a handheld wireless communication device as a screen pointer

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7389526B1 (en) * 2001-11-02 2008-06-17 At&T Delaware Intellectual Property, Inc. System and method for recording a digital video image
US20060227992A1 (en) * 2005-04-08 2006-10-12 Rathus Spencer A System and method for accessing electronic data via an image search engine
CN1710957A (zh) * 2005-06-03 2005-12-21 安凯(广州)软件技术有限公司 用于无线网络和无线手持式设备的mtv播放方法
US20080214153A1 (en) * 2005-09-14 2008-09-04 Jorey Ramer Mobile User Profile Creation based on User Browse Behaviors
US20080268876A1 (en) * 2007-04-24 2008-10-30 Natasha Gelfand Method, Device, Mobile Terminal, and Computer Program Product for a Point of Interest Based Scheme for Improving Mobile Visual Searching Functionalities
US20090167787A1 (en) * 2007-12-28 2009-07-02 Microsoft Corporation Augmented reality and filtering

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104822072A (zh) * 2014-04-25 2015-08-05 腾讯科技(北京)有限公司 推送视频的播放控制方法和播放***以及客户端和服务器
US10802324B2 (en) 2017-03-14 2020-10-13 Boe Technology Group Co., Ltd. Double vision display method and device
CN111133763A (zh) * 2017-09-26 2020-05-08 Lg 电子株式会社 360视频***中的叠加处理方法及其设备
US11575869B2 (en) 2017-09-26 2023-02-07 Lg Electronics Inc. Overlay processing method in 360 video system, and device thereof

Also Published As

Publication number Publication date
US20130159545A1 (en) 2013-06-20
EP2673767A4 (en) 2015-03-18
US8392450B2 (en) 2013-03-05
CN103635953B (zh) 2016-12-28
WO2012109186A1 (en) 2012-08-16
US20120203799A1 (en) 2012-08-09
EP2673767A1 (en) 2013-12-18

Similar Documents

Publication Publication Date Title
CN103635954B (zh) 基于地理和可视信息增强可视数据流的***
CN103635953B (zh) 使用用户特定内容增强可视数据流的***
CN103502999A (zh) 用于使用可视数据流标记和增强地理特定位置的***
CN103621131A (zh) 用于使用视听信息对设备进行空间准确定位的方法
US8682349B2 (en) Location based asynchronous thread communications
US20160057218A1 (en) Method, system, computer program, and apparatus for augmenting media based on proximity detection
EP3288275B1 (en) Methods and systems of providing visual content editing functions
EP3358811A1 (en) Systems and methods for content delivery and management
US9064326B1 (en) Local cache of augmented reality content in a mobile computing device
CN105653636A (zh) 一种信息处理方法和装置、一种用于信息处理的装置
CN103415849A (zh) 用于标注视图图像的至少一个特征的计算机化方法和设备
CN110210045B (zh) 目标区域的人数估算方法、装置及存储介质
FR2987921A1 (fr) Procede de communication et d'informations en realite augmentee
US9424361B2 (en) Information communication method and information communication apparatus
CN104750792B (zh) 一种用户特征的获取方法及装置
CN100414973C (zh) 物体感知方法和相关的感知设备
US9351120B2 (en) Creating a database entry
KR101675061B1 (ko) 위치 정보 기반의 이벤트 관리 시스템, 서버 및 방법
Klein et al. Innovative social location-aware services for mobile phones
TW201408992A (zh) 移動終端、雲伺服器及熱門景點識別方法
JPWO2014103052A1 (ja) 情報処理装置、情報処理方法、及び情報処理プログラム

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C41 Transfer of patent application or patent right or utility model
TA01 Transfer of patent application right

Effective date of registration: 20151215

Address after: Bracknell

Applicant after: Aurisma Ltd.

Address before: cambridge

Applicant before: LONGSAND LTD.

C14 Grant of patent or utility model
GR01 Patent grant
TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20181126

Address after: Texas, USA

Patentee after: HEWLETT-PACKARD DEVELOPMENT Co.,L.P.

Address before: Bracknell

Patentee before: Aurisma Ltd.

CF01 Termination of patent right due to non-payment of annual fee
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20161228

Termination date: 20220207