CN1298607A - 采用摄像机阵列的可巡视远程出席方法及*** - Google Patents

采用摄像机阵列的可巡视远程出席方法及*** Download PDF

Info

Publication number
CN1298607A
CN1298607A CN99805539A CN99805539A CN1298607A CN 1298607 A CN1298607 A CN 1298607A CN 99805539 A CN99805539 A CN 99805539A CN 99805539 A CN99805539 A CN 99805539A CN 1298607 A CN1298607 A CN 1298607A
Authority
CN
China
Prior art keywords
user
video camera
image
output
processing unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN99805539A
Other languages
English (en)
Inventor
斯科特·索罗肯
安德鲁·H·威伯
戴维·C·沃利
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kewazinga Corp
Original Assignee
Kewazinga Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=22157205&utm_source=***_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=CN1298607(A) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by Kewazinga Corp filed Critical Kewazinga Corp
Publication of CN1298607A publication Critical patent/CN1298607A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2625Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects for obtaining an image which is composed of images from a temporal image sequence, e.g. for a stroboscopic effect
    • H04N5/2627Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects for obtaining an image which is composed of images from a temporal image sequence, e.g. for a stroboscopic effect for providing spin image effect, 3D stop motion effect or temporal freeze effect
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Studio Devices (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Navigation (AREA)

Abstract

一种远程出席***(100),利用一摄像机阵列(14)向第一用户(22—1)提供环境的第一显示(24—1)、向第二用户(22—2)提供环境的第二显示(24—2)。每台摄像机均有一个关联的环境画面。第一用户接口设备(24—1)具有与沿第一路径的移动相关联的第一用户输入,第二用户接口设备(24—2)具有与第二路径相关联的第二用户输入。处理部件解释上述第一和第二输入并独立地选择摄像机(14)的输出,从而使得第一用户(22—1)和第二用户(22—2)同时并独立地巡视所说的环境。

Description

采用摄像机阵列的可巡视远程出席方法及***
对相关申请的相互参照
本申请要求拥有美国临时专利申请序列号60/080413的利益,该临时申请于1998年4月2日提出,在此引用作为参考。
发明背景
1.发明领域
本发明涉及一种远程出席***,更具体地说,涉及一种可巡视的摄像机阵列远程出席***及使用该***的方法。
2.相关技术介绍
一般来说,需要开发适用于诸如博物馆之类静态聚会场所和诸如音乐会之类动态聚会场所或公共活动的远程出席***。观察这类场所受时间、地理位置和这类场所观众容纳量的限制。例如,想参观博物馆的人可能因为开馆时间有限而无法参观陈列品。同样,音乐会的主办者也会因为演出场地座位有限而不得不回绝音乐迷。总之,场所使用上的限制会减少收入。
为了提高静态和动态场所的收入,可对这些场所进行拍摄,以便播出或发行。在某些情况下,也可对动态场所进行直播。广播固然能增加对这些场所的参与,但有相当大的制作工作量。通常,在把多部摄像机的场景组合在一起时,拍摄下来的播出节目必须经过剪辑。这些剪辑和制作费用相当昂贵。
在某些情况下,这些剪辑和制作所形成的播出节目只能给观看者提供有限的享受。具体地说,这种播出节目一般是以用预先设置的数量有限的几部摄像机拍摄前述场所为基础的。因此,这种播出节目包含有有限的观看角度和现场视角。而且,播出节目中的观看角度和视角是由制作人或导演在编辑和制作过程中选定的,观看者没有自主权。此外,尽管播出节目经常是多镜头拍摄的,但播出节目仍有有限的内容,因为每一视野都与第一个相同。由于每一次展示看起来和听起来相同,故观看者很少会为多视野而再次观看。
能够有幸亲临现场的观众会面临许多同样的问题。例如,去博物馆的人必须站在栏杆后面,从有限的角度和视角观看展览。同样,参加音乐会的人通常被限于剧场内特定座位或区域。即使观众能自由地接近整个舞台来对现场进行摄像,但拍摄的也只是有有限的内容,因为每个视野都与第一个相同。所以,存在有对这样一种远程出席***的需求,该远程出席***能最佳地使用户有自主权,同时能用减少了的制作成本拍摄到更多的内容。
显然,已经尝试开发出远程出席***,以满足上述需要。1998年1月13日颁发的美国专利No.5,708,469“采用钢丝网架来固定多部摄像机相对机位并识别取景范围的多机位取景远程出席拍摄***”中描述了一种远程出席***。该文公开的***包括多部摄像机,其中每台摄像机均具有在空间上连续并与至少另一台摄像机成直角的视野。换言之,最好摄像机的视野彼此不搭接。用户界面使得用户可在场景之间进行切换。为了使用户的视野能覆盖整个现场或环境,一活动机架承载着这些摄像机。
然而,这种***有若干缺点。例如,为了保证观看者的视角能覆盖整个现场,必须启动和控制活动机架。这就会使***操作复杂化。而且,由于摄像机的取景范围通常按成直角的方式衔接,因而改变摄像机的取景区将导致不连续的图像。
在提供远程出席***方面的其他尝试是采用360°摄象机***。1998年4月28日颁布的美国专利No.5,745,305“全景取景设备”中描述了一种这样的***。该文所说明的***通过在金字塔形状的反射部件周围设置多部摄像机而实现了对环境的360°取景。共享一个共用虚拟光学中心的每台摄像机均从金字塔形反射部件的不同侧面接收图像。其他类型的360°摄像机***则使用了抛物面镜头或旋转摄像机。
这种360°摄象机***也有缺点。具体地说,这种***将用户的视野相对给定的透视点限于360°。换言之,360°摄象机***从单一位置向用户提供全景视野。只有把此摄象***安装在活动机架上,用户才能体验到整个环境的模拟运动。
1993年2月16日颁发的美国专利No.5,187,571“远端位置多角度显示电视***”描述了与上述360°摄象机***相类似的摄像机***。此***可让用户选取组合视野中任意且连续变化的片段。多台摄像机排列成使得每台摄像机的视野能与相邻摄像机视野连续地相并接,从而形成组合视野。组合视野可扩展至覆盖360°。为了得到组合视野,摄像机的取景范围必须是连续的。为了让摄像机的取景范围是连续的,摄像机必须共用一个共同的透视点或顶点。因此,与上述360°摄象机***相类似,美国专利No.5,187,571的***也是把用户的视野限制在单一的透视点上,而不能让用户体验视点在整个环境中的运动。
还有,就美国专利No.5,187,571的***而言,为了获得摄像机取景范围之间的连续性,需要有相对复杂的反射镜结构。此外,每一台摄像机还必须看上去都安放在同一垂直平面上。
所以,仍需要有一种改进型的远程出席***,这种***最好能时实地更好地模拟观众实际出现在聚会场所中。
3.发明概要
本发明能够满足上述和其他需要。本发明一个实施例的远程出席***包括一摄像机阵列,每台摄像机均具有相关的环境景象和代表此景象的相关输出。所述***还包括一第一用户接口设备,它具有与沿上述阵列中第一路径的运动相关的第一用户输入。所述***还包括一第二用户接口设备,它具有与沿上述阵列中第二路径的运动相关的第二用户输入。一处理器与上述用户接口设备相连。所述处理器接收和解释第一输入并选择第一路径中摄像机的输出。与此相似,处理器也按独立于第一输入的方式接收和解释第二输入并选择第二路径中摄像机的输出。因此,第一用户和第二用户能够同时且独立地巡视整个阵列。在本发明的另一个实施例中,所述出席***可区分出阵列中可操作摄像机和阵列中不可操作摄像机。
附图简述
图1是本发明一个实施例的总体示意图;
图2a是本发明一个实施例的阵列中摄像机和摄像机轨道部分的透视图;
图2b-2d是本发明一个实施例的摄像机和摄像机轨道的侧视平面图;
图2e是本发明一个实施例的摄像机轨道的俯视平面图;
图3是本发明一个实施例的摄像机阵列的一部分的透视图;
图4是本发明另一个实施例的摄像机阵列的一部分的透视图;
图5是说明本发明一个实施例的用户接口一般操作的流程图;
图6是详细说明图5所示操作的一部分的流程图;
图7a是本发明一个实施例的一部分的透视图,它说明摄像机阵列相对被观察物体的配置;
图7b-7g表示从图7a的阵列中选定一些摄像机的透视的图;
图8是本发明另一实施例的示意图;
图9是本发明一个实施例的服务器的示意图;
图10是本发明另一实施例的服务器的示意图;
对最佳实施例的说明
1.最佳实施例的一般说明
本发明涉及一种远程出席***,在最佳实施例中,该***使用了模块化的互锁式***机阵列。摄像机安装在轨道上,每个轨道上均安装多台摄像机。每一个摄像机均被锁定成与阵列中相邻摄像机有固定的关系并在在一给定的环境内分散布列,这些摄像机能使得远程观众按同样的空间和视觉线索(变化的视线、移动的光反射和阴影)巡视整个环境,这就会具有实际的身临其境变化的特点。
在另一个最佳实施例中,这些***机的输出通过一小束(不到头发宽度一半的)垂直腔表面发射激光(VCSEL)与光纤相连,再通过局域网络送到集线器缓存到服务器阵列或服务器群组上〔以便记录下来或(瞬时)转发〕,然后被发送给远程终端、互动电视墙(interactivewall screen)、或移动影像设备(例如仿真视网膜显示器)前的观众。每一位远程观众均可通过直观的图形用户界面(GUI)毫不费力地巡视整个环境,从而能在整个活动中无缝地移动。
上述***包括多路电子切换过程(观众是看不可见的),这一过程能将观众的视点从一台摄像机移至另一台摄像机上。上述***本身并不依赖于实际上使***机作空间移动,而是用多个固定的***机,按在阵列所覆盖的范围内以有序的视觉和听觉路径的方式将观众的视点从一台***机节点移动到相邻***机节点上。这就会使观众能自由地巡视或推拉查看一个三维的远端环境,从而能遍历活动并就移至什么地方、什么时候逗留实时地自主作出决定。
让观众能够实际移动自动摄像机会大大限制通过给定摄像机同时控制自已进程和巡视活动的观众数量,本***不采用这种做法,而是按通过电子切换(从而在阵列中移动摄象机)将多台摄像机的视野合并进无缝运动路径内的方式,让观众在多个***机的输出之间移动。
2.最佳实施例的详细说明
以下将参照附图详细说明本发明的某些实施例。应该认识到,本文所述的实施例的许多部件的操作和功能对于本领域的技术人员来说是已知的,所以,本说明书不对这些操作和功能作详细介绍。
图1中示出了本发明的远程出席***100。远程出席***100通常包括一个由摄像机14构成的阵列10,摄像机与服务器18相连,而服务器18与一个或多个具有用户接口/显示设备24的用户22相连。本领域技术人员将会认识到,本文所述实施例的操作和功能部分是由上述服务器和用户接口/显示设备来提供的。尽管没有用特定的代码列表或逻辑图来说明这些部件的操作,但应该认识到,本领域技术人员能够根据本文提供的功能和操作细节来正确地进行操作。并且,本发明的范围不应被认为是受限于某一特定代码或逻辑实施方法。
本实施例中,摄像机阵列10被抽象化成位于一X、Z座标***内。这就使得每台摄像机均有一个相关的唯一节点地址,它包括X和Z坐标(X、Z)。在本实施例中,例如,对应于特定摄像机的坐标轴的坐标值,代表该摄像机沿着此坐标轴相对于作为参照物的摄像机的偏移量。本实施例中,从用户的角度看,X轴是从左到右的,Z轴是上下方向的。每一台摄像机14均通过其X、Z坐标来加以标识。然而应该认识到,也可以采用其他方法来标识摄像机14。例如,可以使用那些表明相对于一个固定参照点的角度偏移量的坐标***以及表明相对于当前摄像机节点相对偏移量的坐标***。在另一个实施例中,所述摄像机阵列是三维的,位于X、Y、Z坐标***内。
阵列10包括多个轨道12,每个轨道12均包括一系列摄像机14。在本发明的最佳实施例中,摄像机14为***机。***机14的输出通过局域集线器16与服务器18相连。局域集线器16将上述输出聚集到一起,在必要时放大这些输出,以便传送至服务器18。在另一个实施例中,局域集线器16对所述输出进行多路传输,以便传送至服务器18。尽管附图将摄像机14和服务器18之间的通信链路15表示为硬连线,但应该认识到,也可以使用无线链路。因此,采用光纤、电缆、卫星、微波传输、因特网或其他方式的通信链路15均在本发明的范围内。
连接在服务器18上的还有一电子储存设备20。服务器18将上述输出传送到电子存储设备20。电子(大容量)存储设备20则将每个摄像机的输出传送至诸如CD-ROM、DVD、磁带、唱片、磁盘阵列以及诸如此类的存储介质或装置中。每一台摄像机14的输出均被储存到存储介质中与该摄像机14相关的具***置,或者按能表明各存储输出与哪台摄像机14相对应的方式加以存储。例如,每一台摄像机14的输出均可存入单独的碟盘、磁带、CD-ROM或唱片上的相邻区域。正如本技术中所周知的那样,摄像机的输出可按诸如JPEG、MPEG1、MPEG2等之类的压缩格式来加以储存。将各输出存储起来可使用户能够在以后每次按新路径巡视阵列10时反复观看前述环境,如下所述。在本发明的某些实施例中,诸如在仅能提供实时观看的***中,不需要有存储设备。
如以下将予以详细说明的那样,服务器18从阵列中的摄像机14中接收输出。服务器18对这些输出进行处理,以便存入电子存储设备20、传至用户22或两者都进行。
应该认识到,尽管在本实例中将服务器18设置成能提供***100的功能,但应当理解,其他处理器也能提供***100的功能。例如,在其它实施例中,用户接口设备是一台个人电脑,它被编程成能解释用户输入并传输对所要求当前节点地址的指示、缓存阵列的输出且提供其他所述功能。
如图所示,***100可容纳多个用户22(但不是必须的)。每一个用户22都有与其相连的用户接口设备,所述用户接口设备包括一个用户显示设备(共同用标号24来表示)。例如,用户22-1具有一相连的用户接口设备和一用户显示设备,该用户显示设备为一台有显示器和键盘的计算机24-1形式。用户22-2具有一与其相连的互动电视墙24-2,它可用作用户接口设备和用户显示设备。用户22-3的用户接口设备和用户显示设备包括一个移动音频和图像设备24-3。数字互动电视24-4则是用户22-4的用户接口设备和用户显示设备。与此相似,用户22-5具有作为用户接口设备和显示设备的声音识别单元和监视器24-5。应当认识到,前述用户接口设备和用户显示设备只是举例而已,例如,其他用户接口设备包括鼠标、触摸屏、生物反馈装置以及美国临时专利申请序列号60/080,413所述的设备和其他类似装置。
正如以下详述的那样,每个用户接口设备24均有与其相关的用户输入。这些用户输入允许每个用户22通过阵列10独立地移动或巡视。换句话说,每位用户22进行输入一般都是为了选择将哪一台摄像机的输出传输到用户显示设备上。最好是每个用户显示设备都包括阵列10的图形显示。图形显示包括表明正在查看阵列中哪一台摄像机的输出。用户输入不仅允许每位用户选择特定的摄像机,还允许用户选择在阵列中10中的相对运动或巡视路径。
如图1所示,每位用户22均可以通过独立的通信链路与服务器18相联。而且,每个通信链路均可以采用不同的技术。例如,在其它实施例中,通信链路包括互联网链路、微波信号链路、卫星链路、电缆链路、光纤链路,无线链路等。
应该意识到,阵列10提供了若干优点。例如,由于阵列10使用了一系列摄像机14,因而不必移动单个摄象机或全部的摄像机阵列10就可连续地查看周围环境。相反,用户可以通过阵列10巡视,阵列10则策略地设置在要查看环境的中间或周围。此外,由于阵列10的摄像机14实际上位于所要拍摄的环境的不同点上,故用户能够从视点上观察到变化,这一点对仅能改变焦距的单个摄像机来说是无法作到的。
***机
各摄像机14最好是***机。***机--安装在指甲盖大小的CMOS主动像素传感器(APS)微型芯片上的微型镜头--设置成这样的形式:能使观众快速地直线移动或流畅的复合移动。一些公司将这种摄像机作为主流产品生产,其中包括位于加州帕萨迪纳的Photobit公司、新泽西州普林斯顿的Sarnoff公司和苏格兰Edinburgh的VLSIVision有限公司。
阵列的结构
以下将参照图2a-2e详细说明阵列10的结构。通常,本实施例的摄像机阵列10包括一系列承载***机14的模块化轨道12。以下将参照图2a至2d详细说明轨道12的结构和摄像机14。每台摄像机14均包括定位销(registration pin)34。在上述最佳实施例中,摄像机14利用VCSEL把其输出传至轨道12。但是,应该认识到,本发明并不限于任何特定类型的摄像机14,也不限于只包含一种类型摄像机14的阵列10。
每一轨道12均包括两个侧面12a和12b,其中至少一侧面12b以铰接的方式与轨道12的基体12c相连接。基体12c包括插销孔36,它用于接收摄像机14的定位销34。当摄像机14安装到轨道12上从而使定位销34全部嵌入插销孔36内时,轨道12的铰接侧面12b会向摄像机14的基体32运动,从而将摄像机14固定在轨道12上。
每一轨道12还包括第一端38和第二端44。在本实施例中,第一端38包括两个锁定插销40和一个受保护的传输转播端口42,该端口供传输摄像机输出之用。第二端44包括两个用于接收锁定插销40的引导孔46以及一个传输接收端口48。因此,轨道12的第一端38可与另一个轨道12的第二端44相接合。所以,每个轨道12都是模块化的,在功能上可以与另一个轨道相连接,从而构成了阵列10。
一旦摄像机14被牢固地安装到轨道12上,摄像机14就定位成该摄像机的输出可以通过VCSEL传输至轨道12。每一轨道12均包括用于传输来自各摄像机14的输出的通信路径。
尽管示出了阵列10具有特定的结构,但是,应当认识到,实际上轨道12和摄像机14的任何结构都在本发明的范围之内。例如,阵列10可以是摄像机14的线性阵列、摄像机14的两维阵列、摄像机14的三维阵列或它们的任何组合。此外,阵列10不必仅由直线部分构成,而是可以包括曲线部分。
阵列10可由多种支撑装置中的任何一种来支撑。例如,阵列10可以固定安装在墙上或天花板上;阵列10可以固定在移动的架子上,所述架子可靠轮子进入环境中的适当位置或以缆线悬挂。
图3图示阵列10的一部分的实例。如图所示,阵列10包括五行轨道12a至12e。每条轨道12a-12e都朝向一个中心平面,此平面基本上经过中心一行轨道12c。因此,就任何位于与中间一行轨道12c相同位置上的物体而言,用户可以基本上从底下、前面和上面观察到此物体。
如上所述,阵列10的轨道12不必有同样的几何形状。例如,某些轨道12可以是平直的,而另一些则可以是弯的。例如,图4表示采用弯曲轨道形成的摄像机阵列。应该注意,图4中的轨道是透明的,因此可很容地看出摄像机14的结构。
在另一实例中,按阶梯的方式配置各个轨道,每台摄像机均位于前一摄像机的上面和前面。按照这种结构,用户可以选择在环境中向前移动。
应当理解,***机14的摆放取决于具体的使用情况,包括拍摄何种物体,***机14的焦距以及移过阵列10的速度。在一个实施例中,***机14之间的距离可以大致与通常的胶片式电影放映机相类似。一般来说,放映机在环境中的移动速度除以每秒帧数即可得出帧数-距离的比率。
例如,如以下等式所示,在某些应用中每英寸即摄取一帧。一个通常的电影放映机每秒记录24帧图像。当这种放映机按每秒两英尺的速度在环境中移动时,每一英寸大约记录一帧图像。
2英尺/秒(24帧/秒=2英尺/24帧=1英尺/12帧=12英寸/12帧=
1英寸/1帧=每英寸1帧
放映机的一帧类似于本发明中的摄像机14。因此,如果每英寸一帧可以使电影得到衔接完美的环境画面,那么每英寸一台摄像机14也可以达到相同效果。所以,在本发明的一个实施例中,各摄像机14大约相隔一英寸,因而能得到衔接完美的环境画面。
巡视整个***
以下将参照图5和继续参照图1说明本实施例的一般操作。如步骤110所示,向用户提供与起始摄像机相对应的预定环境起始画面。应该认识到,该***的操作部分地受控于驻留在服务器中的软件。如上所述,该***使阵列中的每一台摄像机均与一坐标相关联。所以,***能够注意到开始摄像机节点的坐标值。只有在收到用户的输入时,摄像机的输出和相应的画面才改变。
当用户决定要在阵列中移动或巡视时,用户通过用户接口设备24输入用户输入。如下所述,本实施例的用户输入一般包括在阵列中向右、向左、向上或向下移动。另外,用户可以跳转到阵列中的特定摄像机。在其他实施例中,使用了这些或其他输入的子集,如向前、向后、斜向、上方、下方。在步骤120中,用户接口设备将用户输入传送给服务器。
然后,在步骤130中服务器接收用户输入并继续对该输入解码。在本实施例中,对输入进行解码一般包括确定用户是否希望在阵列中向右、向左、向上、或向下移动。
另一方面,如果所收到的用户输入不是向后的,则服务器18就继续确定输入是否是通过阵列10向用户的右边移动。这个确定过程如步骤140所示。如果所收到的用户输入是向右移动,则在步骤150中使当前节点地址沿X轴增加,以获得更新后的节点地址。
如果所收到的用户输入不是在阵列中向右移动,则在步骤160中服务器18判断该输入是否通过阵列10向用户的左边移动。一旦判断出输入是向左移动,服务器18就使当前节点地址沿X轴减少,以获得更新后的地址。如步骤170所示。
如果所收到的用户输入既不是向右移动也不是向左移动,则服务器18就判断该输入是否通过阵列10向上移动。在步骤180中进行这种判断。如果用户输入是向上移动,则在步骤190中服务器18会使当前节点地址沿Z轴增加,以获得更新后的地址。
然后,服务器18判断所收到的用户输入是否是通过阵列10向下移动。步骤200中进行这种判断。如果输入是在阵列10中向下移动,则在步骤210中服务器18会使当前节点地址沿Z轴减少。
最后,在步骤220中,服务器18判断所收到的用户输入是否是使视野跳转或改变到特定的摄像机14。如图5所示,如果输入是跳转到特定的摄像机14,则服务器18就改变当前节点地址,以反映所要求的摄像机位置。更新节点地址的过程如步骤230所示。在另一实施例中,该输入跳转到阵列10中的特定位置,该位置不是由用户指定为某一摄像机,而是通过参照诸如舞台右边之类的现场而指定的。
应当认识到,服务器18可以用许多方式中的任何一种,包括按照任何次序对所收到的用户输入进行解码。例如,在另一个实施例中,服务器18首先判断用户输入是向上还是向下。在另一个最佳实施例中,用户的巡视包括在一个三维的阵列中向前、向后、向左、向右、向上、向下移动。
如果所收到的用户输入不是任何可以识别的输入(即通过阵列10向右、向左、向上、向下,或跳转到某一位置),那么在步骤240中,服务器18就产生一消息信号传送到用户显示设备24,使得所收到的输入信号不能识别的消息显示给用户22。然后,***100的操作从步骤120继续,服务器18等待接收下一个用户输入。
在通过沿某一轴提高或降低节点地址或者通过跳转到特定节点地址而调整当前节点地址之后,服务器18继续步骤250以调整用户画面。一旦调整完画面,在服务器18等待接收下次用户输入时,***100的操作再次从步骤120继续。
在另一实施例中,服务器18继续根据所收到的用户输入更新节点地址并调整画面。例如,如果用户输入是“向右移动”,那么,***100的操作将继续通过步骤140、150和250循环,以检查不同的用户输入。当收到不同的用户输入时,服务器18就相应地继续更新画面。
应当认识到,上述用户输入即向右、向左、向上、向下仅大致地说明了在阵列中的移动。尽管本发明不受此限制,但在本发明的最佳实施例中,根据用户输入对沿这些大致方向中的每一个的移动作了进一步的限定。
为此,图6是所述***按图5的步骤140、150和250的操作的更详细的图。而且,应当认识到,尽管图6只详细说明了一个方向的移动即向右移动,但同样详细的移动也适用于任何其他方向。如图所示,判断用户输入是否是向右移动实际上包括多个判断过程。正如以下所详细说明的那样,这些判断包括通过阵列10以不同速度向右移动,以不同速度向右移进复合的其它来源输出,以及用***100来代替用户输入。
本发明允许用户22以不同的速度通过阵列10巡视。根据用户通过移动指示设备(或其他接口设备)之类的输入所指示的速度(即每单位时间切换的摄像机节点数),服务器18使用这样一种算法,该算法可按临界速度(每单位时间n个节点)、低于临界速度(每单位时间n-1个节点)、高于临界速度(每单位时间n+1个节点)控制摄像机输出之间的转换速度。
应该认识到,通过阵列10移动的速度也可表示为从一个摄像机14切换至另一台摄像机14的时间。
具体地说,如步骤140a所示,服务器18判断用户输入是否是按临界速度向右移动。临界速度最好是由***操作员或设计者根据予先考虑的要拍摄的环境设置的通过阵列10的一预定的移动速度。此外,临界速度还取决于各种其他因素如焦距、摄像机之间的距离、摄像机和被摄物体之间的距离等等。通过阵列10移动的速度受控于在一给定时段来回移动的摄像机14的数量。因此,以临界速度通过阵列10移动对应于每毫秒来回移动某一数字“n”个摄像机节点,或花费一定量的时间“s”从一台摄像机14切换到另一台摄像机14。应当认识到,在同一个实施例中,通过阵列10在一维上移动的临界速度不必等于在另一维上移动的临界速度。因而,服务器18沿X轴按每毫秒n个节点增加当前节点地址。
在上述最佳实施例中,用户每秒来回移动24个摄像机14。如上所述,电影放映机每秒钟记录24帧图像。电影放映机和本发明相类似,以临界速度移动时,用户每秒来回移动(且服务器18在摄像机之间切换)大约24台摄像机14,或每0.04167秒来回移动一台摄像机14。
如图6所示,用户22不仅可以临界速度前进,也可如步骤140b所示以超临界速度前进,或以低于临界速度前进,如步骤140c所示。在用户输入“I”表示以超临界速度通过阵列10移动的情况下,服务器18沿X轴按大于n的单位(例如按每毫秒n+2个节点)增加当前节点地址。步骤150b示出了以每毫秒n+1个节点沿X轴增加当前节点地址的步骤。在用户输入“I”表示按低于临界速度通过阵列10移动的情况下,服务器18继续按小于n的变量例如每毫秒n-1个节点增加当前节点地址。步骤150c示出了这一操作。可升级的阵列(scaleable arravs)
阵列10的形状也可以进行电子化调整(electronically scale),而且***100设计有“重心”,该重心可在用户22释放控制权或在***100按照程序取代用户的自主权时很容易地使用户图像路径回到“开始”或“临界位置”节点或节点环;也就是说,阵列10的活动参数或几何形状可以予先配置成按指定的时间或时段改变,以便在需要造成戏剧性效果时吸引或集中注意力。***操作员可通过实时操控或预先设定的电子代理器按顺序激活或关闭摄像机阵列10的指定部分。这对于在戏剧或娱乐节目中维护著作权和保持戏剧性效果具有特别重要的意义,并且对控制用户22通过阵列10有什么样的巡视自由度也有特别重要的意义。
在本实施例中,***100可以由程序控制成使用户22在特定时间或间段不能使用阵列10的某些部分。因此,服务器18按照图6的步骤140d继续进行,判断用户输入是否是在阵列中向右移动,但由巡视控制算法控制。巡视控制算法使服务器18根据巡视控制因素来判断是否允许用户所要求的移动。
更具体的说,已编为程序贮存于服务器18中的巡视控制算法,可判断所要求的移动是否会使当前节点地址超出节点坐标所允许的范围。在本实施例中,节点坐标所允许的范围已预先确定并取决于服务器18所示在一天中的时间。所以,在本实施例中,巡视控制因素包括时间。正如本领域的技术人员理解的那样,可允许的摄像机节点与控制因素可以作成关联表格,存于存储器中。
在另一个实施例中,巡视控制因素包括时间,该时间如服务器所示从被摄活动的开始计算。在此实施例中,***操作员可以规定用户从阵列中的何处观察某些场景。在另一个实施例中,巡视控制因素是通过阵列移动的速度。例如,用户22在阵列中移动或巡视的速度越快,旋转程度就越宽。在其他一些实施例中,节点坐标所允许的范围不是预先设定的。在一个实施例中,巡视控制因素和允许范围由通过输入设备与服务器联系的***操作员加以动态控制。
服务器18在判断用户输入受巡视控制算法控制之后按照步骤150d继续,以便沿着预先设定的路径增加当前节点地址。***操作员通过沿着预先设定的路径增加当前节点地址而将用户22的注意力吸引或集中到可操作的摄像机14的特定画面上,因而可在戏剧或娱乐节目中维护著作权和保持戏剧性效果。
在另一个实施例中,用户的输入受到巡视控制算法的控制,服务器18不让用户沿着预定的路径移动。相反,服务器18只等待被允许的用户输入,并在当前节点上保持画面。只有当服务器18收到能产生被允许的节点坐标的用户输入时,服务器18才调整用户画面。
其它来源输出
除了可以通过阵列10移动以外,用户22还可以在阵列10的预定位置处选择离开正在拍摄的真实世界环境。更具体的说,可将诸如电脑图像、虚拟世界图像、小程序、电影剪辑以及加工和未加工的摄像机输出之类的其他来源输出提供给用户22。在一个实施例中,将其他来源输出与真实环境的图像结合在一起。在另一个实施例中,将用户的图像从真实环境完全传到其他来源输出所提供的环境。
更具体地说,其他来源输出(最好以数字形式)被储存到电子存储设备20中。当用户22输入要观察其他来源输出的意愿时,则服务器18就将其他来源输出传送到用户接口/显示设备24。在本实施例中,服务器18只是仅将其他来源输出传送给用户显示设备24。在另一个实施例中,服务器18首先将其他来源输出与摄像机的输出合并到一起,然后将合并的信号传送给用户接口/显示设备24。
如步骤140e所示,服务器18判断用户输入是否是从阵列中移进来源输出。如果用户22决定进入其他来源输出,服务器18就会通过用在步骤150a-d的一个步骤中确认的更新摄像机输出来代替其他来源输出而调整画面。
一旦在步骤150a-d的一个步骤中更新了当前节点地址,服务器就继续在步骤250中调整用户画面。在调整画面时,服务器18将现有或当前显示的摄像机输出与更新的摄像机节点地址确认的摄像机14的输出相“合成”。在本发明另一些实施例中按不同的方式来合成输出。在本实施例中,对输出进行合成是指以特定速度按电子方式从当前摄像机14的输出转换到有新的当前节点地址的摄像机输出。
应当认识到,在本文所公开的上述及其它最佳实施例中,摄像机的输出是同步的。正如本领域所熟知的那样,将来自“同步发生器”的同步信号提供给摄像机。同步发生器可以是录象剪辑中采用的同步发生器,在其他实施例中,同步发生器可以包括服务器的一部分、集线器和/或与阵列相连的单独部件。
如上所述,在临界速度下服务器18约按每秒钟24帧的速率或每0.04167秒1帧转换摄像机输出。如果用户22通过阵列10以低于临界速度移动,那么与用户以临界速度移动相比,中间摄像机14的输出会显示得相对更长一段时间。与此相似,当用户以超过临界速度巡视时,每个输出都显示得更短一段时间。换句话说,服务器18根据在阵列10中移动的速度来调整切换速度。
当然,应当认识到,在本发明的简化实施例中,用户仅以临界速度巡视。
在另一实施例中,通过将现有或当前输出与更新的摄像机节点输出组合起来而对输出进行合成。在又一实施例中,合成包括将现有图像融入新的图像。在再一实施例中,对输出进行合成包括调整用户显示设备的帧刷新率。另外,根据经过阵列的移动速度,服务器可以添加动感模糊效果来反映现实的速度感。
在又一个实例中,服务器会在摄像机图像之间产生瞬间黑屏。此实施例类似于电影胶片上两帧之间的空白胶片。此外,尽管并非总是有好处,但这种黑屏可以减少从一幅图像进入下一幅图像时生理上的“搭接”感觉。
应当认识到,对应于按不同速度移过阵列的用户输入,可以包括在键盘上作不同的键击、操纵杆的不同位置、在一预定长的时间内使操纵杆位于给定位置等等。与此相似,也可以通过具体的键击、移动操纵杆等来表明移进其他来源输出的决定。
在另一个实施例中,尽管并不总是必要的,但是,为了确保图像衔接完美的行进,服务器18还向用户显示设备24传送来自某些或所有中间摄像机,即位于当前摄像机节点与更新后的摄像机节点之间的那些摄像机的输出。以下参照图7a-7g说明此实施例。具体说来,图7a表示一阵列10沿X轴或相对用户视线向左右延伸的曲线部分。因此,服务器18使之与摄像机14相关联的坐标值只在X坐标上有所不同。更具体地说,就此例而言,摄像机14可以被看作顺序编号的,最左边的摄像机14作为第一号开始,编号为“l”。每台摄像机14的X坐标均是该摄像机在阵列中的位置。为了便于说明,每台摄像机编号为14-X,其中X为摄像机通过阵列10的位置,因此与X坐标值有关。
总的来说,图7a-7g说明了用户通过阵列10可能的移动方式。拍摄的环境包括三个物体602、604、606,其中的第一个和第二个包括有带编号的表面。正如所看到的那样,这些带编号的表面使人能更好地注意到用户视线的变化。
在图7a中,具体标出了阵列10中的6台摄像机14-2、14-7、14-11、14-14、14-20、14-23。每一台摄像机的画面边缘用双线14-2a、14-7a、14-11a、14-14a、14-20a、14-23a标出,这些双线分别从标注的摄像机14-2、14-7、14-11、14-14、14-20、14-23向外辐射。如下所述,在此例中,用户22通过阵列10沿X轴巡视,因此,环境的图像或画面是与标出的摄像机14-2、14-7、14-11、14-14、14-20、14-23相对应的图像或画面。
此例提供给用户22始于摄像机14-2的画面。图7b中说明了这个画面。希望获得物体702的更好画面的用户22按键盘上的“7”键。此项用户输入传至信息服务器18并由其进行解码。
由于服务器18业已编程为能将“7”键识别为是在阵列中移动到或跳转到摄像机14-7。于是服务器18将当前摄像机的节点地址的X坐标值改为7、选择摄像机14-7的输出并调整发送给用户22的画面或图像。如上所述,调整图像包括将当前的输出与更新的摄像机节点合成。合成输出则包括将中间摄像机的输出转换成图像,以使摄像机14-2至14-7的离散图像衔接完美地渐进,这就能让用户22获得围着被摄物体运动的感觉。用户22现在看到第一个物体702的另一图像。来自摄像机14-7的图像示于图7C中。如上所述,如果摄像机节点的跳转超出了预先设定的范围,服务器18将忽略某些或全部的中间输出。
用户22按键盘上的“右箭头”键,向***100表明要以临界速度向右巡视。服务器18收到这条用户输入并对该输入作这种解释,且将当前摄像机节点地址增加n=4。因此,更新的摄像机节点地址为14-11。服务器18将摄像机14-11的输出与摄像机14-7的输出相合成。此过程亦包括将中间摄像机(即14-8、14-9和14-10)的输出转换为图像,从而让用户22有围绕被摄物体巡视的感觉。因此,可向用户22提供来自摄像机14-11的画面,如图7d所示。
用户22仍对第一个物体702感兴趣,他键入用户输入例如“alt-右箭头”,表示希望以低于临界速度向右移动。因此,服务器18将更新的摄像机节点地址按n-1个节点即在本例中为3增加至摄像机14-14。将摄像机14-11至14-14的输出合成起来,并向用户22提供与摄像机14-11至14-14相关的衔接完美的画面。图7e示出了摄像机14-14的最终画面。
由于紧接在第一个物体702之后无可看的物体,故用户22输入例如“shift-右箭头”之类的用户输入,表示希望快速即按超过临界速度在阵列10中移动。服务器18解释用户输入并将当前节点地址增加n+2个节点或在本例中为6个节点。因此,更新的节点地址对应于摄像机14-20。服务器18将摄像机14-14和14-20的输出合成起来,这包括将中间的摄像机14-15至14-19的输出转换为图像。将摄像机14-20的最终图像显示给用户22。如图7f所示,用户22现在看到第二个物体704。
用户22对第三个物体704感兴趣,希望通过阵列10慢速移动。为此,用户22健入“alt-右箭头”,表示以低于临界速度向右移动。服务器18一旦解释了所收到的用户输入,就将当前摄像机节点地址沿X轴按3更新至摄像机14-23。然后,服务器18将摄像机14-20至14-23的输出合成起来,从而通过摄像机14-23向用户22提供衔接完美的渐进画面。所得到的画面14-23a如图7g所示。
其它数据设备
应当认识到,阵列中也可配置除摄像机之外的其他设备。诸如动感传感器和话筒之类的其它设备可向服务器提供数据以便进行处理。例如,在其它实施例中,将来自动感传感器或话筒的输出输送给服务器并用来为阵列分级。更具体地说,被允许的摄像机节点(由存储在存储器中的表格所限定)是那些靠近传感器或话筒的、有所需输出例如有动感和声音的节点。因此,巡视控制因素包括来自其他这类设备的输出。或者,将来自传感器或话筒的输出提供给用户。
以下将参照图8说明另一个实施例,在该实施例中,摄像机阵列包括分布在被摄环境和摄像机中间的多个话筒。***800一般包括一个摄像机阵列802,它与服务器804相连,服务器804则与一个或多个用户接口和显示设备806以及电子存储设备808相连。集线器810收集来自阵列802的输出并将其传送给服务器804。更具体地说,阵列802包括相互连接的模块化轨道812。每一轨道812均承载着多个***机814和一个放置在轨道812中央的话筒816。另外,***800包括实际上与阵列802相分开的话筒818。摄像机814和话筒816、818的输出都与服务器804相连,以便进行处理。
一般说来,***800的操作与图1-2d和图5-6所说明的***100一样。但是,除前述***100的操作之外,服务器804还从话筒816、818中接收声音输出并如同摄像机输出一样有选择地将声音输出传送给用户。服务器804在更新当前摄像机节点地址并改变用户图像时,还改变传送给用户的声音输出。在本实施例中,服务器804将与给定话筒相关的一系列摄像机节点存在存储器中,即每一轨道810上的摄像机814都与该具体轨道810上的话筒816相关联。在用户试图在阵列802的端部以外巡视的情况下,服务器804就会判断出该摄像机巡视是不被允许的,并且将话筒节点输出更新为与阵列802相邻的话筒818的节点输出。
在另一个实施例中,服务器804可包括一个数据库,在该数据库中,使各具体区域内的摄像机节点与给定的话筒相关联。例如,(X、Y、Z)坐标值(0、0、0)、(10、0、0)、(10、5、0)、(0、5、0)、(0、0、5)、(10、0、5)、(10、5、5)和(0、5、5)所限定的长方体与一给定话筒相关联。应当认识到,根据用户在阵列中的位置(或视线)选定话筒系列中的一个话筒,可为用户提供与视觉感受相符的环境声音感受。
应当认识到,上述实施例的服务器可以采取已知多种结构中的任何一种。以下参照图9和图10说明适用于本发明的服务器结构的两个实例。首先参照图9,其中示出了服务器902、电子存储设备20、阵列10、用户(1、2、3…N)22-1至22-N以及相联的用户接口/显示设备24-1至24-N。
服务器902连同其它组件包括一处理装置,它是与相关的只读存储器(ROM)906和随机存储器(RAM)908相连的一个或多个中央处理器(CPU)904。一般来说,ROM 906用来储存指令服务器902操作的程序,而RAM 908则用来存储CPU 904在操作中用到的变量和数值。CPU 904还连接于用户接口/显示设备24。应当认识到,在其他实施例中,CPU可包括若干处理单元,每个处理单元均执行单独功能。
存储器控制器910与CPU 904和电子存储设备20相连。在CPU 904的指令下,存储器控制器910控制对存储设备20的访问(读和写)。虽然将存储器控制器910被表示为服务器902的一部分,但应该认识到,它可以存在于存储设备20内。
在操作中,CPU 904通过总线912接收来自阵列10的摄像机输出。如上所述,CPU 904将摄像机的输出进行合成,以便显示在用户接口/显示设备24上。合成哪些输出取决于每个用户22所选取的图像。具体说来,每个用户接口/显示设备24均在总线914上传送限定要显示画面的用户输入。一旦CPU 904合成了适当的输出,它就通过总线916将最终输出输送给用户接口/显示设备24。如图所示,在本实施例中,每个用户22分别独立地与服务器902相连接。
总线912还将摄像机的输出传给存储设备20,以便进行存储。在存储摄像机输出时,CPU 904指示存储器控制器910将各摄像机14的输出存储到存储设备20中的存储器的特定存储位置。
当要显示的图像以前已经存储在存储设备20中时,CPU 904会使存储器控制器910访问存储设备20,以检索出适当的摄像机输出。因此,将该输出通过总线918传送给CPU 904进行合成。总线918还将其他来源输出传给CPU 904,以便传送给用户22。至于直接从阵列10收到的输出,CPU 904将这些输出合成起来并将适当的画面传送给用户接口/显示设备24。
图10表示依照本发明另一实施例的服务器结构。如图所示,服务器1002一般包括一个控制中央处理单元(CPU)1004、一个与各个用户22相联的合成CPU 1006,以及一个存储控制器1008。控制CPU1004拥有相联的ROM 1010 和 RAM 1012。与此相类似,每个合成CPU 1006均拥有相联的ROM1014 和 RAM 1016。
为了实现上述功能,来自阵列10的摄像机输出通过总线1018与各合成CPU1至N即1006-1、1006-N相连。在操作中,每个用户22均在接口/显示设备24上键入输入,以便(通过总线1020)传送到控制CPU 1004。控制CPU 1004对输入进行解释并通过总线1022-1和1022-N将控制信号传送给合成CPU 1006-1、1006-N,以指示它们合成在总线1018上收到的那些摄像机输出。顾名思义,合成CPU1006-1、1006-N对输出进行合成,以便产生适当的图像并将最终图像通过总线1024-1和1024-N传送给用户接口/显示设备24-1和24-N。
在另一个相关实施例中,每个合成CPU 1006均将输出多路传输给一个以上的用户22。关于将哪些输出合成起来并传给各个用户22的指示,来自控制CPU 1004。
总线1018不仅将摄像机输出连接于合成CPU 1006-1和1006-N,而且连接于存储设备20。在受控于控制CPU 1004的存储控制器1008的控制下,存储设备20将摄像机输出储存于已知的存储位置。在输入给控制CPU 1004的用户输入表明用户22希望观看储存的图像的情况下,控制 CPU1004 就会使存储控制器1008从存储设备20中检索出适当的图像。这些图像通过总线1026被调入合成CPU 1006。其他来源输出也通过总线1026调到合成CPU 1006-1、1006-N。控制CPU 1004还将控制信号传给合成CPU 1006-1和1006-N,以指示合成和显示哪些输出。
立体图像
应当认识到,使用环境的立体图像也属于本发明的范围。为了获得立体图像,该***从阵列(或电子存储设备)中检索出两台摄像机的至少一部分输出并将其同时传送给用户。服务器处理部件将这些摄像机输出合成,以获得立体输出。提供给用户的每一幅图像均是以这些立体输出为基础的。在一种立体实施例中,来自阵列中两台相邻摄像机的输出用于产生一个立体图像。使用图7a-7g的符号,一个图像是来自于摄像机14-1和14-2的立体图像。下一个图像是以摄像机14-2和14-3或其他两台摄像机的立体输出为基础的。因此,在这一实施例中,可向用户提供环境的衔接完美立体图像这样的附加特征。
多用户
如上所述,本发明允许多个用户同时彼此独立地巡视阵列。为容纳多个用户,上述***区别对待来自多个用户的输入并选择适合每个用户输入的单独摄像机输出。在一个实施例中,服务器通过将每一节点地址储存在与该用户相关的特定存储位置中而跟踪与每个用户相关的当前摄像机节点地址。与此相似,利用由相应用户接口设备附加给用户输入的信息标签,将每个用户的输入区别开来,并将该输入标识为与特定存储位置相关联。
在另一个实施例中,两个或两个以上的用户可以选择相互连接,因而可一前一后地移动并拥有相同的环境图像。在这一实施例中,每个用户均可通过他/她的代码指定另一个用户为“向导”。操作时,服务器将向导用户所选择的输出和图像提供给向导和选择该向导的另一个用户。另一用户的输入会使服务器断开与上述用户的连接,从而能让各用户控制他/她自己通过阵列的运动。
所涵盖的实施例
尽管就某些最佳实施例说明了本发明,但是,本领域一般技术人员可以看出的其它实施例也在本发明的范围内。因此,本发明的范围仅限于所附权利要求。

Claims (119)

1.一种远程出席***,用于向第一用户提供环境的第一显示,向第二用户提供环境的第二显示,所述***包括:
一摄像机阵列,每台摄像机均有一相关的环境画面以及代表上述相关画面的相关的摄像机输出,所述阵列包括至少一个摄像机路径;
一第一用户接口设备,它与上述第一用户相联,所述第一用户接口设备具有与沿阵列中第一路径的运动相关的第一用户输入;
一第二用户接口设备,它与上述第二用户相联,所述第二用户接口设备具有与沿阵列中第二路径的运动相关的第二用户输入;
至少一个处理部件,它与上述用于接收用户输入的用户接口设备相连;所述处理部件被配置成能解释所收到的第一输入并选择第一路径中的摄像机输出,而且能解释所收到的第二输入并以独立于第一输入的方式选择第二路径中的摄像机输出,从而使得所述第一用户和第二用户同时独立地巡视所说的阵列。
2.如权利要求1的***,还包括:
一第一显示设备,它与上述第一用户相关联并与上述处理部件相连;以及
一第二显示设备,它与上述第二用户相关联并与上述处理部件相连;
其中,所述处理部件还被配置成能根据所收到的第一输入选择一第一输出并将该第一输出发送至第一显示设备;所述第一显示设备被配置成能显示与选定的第一输出相关联的图像;以及
所述处理部件还被配置成能根据所收到的第二输入选择一第二输出并将该第二输出发送至第二显示设备,所述第二显示设备被配置成能显示与选定的第二输出相关联的图像。
3.如权利要求2的***,其特征在于,所述处理部件被配置成能实时地选择输出,并且,所述显示设备被配置成能实时地显示画面。
4.如权利要求1的***,其特征在于,所述阵列包括多个可巡视的摄像机路径,并且,所述第一路径不同于上述第二路径。
5.如权利要求1的***,其特征在于,所述处理部件包括一控制处理部件以及多个合成处理部件。
6.如权利要求1的***,其特征在于,所述处理部件还与前述阵列相连。
7.如权利要求1的***,其特征在于,所述处理部件包括多个处理部件。
8.如权利要求2的***,其特征在于,所述第一用户接口设备和第一显示设备通过不同的通信链路与前述处理部件相连接。
9.如权利要求1的***,其特征在于,所述用户接口设备通过下列通信链路之一即互连网链路、微波链路、卫星链路、无线链路、或光纤链路与上述处理部件相连。
10.如权利要求1的***,其特征在于,所述第一用户接口设备和第二用户接口设备均通过不同的通信链路与处理部件相连。
11.如权利要求1的***,其特征在于,所述第一用户接口设备和第二用户接口设备是不同的。
12.如权利要求1的***,其特征在于,所述摄像机阵列包括:多个模块化导轨,这些导轨具有凸出端和凹进端,一根导轨的凸出端可与另一根导轨的凹进端相连;以及多台摄像机,它们可与各导轨相连。
13.如权利要求1的***,其特征在于,所述摄像机阵列包括:中空的球接头,每个接头均包容有一台摄像机;以及中空的杆,它们与上述球接头相连,所说的杆包容有用于输出的通信路径。
14.如权利要求1的***,其特征在于,按约为每英寸一台摄像机的密度来设置所述阵列中的摄像机。
15.如权利要求1的***,其特征在于,所述第一摄像机的图像与第二摄像机的图像相搭接。
16.如权利要求1的***,其特征在于,所述阵列包括具有第一输出的第一摄像机和具有第二输出的第二摄像机,并且,所述处理部件还被配置成能根据收到的第一用户输入合成上述第一和第二输出。
17.如权利要求16的***,其特征在于,所收到的第一用户输入表示需要从第一摄像机移到第二摄像机,并且,所述处理部件被配置成能通过在第一和第二输出之间按一定切换速度进行电子切换而合成第一和第二输出。
18.如权利要求17的***,其特征在于,所述处理部件还被配置成能通过调整上述切换速度来合成该输出。
19.如权利要求1的***,其特征在于,所述第一用户输入包括移过上述第一路径的速度指示。
20.如权利要求19的***,其特征在于,所述处理部件还被配置成能将速度指示与预先设定的阈值加以比较,并在判断出速度指示超过预先设定的阈值时选择多个输出,这些输出少于前述路径中的所有的摄像机数量。
21.如权利要求19的***,其特征在于,所述输出的数量与前述速度成反比。
22.如权利要求16的***,其特征在于,所述第一用户输入包括移过前述阵列的相对速度的指示,而且所述处理部件被配置成能通过按一定的切换速度从第一输出切换到第二输出而合成第一输出和第二输出;所述处理部件还被配置成能根据上述相对速度的指示来调节此切换速度。
23.如权利要求19的***,其特征在于,所述通过阵列移动的相对速度的指示包括通过阵列的较慢移动的指示,所述处理部件能通过根据较慢移动指示将与第一摄像机相关的画面显示一较长一段时间而调节切换速度。
24.如权利要求16的***,其特征在于,所述处理部件被进一步配置成能通过将与第一摄像机相关的画面融入第二摄像机的画面而将这些输出加以合成。
25.如权利要求16的***,其特征在于,该***还包括一第一用户显示设备,它与上述第一用户相关联并与所述处理部件相连,并且,所述第一显示设备具有与之相关联的帧刷新率,所述处理部件被配置成能通过调整上述帧刷新率对输出进行合成。
26.如权利要求16的***,其特征在于,所述处理部件被配置成能通过产生一来自上述第一和第二输出的复合输出而将该输出合成。
27.如权利要求16的***,其特征在于,所述阵列还包括至少另一台位于前述第一摄像机与第二摄像之间的摄像机,而且所述处理器被配置成能通过从第一输出切换至上述至少一台摄像机的输出然后切换至第二输出而将第一摄像机和第二摄像机的输出合成。
28.如权利要求16的***,其特征在于,所述处理部件被配置成能通过增添移动模糊效果来合成输出。
29.如权利要求1的***,其特征在于,所述用户接口设备包括一键盘,其中用户输入是击键。
30.如权利要求1的***,其特征在于,所述用户接口设备包括一操纵杆,其中用户输入是移动操纵杆。
31.如权利要求1的***,其特征在于,所述用户接口设备包括一鼠标,其中用户输入是移动鼠标。
32.如权利要求1的***,其特征在于,所述用户接口设备包括一触摸屏。
33.如权利要求1的***,其特征在于,所述用户接口设备包括一生物反馈装置。
34.如权利要求1的***,其特征在于,所述用户接口设备包括一语音识别设备。
35.如权利要求1的***,其特征在于,所述用户输入包括阵列中一台特定摄像机的指示。
36.如权利要求1的***,其特征在于,所述用户输入包括向上、向下、向右和向左移动。
37.如权利要求34的***,其特征在于,所述用户输入还包括向前和向后移动。
38.如权利要求1的***,其特征在于,所述处理部件根据巡视控制算法来操作,该巡视控制算法可区分阵列中可允许的移动和不允许的移动。
39.如权利要求38的***,其特征在于,该***还包括巡视控制因素,其中巡视控制算法根据巡视控制因素来控制在阵列中的移动。
40.如权利要求39的***,其特征在于,所述巡视控制要素包括一天中的时间、时间长短、巡视阵列的速度、阵列中设备的输出、动感传感器的输出以及话筒的输出。
41.如权利要求1的***,其特征在于,所述处理部件还被配置成能忽略某种用户输入。
42.如权利要求41的***,其特征在于,所述处理部件还被配置成能通过选择至少一个预定摄像机输出来忽略某一用户输入,从而将用户引向一个预定的画面。
43.如权利要求42的***,其特征在于,所述处理部件还被配置成能根据一天中的时间选择预定的输出。
44.如权利要求42的***,其特征在于,所述处理部件还被配置成能根据时间的长短选择预定的输出。
45.如权利要求41的***,其特征在于,所述处理部件还被配置成能通过等待一允许的用户输入而忽略用户输入。
46.如权利要求1的***,其特征在于,该***还包括一个操作员输入设备,它与处理部件相连,以便从操作员输入设备中接收操作员输入,并且,所述处理部件受控根据操作员输入取代某个用户输入。
47.如权利要求1的***,其特征在于,该***还包括一存储器,它存储有其他来源输出,其中所述用户输入包括观看其他来源输出的指示,并且,所述处理部件还配置成能在接收到上述观看其他来源输出的指示时将摄像机输出和其他来源输出合成起来。
48.如权利要求47的***,其特征在于,与预定摄像机有关的用户可以使用观看其他来源输出的指示。
49.如权利要求47的***,其特征在于,所述处理部件配置成能通过综合摄像机输出和其他来源输出而合成摄像机输出和其他来源输出。
50.如权利要求47的***,其特征在于,所述处理部件配置成能通过从摄像机输出切换到其它来源输出来合成摄像机输出和其他来源输出。
51.如权利要求47的***,其特征在于,所述其他来源输出包括来自一组输出中的输出,包括计算机图像、虚拟世界图像、小程序、电影片断和动画。
52.如权利要求1的***,其特征在于,该***还包括多个话筒,每个话筒均有一个输出,其中所述处理部件还配置成能根据所接收的第一用户输入来选择话筒输出,以传送给第一用户。
53.如权利要求52的***,其特征在于,该***还包括一与处理部件相连接的存储器,该存储器将摄像机与话筒关联起来,所述处理部件通过使用使所选择的摄像机输出与话筒输出相关的存储器来选择话筒。
54.一种向用户提供远程环境实时画面的方法,该方法包括:
从一个摄像机阵列中接收环境的电子图像,所述阵列包括至少一个经过所述环境的摄像机路径;
从与第一用户相关联的第一用户接口设备中接收第一输入,该第一输入指示沿第一路径的移动;
从与第二用户相关联的第二用户接口设备中接收第二输入,该第二输入指示沿第二路径的移动;
通过用第一处理部件根据上述第一输入将第一图像与第二图像合成起来而获将第一合成图像;
通过用第二处理部件根据上述第二输入将第三图像与第四图像合成起来而获将第二合成图像;
基本上实时地向第一用户提供第一合成图像,从而模拟沿第一路径的移动;以及
基本上实时地向第二用户提供第二合成图像并同时向第一用户提供第一合成图像,从而独立地模拟沿第二路径的移动。
55.如权利要求54的方法,其特征在于,所述第一处理部件不同于第二处理部件。
56.如权利要求54的方法,其特征在于,所述阵列包括多个可巡视的路径,并且所述第一路径不同于第二路径。
57.如权利要求54的方法,其特征在于,所述第一图像不同于第三图像。
58.如权利要求54的方法,其特征在于,将所述第一图像与第二图像合成起来,包括按第一切换速度从第一图像切换到第二图像,所述第一合成图像包括第二图像;并且将所述第三图像与第四摄像合成起来包括按第二切换速度从第三图像切换到第四图像,所述第二合成图像包括第四图像。
59.如权利要求58的方法,其特征在于,接收所述第一输入包括接收沿第一路径移动的第一速度的指示,并且,其中所述第一切换速度是以第一移动速度的指示为基础的。
60.如权利要求59的方法,其特征在于,接收所述第二输入包括接收沿第二路径移动的第二速度的指示,所述第二速度大于上述第一速度;并且,其中所述第二切换速度是以第二移动速度的指示为基础的,所述第二切换速度大于上述第一切换速度。
61.如权利要求60的方法,其特征在于,合成所述第三和第四图像,包括以比向第一用户提供第一图像相对长的持续时间向第二用户提供第三图像。
62.如权利要求60的方法,其特征在于,合成所述第三和第四图像,包括以比向第一用户提供第二图像相对长的持续时间向第二用户提供第四图像。
63.如权利要求54的方法,其特征在于,将所述第一图像与第二图像合成起来,包括将第一图像与第二图像组合起来。
64.如权利要求63的方法,其特征在于,将所述第三图像与第四图像合成起来,包括在第三图像与第四图像之间切换。
65.如权利要求54的方法,其特征在于,将所述第一图像与第二图像合成起来,包括将第一图像融入第二图像。
66.如权利要求54的方法,其特征在于,所述第一图像来自第一摄像机,所述第二图像来自第二摄像机,所述阵列包括位于第一和第二摄像机之间的另一台摄像机,并且将第一图像与第二图像合成起来,包括向第一用户提供来自上述位于两摄像机之间的另一台摄像机的图像。
67.如权利要求54的方法,其特征在于该方法还包括:通过依照第一输入将第二图像与第五图像合成起来而获得第三合成图像并向第一用户提供该第三合成图像。
68.如权利要求54的方法,其特征在于该方法还包括:从上述第一用户接口设备接收第三输入并替换该第三输入。
69.如权利要求68的方法,其特征在于,替换所接收到的第三输入,包括向第一用户提供一预定的图像。
70.如权利要求68的方法,其特征在于,替换所接收到的第三输入,包括继续向第一用户提供第一合成图像并等待第四输入。
71.如权利要求54的方法,其特征在于,接收所述第一输入包括接收合成其他来源输出的指示,所述方法还包括通过将第二图像与其他来源输出合成起来而获得第三合成输出。
72.如权利要求71的方法,其特征在于,将所述第二图像与其他来源输出合成起来,包括从第二图像切换到其他来源输出。
73.一种向用户提供环境显示的设备,该设备包括:
一摄像机阵列,每台摄像机均有一相关联的环境画面以及代表上述相关画面的相关联的摄像机输出;以及
至少一个与上述阵列相连接的处理部件,该处理部件配置成能够识别可操作的摄像机和不可操作的摄像机,可操作的摄像机的输出可以提供给用户,而不可操作的摄像机的输出则不能提供给用户。
74.如权利要求73的设备,其特征在于,所述可操作摄像机随时间的推移而变化。
75.如权利要求74的设备,其特征在于,所述可操作摄像机随一天中的时间而变化。
76.如权利要求73的设备,其特征在于,被观看的环境是一场演出,并且所述可操作的摄像机根据从演出开始算起的持续时间而变化。
77.如权利要求73的设备,其特征在于,所述可操作的摄像机是预先设定的。
78.如权利要求77的设备,其特征在于,该设备还包括与上述处理部件相连接的存储器,所述存储器存储有预先设定的可操作摄像机的指示。
79.如权利要求73的设备,其特征在于,该设备还包括一用户接口设备,它与所述用户相关联并与处理部件相连,所述用户接口设备可向处理部件提供表示移过阵列的用户输入,所述处理部件可根据该用户输入选择可操作的摄像机输出。
80.如权利要求79的设备,其特征在于,所述处理部件配置成能忽略对应于不可操作摄像机的用户输入。
81.如权利要求80的设备,其特征在于,所述处理部件配置成能通过等待对应于不可操作的摄像机新用户输入而忽略对应于不可操作摄像机的用户输入。
82.如权利要求80的设备,其特征在于,所述处理部件配置成能通过选择不可操作的摄像机输出而忽略对应于不可操作摄像机的用户输入。
83.如权利要求73的设备,其特征在于,该设备还包括一除摄像机以外的数据设备,它具有与至少一个处理部件相连的输出,可操作的摄像机是以该数据设备的输出为基础的。
84.如权利要求83的设备,其特征在于,所述数据设备是动感传感器。
85.如权利要求83的设备,其特征在于,所述数据设备是话筒。
86.一种根据用户输入向用户提供来自多台摄像机的环境画面的方法,该方法包括:
以电子方式接收指示所需摄像机画面的用户输入;
标识可操作的摄像机,该摄像机的画面可以提供给用户;以及
判断上述所需摄像机是否是可操作的摄像机中的一个;以及
如果所需摄像机不是可操作的摄像机中的一个,就阻止用户获得来自这台所需摄像机的画面。
87.如权利要求86的方法,其特征在于,当用户观看环境时,可操作摄像机也在变化。
88.如权利要求86的方法,其特征在于,识别可操作摄像机是以一天中的时间为基础的。
89.如权利要求86的方法,其特征在于,该方法还包括注明用户开始观看环境的时间,并且,所述可操作摄像机是以从用户开始观看环境的时间算起的时间段为基础的。
90.如权利要求86的方法,其特征在于,所述环境是一场演出,并且所述可操作摄像机是以前述演出为基础的。
91.一种响应用户输入向用户提供环境显示的设备,该***包括:
一摄像机阵列,每台摄像机均有一相关的环境画面以及代表上述相关画面的相关的摄像机输出;
存储器,它存储有其他来源输出;以及
至少一个与上述存储器相连接的处理部件,它用于接收其他来源输出,所述处理部件被配置成能解释用户的输入,并根据用户输入选择摄像机输出以提供给用户,选择其他来源输出以提供给用户,或选择摄像机画面和其他来源输出以提供给用户。
92.如权利要求91的设备,其特征在于,所述处理部件配置成能将其他来源输出与摄像机输出合成起来。
93.如权利要求92的设备,其特征在于,所述处理部件配置成能通过从摄像机输出切换到其他来源输出而将其他来源输出与摄像机输出合成起来。
94.如权利要求91的***,其特征在于,该***还包括多个与上述处理部件相连的用户接口设备,每个接口设备都与一个不同的用户相关联并使用户输入与阵列中摄像机间的移动相关联。
95.如权利要求91的***,其特征在于,所述摄像机阵列包括:多个模块化导轨,这些导轨具有凸出端和凹进端,一根导轨的凸出端可与另一根导轨的凹进端相连;以及多台摄像机,它们可与各导轨相连。
96.如权利要求91的***,其特征在于,所述阵列包括包括至少一个用户可巡视的摄像机路径,而且所述用户输入包括通过上述路径的移动速度的指示。
97.如权利要求91的***,其特征在于,所述处理部件配置成能替换用户输入并选择至少一个预定的摄像机输出,从而将用户引向预定的画面。
98.如权利要求97的***,其特征在于,所述处理部件配置成能根据巡视控制因素来选择予定的输出。
99.一种向用户提供环境画面的方法,该方法包括:
从摄像机阵列接收环境的电子图像;
通过通信链路来接收指示在阵列中移动的用户输入;
根据上述用户输入选择摄像机图像;
根据指示要观看其他来源输出的用户输入从存储器中检索出其他来源输出;以及
向用户提供阵列中一个或几个点的其他来源输出。
100.一种用摄像机阵列远距离衔接完美地观看环境的***,每台摄像机均有代表环境图像的输出,所述设备包括:
一具有输入的接口设备,所述输入用于选择经过可从中观看环境的阵列的至少一部分的路径,每个路径均包括一摄像机序列,该摄像机序列中的每个摄像机均有不同的视点和视野,该视野与相邻摄像机的视野相搭接;
一显示设备,它用于按顺序显示来自摄像机序列中的每个摄像机的图像,以便向用户提供衔接完美的环境画面。
101.如权利要求100的***,其特征在于,将来自选定摄像机的图像按约每秒24幅图像的速率加以显示。
102.如权利要求100的***,其特征在于,所述用户接口设备包括至少一种以下的设备:键盘、操纵杆、鼠标、触模式屏幕、生物反馈设备以及语音识别设备。
103.如权利要求100的***,其特征在于,上述显示设备所显示的图像是合成的。
104.如权利要求103的***,其特征在于,通过从摄像机序列中当前摄像机的图像中连续切换到摄像机序列中下一个摄像机图像而将所显示的图像合成起来。
105.如权利要求104的***,其特征在于,所述输入用于选择在路径上移动的速度,并且,根据所选的速度来切换上述图像。
106.如权利要求103的***,其特征在于,通过连续地将来自摄像机序列中当前摄像机的图像与阵列中下一个摄像机图像组合起来而将所显示的图像合成起来。
107.如权利要求100的***,其特征在于,所述输入用于选择通过前述阵列的移动速度。
108.如权利要求100的***,其特征在于,所述显示设备可立体地显示多个图像。
109.一种衔接完美观看环境的方法,该方法包括:
以电子方式接收来自摄像机阵列的第一图像,该第一图像具有第一视野;
以电子方式接收来自上述阵列的第二图像,该第二图像具有与上述第一视野相搭接的第二视野;
以电子方式接收来自上述阵列的第三图像,该第三图像具有与上述第二视野相搭接的第三视野;
按顺序显示上述第一、第二和第三图像,以获得经过所述环境的衔接完美画面。
110.如权利要求109的方法,其特征在于,所述显示包括以给定速度从上述第一图像切换至第二图像、切换至第三图像。
111.如权利要求110的方法,其特征在于,该方法还包括选择通过阵列的移动速度,其中所述给定的速度是以所选择的速度为基础的。
112.如权利要求109的方法,其特征在于,所述显示包括将给定的帧刷新率应用于所述图像。
113.如权利要求109的方法,其特征在于,所述显示包括将第一图像与第二图像合成,然后将第二图像与第三图像合成。
114.如权利要求109的方法,其特征在于,所述显示包括包括将第一图像融入第二图像,然后将第二图像融入第三图像。
115.如权利要求109的方法,其特征在于,该方法还包括选择其他来源输出以供显示,并将其它来源输出与第三图像合成起来。
116.如权利要求109的方法,其特征在于,所述第一、第二和第三图像分别对应于第一、第二和第三摄像机。
117.如权利要求116的方法,其特征在于,所述第二摄像机与第一和第三摄像机相邻。
118.如权利要求109的方法,其特征在于,所述图像中的至少一个是从前述阵列内的多个摄像机中获得的立体图像。
119.一种向用户提供环境显示的远程出席***,该***包括:
一摄像机阵列,每台摄像机均有一相关的环境画面以及代表示相关画面的相关的摄像机输出;
一电子存储设备;以及
至少一个与上述阵列相连接的处理部件,它用于接收摄象机输出;所述处理部件还与上述电子存储设备相连,所述处理部件被配置成能以电子方式存储摄像机的输出以及使各输出在电子存储设备中与哪台摄像机相关联的指示,从而允许随后检索出所存储的输出并观看环境。
CN99805539A 1998-04-02 1999-04-01 采用摄像机阵列的可巡视远程出席方法及*** Pending CN1298607A (zh)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US8041398P 1998-04-02 1998-04-02
US60/080,413 1998-04-02
US09/283,413 US6535226B1 (en) 1998-04-02 1999-04-01 Navigable telepresence method and system utilizing an array of cameras
US09/283,413 1999-04-01

Publications (1)

Publication Number Publication Date
CN1298607A true CN1298607A (zh) 2001-06-06

Family

ID=22157205

Family Applications (1)

Application Number Title Priority Date Filing Date
CN99805539A Pending CN1298607A (zh) 1998-04-02 1999-04-01 采用摄像机阵列的可巡视远程出席方法及***

Country Status (11)

Country Link
US (2) US6535226B1 (zh)
EP (1) EP1068730A4 (zh)
JP (1) JP2004502321A (zh)
KR (1) KR20010074470A (zh)
CN (1) CN1298607A (zh)
AU (1) AU761950B2 (zh)
BR (1) BR9909429A (zh)
CA (1) CA2326731A1 (zh)
IL (1) IL138808A0 (zh)
MX (1) MXPA00009686A (zh)
WO (1) WO1999052288A1 (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105915817A (zh) * 2015-02-24 2016-08-31 诺基亚技术有限公司 具有自适应相机阵列的设备
CN107615756A (zh) * 2015-07-10 2018-01-19 华为技术有限公司 实现快速平滑视点切换的多视点视频流媒体
CN110024010A (zh) * 2016-11-23 2019-07-16 罗伯特·博世有限公司 用于探测位于停车场内的突起对象的方法和***

Families Citing this family (52)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB9929870D0 (en) * 1999-12-18 2000-02-09 Roke Manor Research Improvements in or relating to security camera systems
JP2002132602A (ja) * 2000-07-31 2002-05-10 Hewlett Packard Co <Hp> 画像機器を導入しリンクする方法
US7101988B2 (en) * 2000-10-12 2006-09-05 Marical, Inc. Polyvalent cation-sensing receptor in Atlantic salmon
US7027083B2 (en) 2001-02-12 2006-04-11 Carnegie Mellon University System and method for servoing on a moving fixation point within a dynamic scene
WO2002065761A2 (en) 2001-02-12 2002-08-22 Carnegie Mellon University System and method for stabilizing rotational images
US20020190991A1 (en) * 2001-05-16 2002-12-19 Daniel Efran 3-D instant replay system and method
US20030030658A1 (en) * 2001-08-10 2003-02-13 Simon Gibbs System and method for mixed reality broadcast
US7091989B2 (en) * 2001-08-10 2006-08-15 Sony Corporation System and method for data assisted chroma-keying
US7339609B2 (en) * 2001-08-10 2008-03-04 Sony Corporation System and method for enhancing real-time data feeds
US7173672B2 (en) * 2001-08-10 2007-02-06 Sony Corporation System and method for transitioning between real images and virtual images
US20030112508A1 (en) * 2001-08-17 2003-06-19 Byoungyi Yoon Method and system for controlling space magnification for stereoscopic images
US6940538B2 (en) * 2001-08-29 2005-09-06 Sony Corporation Extracting a depth map from known camera and model tracking data
GB2380885A (en) * 2001-10-11 2003-04-16 Hewlett Packard Co Multiple camera arrangement
US7239345B1 (en) * 2001-10-12 2007-07-03 Worldscape, Inc. Camera arrangements with backlighting detection and methods of using same
US20030076413A1 (en) * 2001-10-23 2003-04-24 Takeo Kanade System and method for obtaining video of multiple moving fixation points within a dynamic scene
US20030187820A1 (en) 2002-03-29 2003-10-02 Michael Kohut Media management system and process
CA2390621C (en) * 2002-06-13 2012-12-11 Silent Witness Enterprises Ltd. Internet video surveillance camera system and method
JP2004264492A (ja) * 2003-02-28 2004-09-24 Sony Corp 撮影方法及び撮像装置
US20040199622A1 (en) * 2003-04-07 2004-10-07 Huscher Anthony Alan eRoom operations console
US20080129818A1 (en) * 2004-02-11 2008-06-05 Jacob James Miller Methods for practically simulatnig compact 3d environments for display in a web browser
US20060114251A1 (en) * 2004-02-11 2006-06-01 Miller Jacob J Methods for simulating movement of a computer user through a remote environment
US20060146132A1 (en) * 2005-01-05 2006-07-06 Hy Mayerson Video system having multiple video cameras for capturing events
US7982777B2 (en) * 2005-04-07 2011-07-19 Axis Engineering Technologies, Inc. Stereoscopic wide field of view imaging system
US7884848B2 (en) * 2005-05-25 2011-02-08 Ginther Mark E Viewing environment and recording system
US20070038945A1 (en) * 2005-08-10 2007-02-15 Miller Jacob J System and method allowing one computer system user to guide another computer system user through a remote environment
TW200718457A (en) * 2005-08-18 2007-05-16 Aruze Corp Gaming machine and terminal device included in gaming machine
KR100719097B1 (ko) 2005-11-03 2007-05-28 (주)이즈미디어 카메라 배열 방식 영상 취득 시스템
US8125481B2 (en) 2008-03-21 2012-02-28 Google Inc. Lightweight three-dimensional display
US8886669B2 (en) * 2008-03-21 2014-11-11 Trimble Navigation Limited File access via conduit application
US8730863B2 (en) * 2008-09-09 2014-05-20 The Charles Stark Draper Laboratory, Inc. Network communication systems and methods
JP5604921B2 (ja) * 2010-03-19 2014-10-15 セイコーエプソン株式会社 画像表示システム、画像表示方法、画像表示装置
US8937646B1 (en) 2011-10-05 2015-01-20 Amazon Technologies, Inc. Stereo imaging using disparate imaging devices
US8863208B2 (en) 2012-06-18 2014-10-14 Micropower Technologies, Inc. Synchronizing the storing of streaming video
US9769365B1 (en) 2013-02-15 2017-09-19 Red.Com, Inc. Dense field imaging
US9294757B1 (en) 2013-03-15 2016-03-22 Google Inc. 3-dimensional videos of objects
WO2014189927A2 (en) * 2013-05-20 2014-11-27 Sebring Steven Systems and methods for producing visual representations of objects
US9123172B2 (en) 2013-05-20 2015-09-01 Steven Sebring Systems and methods for producing visual representations of objects
EP2887328B1 (en) * 2013-12-19 2016-04-20 Axis AB Monitoring devices slidably mounted on a rail releasably locked to predetermined positions
US20150195644A1 (en) * 2014-01-09 2015-07-09 Microsoft Corporation Structural element for sound field estimation and production
WO2015170186A2 (en) * 2014-01-17 2015-11-12 Jaber Alexander Tactical surveillance and monitoring system designed for being carried by an animal
US10033992B1 (en) 2014-09-09 2018-07-24 Google Llc Generating a 3D video of an event using crowd sourced data
US9706187B2 (en) * 2014-10-06 2017-07-11 Electronics And Telecommunications Research Institute Camera rig for shooting multi-view images and videos and image and video processing method for use with same
ES2538012B1 (es) * 2014-10-23 2016-03-30 Digital Centre, S.L. Fotomatón multicámara de efecto tridimensional y procedimiento de funcionamiento del mismo
US10178325B2 (en) 2015-01-19 2019-01-08 Oy Vulcan Vision Corporation Method and system for managing video of camera setup having multiple cameras
CN109074629A (zh) 2015-10-29 2018-12-21 Oy沃肯视觉有限公司 使用联网照相机对关注的区域进行视频摄像
USD812671S1 (en) 2015-12-03 2018-03-13 Durst Sebring Revolution, Llc 3D imaging system
USD781948S1 (en) 2015-12-03 2017-03-21 Durst Sebring Revolution, Llc Photographic imaging system
USD798936S1 (en) 2015-12-03 2017-10-03 Durst Sebring Revolution, Llc Photo booth
USD782559S1 (en) 2015-12-03 2017-03-28 Durst Sebring Revolution, Llc Photo booth
USD822746S1 (en) 2016-02-05 2018-07-10 Durst Sebring Revolution, Llc Photo booth
WO2018209156A1 (en) * 2017-05-10 2018-11-15 Grabango Co. Series-configured camera array for efficient deployment
NO346392B1 (en) * 2020-08-05 2022-07-04 Muybridge As Multiple camera sensor system and method of providing a target image by a virtual camera

Family Cites Families (48)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4355328A (en) 1981-02-23 1982-10-19 The United States Of America As Represented By The Secretary Of The Navy 360 Degree closed circuit television system
US4463380A (en) 1981-09-25 1984-07-31 Vought Corporation Image processing system
US4847700A (en) 1987-07-16 1989-07-11 Actv, Inc. Interactive television system for providing full motion synched compatible audio/visual displays from transmitted television signals
US5023725A (en) 1989-10-23 1991-06-11 Mccutchen David Method and apparatus for dodecahedral imaging system
GB9001468D0 (en) 1990-01-23 1990-03-21 Sarnoff David Res Center Computing multiple motions within an image region
US5130794A (en) 1990-03-29 1992-07-14 Ritchey Kurtis J Panoramic display system
US5257349A (en) 1990-12-18 1993-10-26 David Sarnoff Research Center, Inc. Interactive data visualization with smart object
US5187571A (en) 1991-02-01 1993-02-16 Bell Communications Research, Inc. Television system for displaying multiple views of a remote location
US5185808A (en) 1991-06-06 1993-02-09 Eastman Kodak Company Method for merging images
GB9119964D0 (en) 1991-09-18 1991-10-30 Sarnoff David Res Center Pattern-key video insertion
US5259040A (en) 1991-10-04 1993-11-02 David Sarnoff Research Center, Inc. Method for determining sensor motion and scene structure and image processing system therefor
US5724091A (en) 1991-11-25 1998-03-03 Actv, Inc. Compressed digital data interactive program system
US5253168A (en) * 1991-12-06 1993-10-12 Berg Jacqueline L System for creative expression based on biofeedback
US5343871A (en) * 1992-03-13 1994-09-06 Mindscope Incorporated Method and apparatus for biofeedback
US5325449A (en) 1992-05-15 1994-06-28 David Sarnoff Research Center, Inc. Method for fusing images and apparatus therefor
US5495576A (en) * 1993-01-11 1996-02-27 Ritchey; Kurtis J. Panoramic image based virtual reality/telepresence audio-visual system and method
JP3734829B2 (ja) 1993-06-04 2006-01-11 サーノフ・コーポレーション 電子画像安定化システム及び方法
US5497188A (en) * 1993-07-06 1996-03-05 Kaye; Perry Method for virtualizing an environment
GB2282505A (en) 1993-09-23 1995-04-05 Sharp Kk Three dimensional imaging apparatus
US5562572A (en) 1995-03-10 1996-10-08 Carmein; David E. E. Omni-directional treadmill
US5999641A (en) 1993-11-18 1999-12-07 The Duck Corporation System for manipulating digitized image objects in three dimensions
JPH07222202A (ja) 1994-02-02 1995-08-18 Rohm Co Ltd 立体ビジョンカメラ
US5537141A (en) 1994-04-15 1996-07-16 Actv, Inc. Distance learning system providing individual television participation, audio responses and memory for every student
US5508734A (en) 1994-07-27 1996-04-16 International Business Machines Corporation Method and apparatus for hemispheric imaging which emphasizes peripheral content
US5632007A (en) 1994-09-23 1997-05-20 Actv, Inc. Interactive system and method for offering expert based interactive programs
US5598208A (en) * 1994-09-26 1997-01-28 Sony Corporation Video viewing and recording system
US5600368A (en) 1994-11-09 1997-02-04 Microsoft Corporation Interactive television system and method for viewer control of multiple camera viewpoints in broadcast programming
US5649032A (en) 1994-11-14 1997-07-15 David Sarnoff Research Center, Inc. System for automatically aligning images to form a mosaic image
US5644694A (en) * 1994-12-14 1997-07-01 Cyberflix Inc. Apparatus and method for digital movie production
US5659323A (en) 1994-12-21 1997-08-19 Digital Air, Inc. System for producing time-independent virtual camera movement in motion pictures and other media
US5703961A (en) * 1994-12-29 1997-12-30 Worldscape L.L.C. Image transformation and synthesis methods
US5581629A (en) 1995-01-30 1996-12-03 David Sarnoff Research Center, Inc Method for estimating the location of an image target region from tracked multiple image landmark regions
US5850352A (en) 1995-03-31 1998-12-15 The Regents Of The University Of California Immersive video, including video hypermosaicing to generate from multiple video views of a scene a three-dimensional video mosaic from which diverse virtual video scene images are synthesized, including panoramic, scene interactive and stereoscopic images
US5729471A (en) 1995-03-31 1998-03-17 The Regents Of The University Of California Machine dynamic selection of one video camera/image of a scene from multiple video cameras/images of the scene in accordance with a particular perspective on the scene, an object in the scene, or an event in the scene
US5745305A (en) 1995-04-28 1998-04-28 Lucent Technologies Inc. Panoramic viewing apparatus
GB2301216A (en) * 1995-05-25 1996-11-27 Philips Electronics Uk Ltd Display headset
US5963664A (en) 1995-06-22 1999-10-05 Sarnoff Corporation Method and system for image combination using a parallax-based technique
US5682196A (en) 1995-06-22 1997-10-28 Actv, Inc. Three-dimensional (3D) video presentation system providing interactive 3D presentation with personalized audio responses for multiple viewers
WO1997003416A1 (en) 1995-07-10 1997-01-30 Sarnoff Corporation Method and system for rendering and combining images
US5706416A (en) 1995-11-13 1998-01-06 Massachusetts Institute Of Technology Method and apparatus for relating and combining multiple images of the same scene or object(s)
EP0781049B1 (en) * 1995-12-19 2004-05-06 Canon Kabushiki Kaisha Apparatus and method for controlling a plurality of remote cameras
US6208379B1 (en) * 1996-02-20 2001-03-27 Canon Kabushiki Kaisha Camera display control and monitoring system
US6020931A (en) 1996-04-25 2000-02-01 George S. Sheng Video composition and position system and media signal communication system
US5708469A (en) * 1996-05-03 1998-01-13 International Business Machines Corporation Multiple view telepresence camera system using a wire cage which surroundss a plurality of movable cameras and identifies fields of view
US6084979A (en) 1996-06-20 2000-07-04 Carnegie Mellon University Method for creating virtual reality
US6151009A (en) 1996-08-21 2000-11-21 Carnegie Mellon University Method and apparatus for merging real and synthetic images
US6384820B2 (en) * 1997-12-24 2002-05-07 Intel Corporation Method and apparatus for automated dynamics of three-dimensional graphics scenes for enhanced 3D visualization
US6522325B1 (en) * 1998-04-02 2003-02-18 Kewazinga Corp. Navigable telepresence method and system utilizing an array of cameras

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105915817A (zh) * 2015-02-24 2016-08-31 诺基亚技术有限公司 具有自适应相机阵列的设备
US9996934B2 (en) 2015-02-24 2018-06-12 Nokia Technologies Oy Device with an adaptive camera array
CN105915817B (zh) * 2015-02-24 2019-02-22 诺基亚技术有限公司 一种用于捕获图像的方法、装置及***
CN107615756A (zh) * 2015-07-10 2018-01-19 华为技术有限公司 实现快速平滑视点切换的多视点视频流媒体
CN110024010A (zh) * 2016-11-23 2019-07-16 罗伯特·博世有限公司 用于探测位于停车场内的突起对象的方法和***
US11157746B2 (en) 2016-11-23 2021-10-26 Robert Bosch Gmbh Method and system for detecting an elevated object situated within a parking facility
CN110024010B (zh) * 2016-11-23 2022-02-11 罗伯特·博世有限公司 用于探测位于停车场内的突起对象的方法和***

Also Published As

Publication number Publication date
WO1999052288A1 (en) 1999-10-14
EP1068730A1 (en) 2001-01-17
AU3464699A (en) 1999-10-25
AU761950B2 (en) 2003-06-12
MXPA00009686A (es) 2004-09-10
US6535226B1 (en) 2003-03-18
US20030229735A1 (en) 2003-12-11
KR20010074470A (ko) 2001-08-04
EP1068730A4 (en) 2005-03-30
BR9909429A (pt) 2001-09-11
IL138808A0 (en) 2001-10-31
CA2326731A1 (en) 1999-10-14
JP2004502321A (ja) 2004-01-22

Similar Documents

Publication Publication Date Title
CN1298607A (zh) 采用摄像机阵列的可巡视远程出席方法及***
US7613999B2 (en) Navigable telepresence method and systems utilizing an array of cameras
US10582182B2 (en) Video capture and rendering system control using multiple virtual cameras
CN105264876B (zh) 低成本电视制作的方法及***
CN1409925A (zh) 采用可巡视的摄像机阵列的用于比较多个图像的方法及***
Schreer et al. Ultrahigh-resolution panoramic imaging for format-agnostic video production
US20130016181A1 (en) System and method for capturing and displaying cinema quality panoramic images
WO2021246183A1 (ja) 情報処理装置、情報処理方法、及び、プログラム
US10484579B2 (en) Systems and methods to overlay remote and local video feeds
CN105324995A (zh) 用于生成多投影图像的方法和***
CN105324994A (zh) 用于生成多投影图像的方法和***
JP2010166218A (ja) カメラシステム及びその制御方法
KR20190031220A (ko) Vr 콘텐츠 제공 시스템 및 방법
JP5457668B2 (ja) 映像表示方法及び映像システム
Series Collection of usage scenarios of advanced immersive sensory media systems
Series Collection of usage scenarios and current statuses of advanced immersive audio-visual systems
JP2024004671A (ja) 動画収録システム、動画収録方法およびプログラム
Schäfer et al. Ultrahigh-Resolution Video as Basis of a Format-Agnostic Production System
JPH08279058A (ja) 映像生成/表示システム

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C02 Deemed withdrawal of patent application after publication (patent law 2001)
WD01 Invention patent application deemed withdrawn after publication
REG Reference to a national code

Ref country code: HK

Ref legal event code: WD

Ref document number: 1036722

Country of ref document: HK