CN102177717A - 媒体容器文件 - Google Patents

媒体容器文件 Download PDF

Info

Publication number
CN102177717A
CN102177717A CN2008801314244A CN200880131424A CN102177717A CN 102177717 A CN102177717 A CN 102177717A CN 2008801314244 A CN2008801314244 A CN 2008801314244A CN 200880131424 A CN200880131424 A CN 200880131424A CN 102177717 A CN102177717 A CN 102177717A
Authority
CN
China
Prior art keywords
view
camera
identifier
expression
version
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN2008801314244A
Other languages
English (en)
Other versions
CN102177717B (zh
Inventor
珀·福罗德亨
巫壮飞
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Telefonaktiebolaget LM Ericsson AB
Original Assignee
Telefonaktiebolaget LM Ericsson AB
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Telefonaktiebolaget LM Ericsson AB filed Critical Telefonaktiebolaget LM Ericsson AB
Publication of CN102177717A publication Critical patent/CN102177717A/zh
Application granted granted Critical
Publication of CN102177717B publication Critical patent/CN102177717B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/816Monomedia components thereof involving special video data, e.g 3D video
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/21Server components or server architectures
    • H04N21/218Source of audio or video content, e.g. local disk arrays
    • H04N21/21805Source of audio or video content, e.g. local disk arrays enabling multiple viewpoints, e.g. using a plurality of cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/4223Cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/65Transmission of management data between client and server
    • H04N21/658Transmission by the client directed to the server
    • H04N21/6587Control parameters, e.g. trick play commands, viewpoint selection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/8126Monomedia components thereof involving additional data, e.g. news, sports, stocks, weather forecasts
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/167Position within a video image, e.g. region of interest [ROI]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/65Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using error resilience
    • H04N19/67Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using error resilience involving unequal error protection [UEP], i.e. providing protection according to the importance of the data

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Databases & Information Systems (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Television Signal Processing For Recording (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Signal Processing For Digital Recording And Reproducing (AREA)
  • Management Or Editing Of Information On Record Carriers (AREA)

Abstract

一种媒体容器文件(30),通过将表示视频内容的多个摄像机视图(22-28)的编码的视频数据组织为媒体容器文件(30)中的一个或多个视频轨道(32)来产生。从多个不同的预定视图布置表示中选择指示摄像机视图(22-28)的预定部署和位置关系的视图布置表示(34)。将多个摄像机视图(22-28)的视图标识符(36)包括在所选视图布置表示(34)中。相对于所述至少一个视频轨道(32),将包括有视图标识符(36)的视图布置表示(34)组织在媒体容器文件(30)中。

Description

媒体容器文件
技术领域
本发明总体涉及多视图视频数据,具体地,涉及包括这种多视图视频数据的媒体容器文件。
背景技术
运动画面专家组(MPEG)[1]和电信标准化分部(ITU-T)研究组16(SG16)正在进行的多视图视频编码(MVC)标准化是一种对通过多个摄像机或摄像机阵列产生的视频序列进行编码的视频编码技术。MVC以高效的方式利用多个视频视图之间的冗余,以提供紧凑的编码视频流。MVC基于高级视频编码(AVC)标准(也称为ITU-T H.264),因此MVC比特流语法和语义保持与AVC比特流语法和语义相似。
ISO/IEC 14496-15[2]是国际标准,被设计为以灵活和可扩展的格式包含高级视频编码(AVC)比特流信息,以便于管理AVC比特流。该标准与MP4文件格式[3]和3GPP文件格式[4]兼容。所有这些标准均是从MPEG定义的ISO基本媒体文件格式[5]中导出的。MVC视频流的存储被称为MVC文件格式。
在MVC文件格式中,文件中的一个或多个视频轨道表示多视图视频流。每个轨道表示流的一个或多个视图。除了编码的多视图视频数据本身,MVC文件格式还包括在处理视频数据时要使用的元数据。例如,每个视图具有相关联的视图标识符,这意味着一个视图内的MVC网络抽象层(NAL)单元具有完全相同的视图标识符,即具有在MVC NAL单元首部扩展中的view_id字段的相同值。
现今,摄像机参数存储在多视图获取信息补充增强信息(SEI)消息中,该消息包含在非固有摄像机参数箱和固有摄像机参数箱中。这些参数包括提供摄像机位置和摄像机焦距坐标的平移向量。
发明内容
基于现今包括在多视图获取信息SEI消息中的信息来确定摄像机和摄像机视图的关系和总体部署和布局非常困难,有时甚至是不可能的。
本实施例克服了现有技术配置的这些和其他缺点。
本发明的总体目的是提供包括有价值的摄像机视图部署信息的媒体容器文件的产生。
该目的和其他目的是通过所附专利权利要求限定的实施例来实现的。
简而言之,实施例涉及通过将表示场景的多个摄像机视图的编码的视频数据组织在媒体容器文件的至少一个媒体轨道中,来产生媒体容器文件。指示摄像机视图的备选预定部署和位置关系的多个预定视图布置表示可用。选择与多个摄像机视图的当前阵列相关的视图布置表示。将多个摄像机视图的视图标识符包括在所选视图布置表示中。相对于所述至少一个媒体轨道,将具有视图标识符的该视图布置表示相关联地组织在媒体容器文件中。
视图布置表示提供了直接给出以下直观理解的高级信息:用于记录多视图数据的摄像机是如何相对于彼此来布置的,并且给出了摄像机部署中的任何模式。
实施例还涉及一种用于产生媒体容器文件的设备和这种媒体容器文件。
附图说明
结合附图,参照以下描述,可以最佳地理解实施例及其其他目的和优点,附图中:
图1是根据实施例的用于产生媒体容器文件的方法的流程图;
图2是多个摄像机和摄像机视图的阵列的示意示例;
图3是多个摄像机视图的阵列的另一示意示例;
图4是媒体容器文件的实施例的示意;
图5是可以包括在图4的媒体容器文件中的多个视图布置表示的箱的示意;
图6是示意了图1中的产生方法的选择和包括步骤的实施例的流程图;
图7A和7B示意了共线视图布置表示的示例;
图8是示意了图1中的产生方法的选择和包括步骤的另一实施例的流程图;
图9A和9B示意了平面视图布置表示的示例;
图10是示意了图1中的产生方法的选择步骤的实施例的流程图;
图11示意了矩形视图布置表示的示例;
图12是示意了图1中的产生方法的选择步骤的另一实施例的流程图;
图13A和13B示意了球形视图布置表示的示例;
图14是示意了图1中的产生方法的选择步骤的另一实施例的流程图;
图15示意了立体视图布置表示的示例;
图16是示意了图1中的产生方法的可选的附加步骤的流程图;
图17示意了可以包括在图4的媒体容器文件中的、重叠摄像机视图的表示的示例;
图18是根据实施例的容器文件产生设备的示意框图;
图19是可以实现实施例的通信***的示例的概述;以及
图20示意性示出了重叠的摄像机视图。
具体实施方式
贯穿附图,相同的参考字符用于相应或相似的元件。
本实施例涉及多视图视频数据以及包括编码的多视图视频数据的媒体容器文件。
多视图媒体数据意味着内容的多个摄像机视图可用,其中,每个这种摄像机视图产生表示内容但来自多个可用摄像机视图之一的视频数据。在多视图视频中,相对于要记录的场景,提供了多个摄像机或其他媒体记录/创建设备或多个这种摄像机的阵列。由于摄像机具有相对于场景的不同位置和/或不同指向和/或焦距,因此它们提供了内容的备选视图。图2示意性示出了这种概念,其中,多个摄像机12-18的阵列10位于场景5附近,场景5例如是要由不同摄像机12-18来记录足球比赛的足球场。该图还指示了摄像机12-18的相应摄像机视图22-28。在该示意示例中,摄像机12-18位于沿足球场长度方向的不同位置,因此记录场地的不同位置。这意味着摄像机12-18捕捉从其相应摄像机视图22-28看见的媒体内容的不同版本。
如本领域公知的,视频数据编码典型地基于相对像素预测,如在H.261、H.263、MPEG-4和H.264中。在H.264中,利用了3种像素预测方法,即帧内、帧间和双向预测。帧内预测提供了根据当前帧的先前解码像素对当前像素块的空间预测。帧间预测使用先前解码帧中对应但是移位的像素块来给出当前像素块的时间预测。双向预测给出了两个帧间预测的加权平均。因此,帧内编码帧不依赖于视频流中的任何先前帧,而帧间编码帧(包括具有双向预测的帧间编码帧)使用来自视频流中的一个或多个其他参考帧的运动补偿。
多视图视频编码不仅允许来自单一摄像机视图的帧之间的预测,还允许视图间的预测,从而使得这种基于预测的编码更进一步。因此,与要编码的当前帧相比,参考帧可以是相同相对时刻但属于另一摄像机视图的帧。视图间和视图内预测的组合也是可能的,从而具有来自不同摄像机视图的多个参考帧。
在本领域中,如MVC标准草案[6]中公开的,在MVC文件格式中,仅包括与相对于所记录场景的摄像机位置相关联的非常有限量的信息。基本上,现有技术的信息限于摄像机焦距的平移向量和坐标。然而,该信息本身不能提供与例如如何全局地组织摄像机视图、哪些摄像机视图彼此相邻或实际上可能重叠相关的任何直观指示。明显不同地,必须从摄像机视图的媒体容器文件中的相应存储位置取得每个摄像机的向量和坐标信息。以计算上较为复杂的算法来处理所取得的数据,以确定任何全局和局部摄像机视图相互关系。例如,基于向量和坐标来决定将摄像机组织在平面上还是球形表面上的栅格中是非常困难的,有时甚至是不可能的。
实施例通过提供可以直接从媒体容器文件取得而无需任何复杂计算的视图布置表示的显式信息,来解决现有技术中的这些限制。
图1是示意了根据实施例的用于产生媒体容器文件的方法的流程图。
该方法从步骤S1开始,在步骤S 1,提供表示视频内容的多个摄像机视图的编码的视频数据。步骤S1的多视图视频数据的提供可以通过从可访问媒体存储器中取得视频数据来实现,其中,先前已经将视频数据输入该可访问媒体存储器。备选地,视频数据是从某个其他外部单元接收的,在该外部单元中存储、记录或产生该视频数据。另一种可能性是实际创建和编码视频数据,如记录视频序列或合成地产生视频数据。
在下一步骤S2中,将所提供的编码的多视图视频数据组织为媒体容器文件的至少一个媒体轨道。例如,媒体容器文件可以是所谓MVC文件或优选地基于ISO基本媒体文件格式的某种其他文件格式。
媒体容器文件可以被认为是媒体服务器在媒体会话期间用于提供视频内容和将视频数据形成为可传输数据分组的完整输入包。因此,除了视频内容本身之外,容器文件优选地包括媒体服务器执行处理并允许在媒体会话期间传输视频内容所需的信息和指令。
在实施例中,每个摄像机视图具有媒体容器文件中单独分配的媒体轨道,从而提供了多个摄像机视图与多个媒体轨道之间的一对一关系。备选地,至少两个(可能全部)摄像机视图的编码的视频数据可以装入媒体容器文件的单一媒体轨道。图4示意性示出了具有承载编码的多视图视频数据的一个或多个媒体轨道32的媒体容器文件30的示例。
多个摄像机视图的相应媒体数据,不论被组织为一个还是多个媒体轨道,优选地都分配有与摄像机视图相关联的相应视图标识符。
产生方法的下一步骤S3基于多个摄像机视图的相对位置,来选择多视图视频数据的视图布置表示。此外,该视图布置表示是从多个预定视图布置表示中选择的。这些视图布置表示指示多个摄像机视图的不同预定部署和位置关系。视图布置表示可以被认为是相对于所记录场景的多个摄像机和摄像机视图的特定总体部署的标识符。因此,视图布置表示直接提供了如何组织多个摄像机视图的信息,不需要摄像机向量和坐标的任何处理以确定当前摄像机视图部署。
步骤S3从多个预定视图布置表示的集合中选择视图布置。这意味着,存在有限数目的、预先指定和允许的部署,在这些部署中,可以关于要以多视图设置进行记录的场景或对象来组织摄像机。这些预定视图布置表示与在多视频记录中使用的最常用摄像机部署规划相对应。
这种可以使用的预定视图布置表示的示例包括:共线视图布置表示、平面视图布置表示、矩形视图阵列表示、球形视图阵列布置表示和立体视图对布置表示。因此,多个预定视图布置表示的集合可以包括所有上述视图布置表示或其子集,只要集合中存在多个(即至少两个)预定视图布置表示。本实施例不限于这些特定视图布置表示,而是可以备选地或附加地使用具有除了直线、平面、矩形格栅、球形或立体视图对之外的不同摄像机视图部署的其他视图布置表示。
步骤S3的选择可以通过选择单一视图布置表示来执行。备选地,实际上可以将多个预定视图布置表示的子集应用至当前摄像机视图布置,因此可以在步骤S3中选择多个预定视图布置表示的子集。例如,根据矩形视图阵列布置表示的定义而部署的摄像机视图也可以以平面来部署,从而也可以选择平面视图布置表示。
在步骤S4中,将多个摄像机视图的视图标识符包括在所选的视图布置表示中。因此,这些视图标识符指定了根据所选视图布置表示所指示的部署规划,相对于所记录场景来部署哪些视图摄像机。优选地,按照所选视图布置表示所定义的部署和位置关系中对摄像机视图的相对位置顺序进行描述的顺序,将视图标识符包括在视图布置表示中。因此,优选地,按照视图布置表示所定义的部署规划中摄像机视图相对于场景的位置顺序,将摄像机视图的视图标识符包括在视图布置中。
在步骤S5,相对于步骤S2中组织为文件的至少一个媒体轨道,将包括有视图标识符的所选视图布置相关联地组织在媒体容器文件中。相关联地组织意味着将视图布置表示包括在媒体容器文件中,以便提供视图布置表示与视图布置表示所应用至的摄像机视图之间的关联。相应地,这种关联可以取而代之地是视图布置表示与组织为至少一个媒体轨道的编码的多视图数据之间的关联。
关联可以具有从媒体容器文件内视频数据的存储位置至视图布置表示的存储位置(或者反之)的指针的形式。因此,给定特定视频数据或其在媒体容器文件内的位置,该指针或元数据实现了对相关联视图布置表示或视图布置表示在文件内的存储位置的标识。取代采用指针,元数据可以包括视频数据的视频数据标识符或承载多视图视频数据的媒体轨道的轨道标识符。其他示例包括:视图布置表示中包括的视图标识符,允许标识摄像机视图,从而允许标识视图布置表示所应用至的视频数据和媒体轨道。
然后,该方法结束。产生方法的操作步骤可以如图1所示按顺序依次执行。备选地,步骤S3至S5可以在步骤S1和S2之前或实际上与步骤S1和S2并行执行。
图4示意性示出了媒体容器文件30的实施例。媒体容器文件30包括承载编码的多视图视频数据的一个或多个媒体轨道32。包括摄像机视图的视图标识符36在内的所选视图布置表示34也被组织为媒体容器文件30中的元数据。
图5示意了如何将视图布置表示组织在媒体容器文件中的示例。在所示示例中,媒体容器文件包括表示为全局补充视图位置箱38的箱。箱38记录常用的摄像机位置。当摄像机和摄像机视图以直观上简单的模式(从摄像机位置坐标中提取可能较为复杂)来定向时,这是尤其有用的。内容创建者可以使用该箱来突出他或她选择的摄像机之间的有用关系。
图5的全局补充视图位置箱38示意了根据实施例的多个预定视图布置表示34A至34E。因此,箱38包括共线视图箱34A、平面视图箱34B、矩形视图箱34C、球形视图箱34D和立体视图箱34E。注意,在最实际的实现中,全局补充视图位置箱38中实际上仅包括视图布置表示34A至34E之一或子集,因为该视图布置表示或视图布置表示子集是针对当前摄像机视图布置而选择的。
在媒体容器文件中提供全局补充视图位置箱38的非限制性示例可以是:
箱类型:‘gsvp’
容器:电影箱(‘moov’)
强制:否
数量:精确为1个
针对箱类型“gsvp”可用的视图箱34A至34E是可选的,这意味着,针对给定摄像机视图布置,不是所有视图箱都必须包括在媒体容器文件中。在图5中,箱38被示意为针对每个视图布置表示类型,具有至多一个箱34A至34E。然而,对于一些摄像机阵列,可以有利地包括给定类型的多个视图布置表示,如多个共线视图布置表示34A和/或多个立体视图布置表示34E。
图6是示意了图1中的产生方法的选择步骤S3和包括步骤S4的实施例的流程图。该方法从图1的步骤S2继续进行。下一步骤S10基于多个摄像机视图或多个摄像机的相对位置,选择共线视图布置表示。例如,参照图2,摄像机视图22-28均沿直线布置,针对该摄像机视图部署,应当选择共线视图布置表示。
图3示意了另一组摄像机视图。在这种情况下,如果摄像机视图的最小数目为3,则针对具有16个摄像机视图22A至28D的阵列,实际上存在共线视图布置表示的34种可能条目:
22A,22B,22C,22D  24A,24B,24C,24D  26A,26B,26C,26D
28A,28B,28C,28D  22A,24A,26A,28A  22B,24B,26B,28B
22C,24C,26C,28C  22D,24D,26D,28D  22A,24B,26C,28D
28A,26B,24C,22D  24A,26B,28C       22A,24B,26C
24B,26C,28D       22B,24C,26D       26A,24B,22C
28A,26B,24C       26B,24C,22D       28B,26C,24D
22A,22B,22C       22B,22C,22D       24A,24B,24C
24B,24C,24D       26A,26B,26C       26B,26C,26D
28A,28B,28C       28B,28C,28D       22A,24A,26A
24A,26A,28A       22B,24B,26B       24B,26B,28B
22C,24C,26C       24C,26C,28C       22D,24D,26D
24D,26D,28D
在优选实施例中,摄像机视图的数目被认为是沿直线至少3个,与上述实施例中一样。
可选的下一步骤S11选择第一共线版本和第二共线版本中的共线版本。这些多个共线版本定义了对沿直线部署的优选地至少3个摄像机视图的视图标识符进行组织的不同方式。步骤S11中对共线版本的选择是基于多个摄像机视图的相对位置来执行的。如果在步骤S11中选择第一共线版本V1,则方法继续至步骤S12。步骤S12将沿直线部署的摄像机视图的所有视图标识符包括在共线视图布置表示中。因此,按照摄像机视图沿直线部署的正确顺序提供摄像机视图。例如,如果22A至28D表示摄像机视图的视图标识符,则为图3中的22A、24B、26C、28D。
然而,如果在步骤S11中选择第二共线版本V0,则步骤S13将起始视图标识符和可选的标识符增量包括在共线视图布置表示中。在视图标识符的总比特大小方面,这种表示视图标识符的方式更加高效。然而,第二共线版本仅在以如下方式来组织摄像机视图的情况下可用:摄像机视图的视图标识符为:start_view_id,start_view_id+id_increment,start_view_id+2×id_increment,start_view_id+3×id_increment,...,其中start_view_id是对齐的摄像机视图序列中具有最低视图标识符的摄像机视图的视图标识符,id_increment是标识符增量。在一些应用中,标识符增量可以具有预定值,如1,从而不需要在共线视图箱中指定任何标识符增量。然后,该方法继续至图1的步骤S5。
图7A示意了在图6的步骤S11中选择第一共线版本的情况下,共线视图箱34A的第一示例。共线视图箱34A包括版本标识符31,版本标识符31具有与第一共线版本相关联的值。共线视图箱34A中还包括对齐的摄像机视图的视图标识符36A。
图7B示意了在图6的步骤S11中代之以选择第二共线版本的情况下,对应的共线视图箱34A。共线视图箱34A包括共线版本标识符31、起始视图标识符36B和可选的上述标识符增量36C。起始视图标识符36B和标识符增量36C是对齐的摄像机视图的视图标识符的表示,可以用于根据view_idk=start_view_id+k×id_increment来计算摄像机视图,其中k=0,1,2,...,view_count-1,view_count是指定了连续对齐的摄像机视图的数目的整数。
尽管在图7A和7B中未示出,但是共线视图箱34A还可以包括view_count,即沿直线对齐的摄像机视图的总数。但是这不是必须的,因为箱/完整箱结构中包含的大小字段给出了关于箱中有多少视图条目的指示。总是可以将该大小除以每个视图占用的比特数来获得视图总数。
共线视图箱34A可以定义为:
箱类型:‘ilvi’
容器:全局补充视图位置箱(‘gsvp’)
强制:否
数量:0或更多
Figure BPA00001346914600101
Figure BPA00001346914600111
语义
version是指定共线视图箱的共线版本的整数。
view_id是文献[6]中的ViewIdentifier箱中指示的摄像机视图的标识符。
start_view_id是ViewIdentifierBox中指示的摄像机视图的视图标识符,是对齐的摄像机视图序列中最低的view_id。
view_count是对连续对齐的摄像机视图的数目进行计数的整数。
id_increment是标识符增量。
注意,如上所述并结合图3讨论的,单一摄像机视图布置可以包括多个共线视图箱。
在备选实施例中,只有第一共线版本可用。因此,可以省略步骤S11和S13,并且所有共线视图箱如图7A所示。另一备选是仅允许第二共线版本。因此,可以省略步骤S11和S12,并且共线视图箱如图7B所示。
在其他实施例中,共线视图布置表示还包括指示对齐的摄像机视图的直线是水平线、垂直线还是斜线的信息。
图8是示意了图1中的选择步骤S3和包括步骤S4的实施例的流程图。该方法从图1的步骤S2继续进行。下一步骤S20基于多个摄像机视图的相对位置,选择平面视图布置表示。如果摄像机视图或摄像机的组位于平面上,则选择该视图布置表示。组中的摄像机视图的数目优选地不多于3个。图3中示意的所有摄像机视图22A至28D位于平面上,因此可以针对摄像机视图22A至28D的组来选择平面视图布置表示。
与共线视图布置表示的情况相对应,下一可选步骤S21在第一平面视图版本与第二平面视图版本之间进行选择。步骤S21的选择是基于多个摄像机视图的相对位置来执行的。如果在步骤S21中选择第一平面版本V1,则步骤S22将平面中对齐的摄像机视图的所有视图标识符包括在平面视图布置表示中。基本上,该步骤S22是与图6的步骤S12一样地进行的,只是多个摄像机视图是在平面中而不是仅在直线上对齐。优选地,按照通过根据预定扫描方案来遍历平面中的摄像机视图而获得的顺序来包括视图标识符,所述方案例如从左上角摄像机视图开始,然后沿第一行扫描,然后继续至第二行,以此类推。可以使用的其他可能的扫描顺序包括Z字形扫描顺序。此时,这意味着可以按照(行,列)为(1,1),(1,2),(2,1),(3,1),(2,2),(1,3),(2,3),(3,2)和(3,3)的顺序来扫描包括例如3×3摄像机或摄像机视图的矩阵。另外的示例是交错扫描顺序。
如果在步骤S22中代之以选择第二平面版本V0,则步骤S23将起始视图标识符以及(可选地,除非是固定的)标识符增量包括在平面视图布置表示中。基本上,步骤S23与图6的步骤S13一样进行。然后,该方法继续至图1的步骤S5。
图9A示意了针对第一平面版本的平面视图箱34B,即平面视图布置表示。平面视图箱34B包括版本标识符31和在平面中对齐的摄像机视图的所有视图标识符36A。图9B示意了在版本标识符31指示第二平面版本的情况下的平面视图箱34B。此时,平面视图箱34B包括起始视图标识符36B和可选的标识符增量36C。可选地,平面视图箱34B包括在平面中对齐的摄像机视图的数目的信息,即view_count。
与共线视图布置表示类似,在备选实施例中,仅第一平面版本可用,或者仅第二平面版本可用。
平面视图箱可以定义为:
箱类型:‘plvi’
容器:全局补充视图位置箱(‘gsvp’)
强制:否
数量:0或更多
Figure BPA00001346914600131
语义
version是指定平面视图箱的平面版本的整数。
view_id是文献[6]中的ViewIdentifier箱中指示的摄像机视图的标识符。
start_view_id是ViewIdentifierBox中指示的摄像机视图的视图标识符,是位于平面上的连续摄像机视图序列中最低的view_id。
view_count是对平面上连续对齐的摄像机视图的数目进行计数的整数。
id_increment是标识符增量。
图10是示意了图1的选择步骤S3的实施例的流程图。该方法从图1的步骤S2继续进行。下一步骤S30基于多个摄像机视图的相对位置来选择矩形视图阵列布置。这种矩形视图布置表示适用于表示形成平面上的矩形格栅或栅格的摄像机视图或摄像机的组。优选地,组中的摄像机视图的数目不少于4个,优选地以周期性模式具有相等间隔。图3示意了在矩形阵列中布置的摄像机视图22A至28D的组。
下一步骤S31将矩形摄像机视图阵列中的行数的表示和列数的表示包括在平面视图阵列布置表示中。在步骤S32中,确定矩形摄像机视图阵列中的连续行和连续列之间的距离的表示,并将其包括在矩形视图阵列布置表示中。该方法继续至图1的步骤S4,在步骤S4中,将矩形阵列中的摄像机视图的视图标识符包括在布置表示中。优选地,按照上述扫描方案所确定的顺序来包括视图标识符。
图11是根据实施例的矩形视图箱34C(即矩形视图阵列布置表示)的示意。矩形视图箱34C包括矩形阵列中的行和列数目的表示35A、35B以及连续行和连续列之间的距离的表示37A、37B。在矩形视图箱34C中,还包括组织为矩形阵列的摄像机视图的视图标识符36A。
与共线和平面视图箱类似,备选地,针对矩形视图箱34C,也可以使用两个矩形版本之间的选择。此外,取代显式列出摄像机视图的所有视图标识符36A,可以使用起始视图标识符和可选的标识符增量来提供视图标识符的隐式列表。
在媒体容器文件中,矩形视图箱34C可以表示为:
箱类型:‘rtvi’
容器:全局补充视图位置箱(‘gsvp’)
强制:否
数量:0或更多
Figure BPA00001346914600141
Figure BPA00001346914600151
语义
row_view_count指定了矩形阵列中的行数。
row_interval表示矩形阵列中两行之间的距离。
column_view_count是矩形阵列中的列数。
column_interval指定了矩形阵列中两列之间的距离。
view_id[i][j]是文献[6]中的ViewIdentifier箱中指示的摄像机视图的标识符。
图12是示意了图1的选择步骤S3和包括步骤S4的实施例的流程图。该方法从图1的步骤S2继续进行。下一步骤S40基于多个摄像机视图的相对位置来选择球形视图布置表示。这种布置表示可用于位于球形表面上的摄像机视图或摄像机的组。例如,可以沿球的圆周来提供摄像机视图,即基本上沿以球心为中心并具有相同半径的圆的边缘来放置。此外,更精细的实施例也是可能的,其中摄像机视图位于球形表面的一部分上。一般地,摄像机视图的数目优选地不少于4个。
图12的下一步骤S41将球的半径和中心坐标的信息包括在球形视图布置表示中。在可选实施例中,与共线和平面视图布置表示一样,有两个球形视图版本可用。步骤S42基于摄像机视图的相对位置来选择要用于当前摄像机视图组的球形版本视图。如果选择第一球形视图版本,则在步骤S43中,将组中的摄像机视图的所有视图标识符显式地包括在球形视图布置表示中。然而,如果取而代之地选择了第二球形视图版本,则除了组中的摄像机视图的总数的信息之外,还包括起始视图标识符和可选的标识符增量。
此后,该方法继续至图1的步骤S5。
在备选实施例中,只有第一球形版本和第二球形版本之一可用。
图13A示意了根据第一球形版本的球形视图箱34D。除了球形版本标识符31之外,球形视图箱34D包括球的半径39A和中心坐标39B的信息。在该球形版本中,在球形视图箱中显式列出了摄像机视图36A。
图13B示意了根据第二球形版本的球形视图箱34D。取代显式列出的视图标识符,球形视图箱34D包括起始视图标识符36B和可选的标识符增量(除非是固定的,如1或某个其他整数)。
在媒体容器文件中,球形视图箱可以定义如下:
箱类型:‘spvi’
容器:全局补充位置箱(‘gsvp’)
强制:否
数量:0或更多
Figure BPA00001346914600161
语义
version是指定球形视图箱的球形版本的整数。
radius指定球形视图阵列布置中的球的半径。
center_of_sphere是球的中心点坐标。
view_id是文献[6]中的ViewIdentifier箱中指示的摄像机视图的标识符。
start_view_id是ViewIdentifierBox中指示的摄像机视图的视图标识符,是位于球形表面上的连续摄像机视图序列中最低的view_id。
view_count是对球形表面上连续对齐的摄像机视图的数目进行计数的整数。
id_increment是标识符增量。
图14是示意了图1的选择步骤S3的实施例的流程图。该方法从图1的步骤S2继续进行。步骤S50基于多个摄像机视图的相对位置来选择立体视图布置表示。该立体视图布置指示可以用于呈现三维(3D)视频的一对摄像机视图。因此,优选地,摄像机视图具有人的左眼和右眼的距离以及适于人类视觉***的对焦角度。
该方法从步骤S50继续进行至图1中的步骤S4,在步骤S4中,将左摄像机视图和右摄像机视图的视图标识符包括在立体视图布置表示中。
图15示意性示出了立体视图箱34E(即立体视图布置表示)的实施例。立体视图箱包括形成立体视图对的上述左和右摄像机视图的标识符36D、36E。
立体视图箱34E可以实现为:
箱类型:‘stvi’
容器:全局补充视图位置箱(‘gsvp’)
强制:否
数量:0或更多
Figure BPA00001346914600171
Figure BPA00001346914600181
语义
left_view_id是文献[6]中的ViewIdentifier箱中指示的、可以用作左眼视图的摄像机视图的标识符。
right_view_id是可以用作右眼视图的对应视图标识符。
如上所述,可以向多个摄像机视图的给定组分配多个视图布置表示。在这种情况下,多个视图布置表示可以具有相同类型或者不同类型。例如,图3中示意的摄像机视图部署可以潜在地分配有34种不同的共线视图布置表示、平面视图布置表示、矩形视图布置表示和可能的一个或多个立体视图布置表示。
因此,上述预定视图布置表示的定义不是互斥的。例如,矩形视图布置也是平面视图布置,但反之不一定成立。由创建媒体容器文件的内容提供者来指定他或她认为对于当前摄像机视图布置而言最重要或相关的视图布置。内容创建者还可以基于多个摄像机记录的特定场景来选择要选择的视图布置表示的类型。例如,在新闻解说场景中,球形视图布置可能是有利的。相应地,在跑道比赛中,如100米比赛,共线视图布置是好的选择,而平面和矩形视图布置可以用于较宽场景的捕捉,如在战事或***仪式中。
除了选择用于表示多个摄像机视图(用于产生媒体容器文件中包括的多视图视频数据)的全局布置的视图布置表示之外,媒体容器文件还可以包含描述摄像机视图的局部关系的信息。这种局部关系的示例是:指定相邻视图,即在距离上相对于当前摄像机视图最接近的摄像机视图;以及重叠视图,即具有重叠内容区域的摄像机视图。
在这种情况下,媒体容器文件可以包括如图17所示的所谓局部补充视图位置箱40。在媒体容器文件中,局部补充视图位置箱40可以实现为:
箱类型:‘lsvp’
容器:局部补充视图位置容器箱(‘lvpc’)
强制:否
数量:0或更多
Figure BPA00001346914600191
在该示意性示例中,局部补充视图位置箱40是在媒体容器文件中布置的局部补充视图位置容器箱中提供的。局部补充视图位置容器箱可以实现为:
箱类型:‘lvpc’
容器:采样条目(‘avc1’,‘avc2’,‘mvc1’)
强制:否
数量:0或1
aligned(8)class LocalSupplementary ViewPositionContainerBox
extends FullBox(‘lsvp’,version=0,0){
LocalSupplementaryViewPositionBox();//可选
}
备选地,可以省略局部补充视图位置容器箱。
局部补充视图位置箱40包括局部位置视图标识符箱50,局部位置视图标识符箱50指定被认为是基本视图的摄像机视图之一的视图标识符51。因此,局部位置视图标识符箱50可以被实现为:
箱类型:‘lpvi’
容器:局部补充视图位置箱(‘lsvp’)
强制:是
数量:精确为1个
aligned(8)class LocalPosition ViewIdentifierBox extends Box(‘lpvi’){
unsigned int(6)reserved=0;
unsigned int(10)view_id;
}
语义
view_id是摄像机视图的视图标识符,该摄像机视图的相邻和/或重叠信息可以由局部补充视图位置箱中包含的其他箱来提供。
可选的相邻视图箱70在距离上相对于局部位置视图标识符箱50中标识的基本摄像机视图最接近的摄像机视图的视图标识符71。相邻视图箱70可以实现为:
箱类型:‘advi’
容器:局部补充视图位置箱(‘lsvp’)
强制:否
数量:0或1
Figure BPA00001346914600201
语义
view_id是与局部位置视图标识符箱50中标识的摄像机视图相邻的摄像机视图的视图标识符。
相邻视图是位于附近的摄像机的物理位置定义。它与摄像机的位置相关,但是不考虑摄像机正在拍摄何种场景或对象。只要多于两个摄像机组成的组中的两个摄像机距离最接近,就可以将它们归类为相邻摄像机,即使它们可能正在拍摄不同(甚至相反)的方向。
与相邻视图明显不同地,重叠视图是定义了至少两个摄像机的摄像机视图至少部分重叠的基于内容的表示。在这种实施例中,重叠摄像机视图的表示被组织在媒体容器文件中。
图16是示意了提供这种重叠视图表示的实施例的流程图。该方法从图1的步骤S5继续进行。参照图16和17,下一步骤S60相对于至少一个媒体轨道,将重叠摄像机视图的表示40相关联地组织在媒体容器文件中。在步骤S61中,优选地通过将被选为基本视图标识符的摄像机视图的视图标识符51包括在局部位置视图标识符箱50中,来将其包括在重叠摄像机视图的表示40中。
在步骤S62中,将与基本摄像机视图至少部分重叠的摄像机视图的视图标识符61包括在表示40中。在图2中,如果摄像机视图22被选为基本摄像机视图,则摄像机视图24将是重叠摄像机视图。相应地,如果取而代之地摄像机视图24是基本摄像机视图,则摄像机视图22和摄像机视图26将是重叠视图。
对象或场景与拍摄摄像机之间的距离将导致不同的重叠区域。例如,两个摄像机可能记录警察。如果警察站在靠近两个摄像机前方,则左摄像机可能捕捉左臂,右摄像机可能捕捉右臂。在这种情况下,两个摄像机视图之间没有重叠区域。如果警察代之以站得更远,则两个摄像机可以捕捉警察的整个图像,因此摄像机屏幕上警察站立的区域属于重叠区域。
因此,优选地,在步骤S63,确定指定摄像机与共同感兴趣的对象之间的距离的对象距离62,并将其包括在表示40中。
参照图16、17和20,为了定义重叠视图24如何与基本摄像机视图22重叠,在步骤S64,将分别指定水平偏移83和垂直偏移84的偏移信息63、64包括在表示40中。重叠区域的大小由大小信息65、66来限定,优选地由重叠区域的宽度85和高度86来限定。在步骤S65,将该大小信息65、66包括在表示40中。
在图17中,在局部补充视图位置箱40中包括的重叠视图箱60中提供与重叠区域和摄像机视图相关的信息。重叠视图箱60可以实现为:
箱类型:‘olvi’
容器:局部补充视图位置箱(‘lsvp’)
强制:否
数量:0或更多
Figure BPA00001346914600221
语义
view_id是与局部位置视图标识符箱50中标识的摄像机视图重叠的摄像机视图的标识符。
dynamic_overlap等于1指示当前层表示的区域是基本区域中动态改变的矩形部分。否则(即等于0)指示当前层表示的区域是基本区域中的固定矩形部分。
object_distance指示摄像机与公共兴趣对象之间的距离。如果其值为0,则针对重叠区域没有信息可用,并且重叠区域取缺省值(假定例如100个单位远的对象距离)。
horizontal_offset和vertical_offset分别给出了摄像机视图所表示的矩形区域的左上角像素相对于基本摄像机视图所表示的基本区域的左上角像素的水平和垂直偏移,以基本区域的亮度采样为单位。
region_width和region_height分别给出了摄像机视图所表示的矩形区域的宽度和高度,以基本区域的亮度采样为单位。
根据最接近的相邻摄像机视图的数目,并根据内容创建者是否认为该信息是有价值的从而应当包括在局部补充视图位置箱40中,局部补充视图位置箱40可以包括0个、1个或多个相邻视图箱70。相应地,如基于重叠摄像机视图的数目来确定的,针对每个局部补充视图位置箱40,可以使用0个、1个或多个重叠视图箱60。还要注意,媒体容器文件可以包括0个、1个或多个局部补充视图位置箱。
局部补充视图位置箱中包括的信息可以被认为是除了视图布置表示所提供的全局视图信息之外还感兴趣的附加或补充信息。在备选方式中,使用局部补充视图位置箱并将其包括在媒体容器文件中,无需选择和包括任何视图布置表示。
图18是根据实施例用于产生媒体容器文件的设备的示意框图。设备100包括:轨道组织器120,被配置用于将表示视频内容的多个摄像机视图的编码的视频数据组织在媒体容器文件的至少一个媒体轨道中。轨道组织器120可以连接至内部或外部媒体引擎,媒体引擎包括用于记录或产生多个摄像机视图的视频数据的设备12-18以及用于对记录或产生的视频数据进行编码的编码器190。备选地,轨道组织器120从设备100的所连接的接收机110接收视频数据,该视频数据典型地具有编码的形式或者作为未编码的视频数据。然后,接收机110通过有线或无线通信,从通信***中的外部终端接收视频数据。作为另一备选,轨道组织器120可以从设备100的所连接的媒体存储器130取得多视图视频数据。
表示选择器140被实现用于从多个预定视图布置表示中选择视图布置表示。此外,至少部分基于多个摄像机视图的相对位置来执行该选择。视图布置表示的选择可以由知晓摄像机视图部署的内容创建者来手动执行。在这种情况下,表示选择器140包括或连接至用户输入,内容创建者使用该用户输入来选择视图布置表示。备选地,例如通过用户输入或从视频数据本身,可以向表示选择器140提供摄像机的坐标。然后,表示选择器140包括用于执行复杂的计算以定义摄像机视图部署和相互关系的处理能力。由于媒体容器文件一般是在能够使用无限功率的设备100中离线产生的,因此表示选择器140可以实际上执行繁琐的计算。关于视频解码和呈现,尤其是对于如移动终端之类具有有限计算和处理能力的轻薄终端而言这种计算通常是不可能或者至少是不利的。
在设备100中提供了标识符处理器160,用于将多个摄像机视图的视图标识符包括在表示选择器140选择的视图布置表示中。在这种情况下,标识符驱动器160优选地按照所选视图布置表示所定义的预定部署和位置关系中描述多个摄像机视图的相对位置顺序的顺序,来包括视图标识符。
表示组织器150相对于至少一个媒体轨道,将具有视图标识符的所选视图布置表示相关联地组织在媒体容器文件中。
如果表示选择器140选择共线视图布置表示,则激活可选的版本处理器170来基于沿直线对齐的摄像机视图的相对位置在第一共线版本和第二共线版本之间进行选择。在前一种情况下,标识符处理器160包括所有对齐的摄像机视图的视图标识符。然而,如果版本标识符取而代之地选择了第二版本,则标识符处理器160包括起始视图标识符和可选的标识符增量。该信息允许摄像机视图的简单计算。
版本处理器170通过研究连续摄像机视图的相应视图标识符来选择版本。如果在沿线移动时,视图标识符以增量增大或以减量减小,则版本处理器170选择第二共线版本,否则使用第一共线版本。
备选地或附加地,表示选择器140可以选择平面视图布置表示。在这种情况下,版本选择器170优选地在上述第一和第二平面版本之间进行选择。根据选择了哪个平面版本,标识符处理器160包括平面中存在的所有摄像机视图的视图标识符或者起始视图标识符,可选地包括摄像机视图总数、以及可选地包括标识符增量。
数目处理器174可以基于编码的多视图数据中包括的信息或来自用户输入的信息,来确定摄像机视图的总数。
如果表示选择器140选择矩形视图阵列布置表示,则设备100的数目确定器174将矩形摄像机视图阵列的行数和列数的表示包括在矩形视图阵列布置表示中。距离处理器176将连续行和列之间的距离的信息包括在矩形视图阵列布置表示中。
如果表示选择器140选择了球形视图阵列布置表示,则激活球形处理器172。该球形处理器172将多个摄像机所在的球的半径和中心坐标的信息包括在布置表示中。
如果表示选择器140选择了立体视图布置表示,则标识符处理器160将左眼摄像机视图和右眼摄像机视图的视图标识符包括在立体视图布置表示中。
可选地,设备100还包括用于在媒体容器文件中提供补充信息的处理器。视图处理器182可以例如包括如布置在线上、平面上、矩形格栅中或球上的多个可用摄像机视图中被选为基本摄像机视图的摄像机视图的视图标识符。视图处理器182还可以包括在距离上被确定为与被指定为基本摄像机视图的摄像机视图最接近的摄像视图的视图标识符。
视图组织器180可以相对于至少一个媒体轨道,将重叠摄像机视图的表示相关联地组织在媒体容器文件中。然后,视图处理器182将基本摄像机视图和重叠摄像机视图的标识符包括在该表示中。
距离处理器176或设备100的另一处理器可以包括重叠摄像机与感兴趣的重叠对象之间的距离的信息。相应地,偏移处理器184包括基本摄像机视图与重叠摄像机视图之间的偏移的信息;大小处理器包括如上所述重叠区域的大小的信息。
根据设备100的实施例所产生的媒体容器帧可以输入媒体存储器130,以便随后发送至要对媒体容器文件进行转发或处理的外部单元。备选地,设备100的发射机110可以将媒体容器文件直接发送至该外部单元,如媒体服务器、代码转换器或具有媒体呈现或播放设施的用户终端。
设备100中的单元110、120和140-190可以以硬件、软件或硬件和软件的组合来提供。有利地,设备100可以配置在有线或者优选地无线的、基于无线电的通信***的网络节点中。设备100可以构成内容提供器或服务器的一部分,或者连接至内容提供器或服务器。
在图18中,使用了包括接收和发送功能的组合单元(即收发机)。备选地,在无线实现中,可以使用可选地连接至单独的接收天线和发射天线或者组合的接收和发射天线的专用接收机和专用发射机。
图19是可以实现实施例的无线通信***1的一部分的示意概述。通信***1包括向所连接的用户终端400提供通信服务的一个或多个网络节点或基站300。基站300中的至少一个包括或连接至包括以上所述并在图18中公开的容器文件产生设备100在内的媒体服务器或提供器200。媒体容器文件中包括的多视图视频数据分发至通信***1中提供的用户终端200和/或其他数据处理设备。在这种情况下,如图中示意性示出的,可以在单播传输中,或者以多播或广播传输的形式,向用户终端400发送多视图视频数据。
媒体容器文件中包括的视图布置表示提供了与摄像机之间经常使用的关系相关的高级信息。视图布置表示可以用于非常容易地提供与摄像机模式相关的直观信息,而无需扫描所有摄像机参数,避免了穷尽式计算。因此,布置表示可以用于容易地找出在平面或某种其他部署模式中哪些摄像机和摄像机视图是对齐的,哪些摄像机彼此相邻、哪些摄像机视图适于立体呈现等等。
呈现设备、媒体播放器或其他媒体处理器例如在选择要进一步处理(如代码转换或呈现)的媒体数据时,可以使用视图布置表示和其中包括的信息。因此,与用于记录多视图视频数据的摄像机如何相对于彼此而布置相关的信息有利地用于处理媒体容器文件中的视频数据。例如,在呈现3D视频时,立体视图布置表示允许标识摄像机视图,从而允许来自这些摄像机视图的视频数据共同呈现,以实现3D效果。
基于部署信息来进行多视图视频数据处理的其他示例是在想要在沿直线布置的连续摄像机视图之间进行切换时。因此,共线视图布置表示允许标识摄像机视图,并允许在按照这种方式来切换呈现视图时使用来自这些摄像机视图的视频数据。相应地,如果想要在球形表面上布置的摄像机视图之间全景拍摄或移动,则可以使用球形视图阵列布置表示。
此外,视图布置表示中包含的信息可以与局部信息(例如相邻摄像机是否具有重叠视图)相结合,以决定摄像机视图的拼接是否合适或实际上是否可能。拼接的用户示例是较大的屏幕或投影仪,其需要多个摄像机视图的联合或者单一360°全景视图。
视图布置表示还可以用于对象跟踪。例如,假定对象非常快的从左向右跑动。此时知道在当前摄像机阵列中是否存在任何水平共线视图布置表示是有益的,使得可以跟踪跑动的对象。
本领域技术人员将理解,在不背离由所附权利要求限定的范围的前提下,可以对本发明进行各种修改和改变。
参考文献
[1]ISO/IEC JTC1/SC29/WG11-Coding of Moving Pictures and Audio,MPEG-4 Overview,July 2000
[2]ISO/IEC 14496-15:2004-Information Technology,Coding of Audio-Visual Objects,Part 15:Advanced Video Coding(AVC)File Format
[3]ISO/IEC 14496-14:2003-Information Technology,Coding of Audio-Visual Objects,Part 14:MP4 File Format
[4]3GPP TS 26.244 V7.3.0-3rd Generation Partnership Project;Technical Specification Group Services and System Aspects;Transparent end-to-end packet switched streaming service(PSS);3GPP file format,2007
[5]ISO/IEC 14496-12:2005-Information Technology,Coding of Audio-Visual Objects,Part 12:ISO Base Media File Format

Claims (23)

1.一种用于产生媒体容器文件的方法,包括以下步骤:
-将表示视频内容的多个摄像机视图的编码的视频数据组织在所述媒体容器文件的至少一个媒体轨道中;
-基于所述多个摄像机视图的相对位置,从多个预定视图布置表示中选择视图布置表示,其中,所述多个预定视图布置表示指示所述多个摄像机视图的不同预定部署和位置关系;
-将所述多个摄像机视图的视图标识符包括在所选的视图布置表示中;以及
-相对于所述至少一个媒体轨道,将所选的视图布置表示相关联地组织在所述媒体容器文件中。
2.根据权利要求1所述的方法,其中,所述包括步骤包括:按照所选的视图布置表示所定义的预定部署和位置关系中描述所述多个摄像机视图的相对位置顺序的顺序,来包括所述视图标识符。
3.根据权利要求1或2所述的方法,其中,所述选择步骤包括:基于所述多个摄像机视图的所述相对位置,从共线视图布置表示、平面视图布置表示、矩形视图阵列布置表示、球形视图阵列布置表示和立体视图对布置表示中选择视图布置表示。
4.根据权利要求1至3中任一项所述的方法,其中,所述选择步骤包括:基于所述多个摄像机视图的所述相对位置,选择共线视图布置表示,所述方法还包括:基于所述多个摄像机视图的所述相对位置,在第一共线版本和第二共线版本之间进行选择,其中,所述包括步骤包括:如果选择所述第一共线版本,则包括所述视图标识符;如果选择所述第二共线版本,则包括从所述视图标识符中选择的起始视图标识符和适用于所述起始视图标识符的标识符增量,以获得所述多个摄像机视图的至少一部分的视图标识符。
5.根据权利要求1至4中任一项所述的方法,其中,所述选择步骤包括:基于所述多个摄像机视图的所述相对位置,选择平面视图布置表示,所述方法还包括:基于所述多个摄像机视图的所述相对位置,在第一平面版本和第二平面版本之间进行选择,其中,所述包括步骤包括:如果选择所述第一平面版本,则包括所述视图标识符;如果选择所述第二平面版本,则包括从所述视图标识符中选择的起始视图标识符和适用于所述起始视图标识符的标识符增量,以获得所述多个摄像机视图的至少一部分的视图标识符。
6.根据权利要求1至5中任一项所述的方法,其中,所述选择步骤包括:基于所述多个摄像机视图的所述相对位置,选择矩形视图阵列布置表示,所述方法还包括:
-将所述多个摄像机视图的矩形摄像机视图阵列的行数的表示和列数的表示包括在所述矩形视图阵列布置表示中;以及
-将所述矩形摄像机视图阵列中连续行之间的距离的表示和连续列之间的距离的表示包括在所述矩形视图阵列布置表示中。
7.根据权利要求1至6中任一项所述的方法,其中,所述选择步骤包括:基于所述多个摄像机视图的所述相对位置,选择球形视图阵列布置表示,所述方法还包括:将包括所述多个摄像机视图的球形摄像机视图阵列的半径的表示和中心坐标的表示包括在所述球形视图阵列布置表示中。
8.根据权利要求1至7中任一项所述的方法,其中,所述选择步骤包括:基于所述多个摄像机视图的所述相对位置,选择立体视图对布置表示,所述包括步骤包括:将所述多个摄像机视图的左眼摄像机视图的视图标识符和右眼摄像机视图的视图标识符包括在所述立体视图对布置表示中。
9.根据权利要求1至8中任一项所述的方法,还包括:相对于所述至少一个媒体轨道,将所述多个摄像机视图中的重叠摄像机视图的表示相关联地组织在所述媒体容器文件中。
10.根据权利要求9所述的方法,还包括:
-将所述多个摄像机视图中的基本摄像机视图的视图标识符包括在所述重叠摄像机视图的表示中;以及
-将所述多个摄像机视图中与所述基本摄像机视图重叠的任何摄像机视图的任何视图标识符包括在所述重叠摄像机视图的表示中。
11.根据权利要求10所述的方法,还包括:
-将所述基本摄像机视图和与所述基本摄像机视图重叠的所述任何摄像机视图之间的偏移的信息包括在所述重叠摄像机视图的表示中;以及
-将所述基本摄像机视图和与所述基本摄像机视图重叠的所述任何摄像机视图的重叠区域的大小的信息包括在所述重叠摄像机视图的表示中。
12.一种用于产生媒体容器文件的设备,包括:
-轨道组织器,将表示视频内容的多个摄像机视图的编码的视频数据组织在所述媒体容器文件的至少一个媒体轨道中;
-表示选择器,基于所述多个摄像机视图的相对位置,从多个预定视图布置表示中选择视图布置表示,其中,所述多个预定视图布置表示指示所述多个摄像机视图的不同预定部署和位置关系;
-标识符选择器,将所述多个摄像机视图的视图标识符包括在所述表示选择器选择的所述视图布置表示中;以及
-表示组织器,相对于所述至少一个媒体轨道,将所述表示选择器选择的所述视图布置表示相关联地组织在所述媒体容器文件中。
13.根据权利要求12所述的设备,其中,所述标识符处理器适于:按照所述表示选择器选择的所述视图布置表示所定义的预定部署和位置关系中描述所述多个摄像机视图的相对位置顺序的顺序,来包括所述视图标识符。
14.根据权利要求12或13所述的设备,其中,所述表示选择器适于:基于所述多个摄像机视图的所述相对位置,从共线视图布置表示、平面视图布置表示、矩形视图阵列布置表示、球形视图阵列布置表示和立体视图对布置表示中选择视图布置表示。
15.根据权利要求12至14中任一项所述的设备,其中,所述表示选择器适于:基于所述多个摄像机视图的所述相对位置,选择共线视图布置表示,所述设备还包括:版本处理器,基于所述多个摄像机视图的所述相对位置,将第一共线版本或第二共线版本的版本标识符包括在所述共线视图布置表示中,其中,所述标识符处理器适于:如果所述版本处理器包括所述第一共线版本的版本标识符,则包括所述视图标识符;如果所述版本处理器包括所述第二共线版本的版本标识符,则包括从所述视图标识符中选择的起始视图标识符和适用于所述起始视图标识符的标识符增量,以获得所述多个摄像机视图的至少一部分的视图标识符。
16.根据权利要求12至15中任一项所述的设备,其中,所述表示选择器适于:基于所述多个摄像机视图的所述相对位置,选择平面视图布置表示,所述设备还包括:版本处理器,基于所述多个摄像机视图的所述相对位置,将第一平面版本或第二平面版本的版本标识符包括在所述平面视图布置表示中,其中,所述标识符处理器适于:如果所述版本处理器包括所述第一平面版本的版本标识符,则包括所述视图标识符;如果所述版本处理器包括所述第二平面版本的版本标识符,则包括从所述视图标识符中选择的起始视图标识符和适用于所述起始视图标识符的标识符增量,以获得所述多个摄像机视图的至少一部分的视图标识符。
17.根据权利要求12至16中任一项所述的设备,其中,所述表示选择器适于:基于所述多个摄像机视图的所述相对位置,选择矩形视图阵列布置表示,所述设备还包括:
-数目处理器,将所述多个摄像机视图的矩形摄像机视图阵列的行数的表示和列数的表示包括在所述矩形视图阵列布置表示中;以及
-距离处理器,将所述矩形摄像机视图阵列中连续行之间的距离的表示和连续列之间的距离的表示包括在所述矩形视图阵列布置表示中。
18.根据权利要求12至17中任一项所述的设备,其中,所述表示选择器适于:基于所述多个摄像机视图的所述相对位置,选择球形视图阵列布置表示,所述设备还包括:球形处理器,将包括所述多个摄像机视图的球形摄像机视图阵列的半径的表示和中心坐标的表示包括在所述球形视图阵列布置表示中。
19.根据权利要求12至18中任一项所述的设备,其中,所述表示选择器适于:基于所述多个摄像机视图的所述相对位置,选择立体视图对布置表示,所述标识符处理器适于:将所述多个摄像机视图的左眼摄像机视图的视图标识符和右眼摄像机视图的视图标识符包括在所述立体视图对布置表示中。
20.根据权利要求12至19中任一项所述的设备,还包括:视图组织器,相对于所述至少一个媒体轨道,将所述多个摄像机视图中的重叠摄像机视图的表示相关联地组织在所述媒体容器文件中。
21.根据权利要求20所述的设备,还包括:视图处理器,将所述多个摄像机视图中的基本摄像机视图的视图标识符包括在所述重叠摄像机视图的表示中,并将所述多个摄像机视图中与所述基本摄像机视图重叠的任何摄像机视图的任何视图标识符包括在所述重叠摄像机视图的表示中。
22.根据权利要求21所述的设备,还包括:
-偏移处理器,将所述基本摄像机视图和与所述基本摄像机视图重叠的所述任何摄像机视图之间的偏移的信息包括在所述重叠摄像机视图的表示中;以及
-大小处理器,将所述基本摄像机视图和与所述基本摄像机视图重叠的所述任何摄像机视图的重叠区域的大小的信息包括在所述重叠摄像机视图的表示中。
23.一种媒体容器文件,包括:
-至少一个媒体轨道,包括表示视频内容的多个摄像机视图的编码的视频数据;
-视图布置表示,相对于所述至少一个媒体轨道相关联地组织在所述媒体容器文件中,并指示所述多个摄像机视图的预定部署和位置关系;以及
-所述多个摄像机视图的视图标识符,包括在所述视图布置表示中。
CN200880131424.4A 2008-10-07 2008-12-15 一种用于产生媒体容器文件的方法及设备 Expired - Fee Related CN102177717B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US10339908P 2008-10-07 2008-10-07
US61/103,399 2008-10-07
PCT/SE2008/051460 WO2010041999A1 (en) 2008-10-07 2008-12-15 Media container file

Publications (2)

Publication Number Publication Date
CN102177717A true CN102177717A (zh) 2011-09-07
CN102177717B CN102177717B (zh) 2014-01-29

Family

ID=42100782

Family Applications (2)

Application Number Title Priority Date Filing Date
CN200880131456.4A Expired - Fee Related CN102177718B (zh) 2008-10-07 2008-12-15 一种用于产生多视图媒体数据的方法及设备
CN200880131424.4A Expired - Fee Related CN102177717B (zh) 2008-10-07 2008-12-15 一种用于产生媒体容器文件的方法及设备

Family Applications Before (1)

Application Number Title Priority Date Filing Date
CN200880131456.4A Expired - Fee Related CN102177718B (zh) 2008-10-07 2008-12-15 一种用于产生多视图媒体数据的方法及设备

Country Status (9)

Country Link
US (2) US20110182366A1 (zh)
EP (2) EP2332337A4 (zh)
JP (2) JP2012505569A (zh)
CN (2) CN102177718B (zh)
AU (2) AU2008362801A1 (zh)
CA (2) CA2767794A1 (zh)
ES (1) ES2515967T3 (zh)
RU (2) RU2508609C2 (zh)
WO (2) WO2010041999A1 (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108184136A (zh) * 2018-01-16 2018-06-19 北京三体云联科技有限公司 一种视频合流方法及装置
CN110324708A (zh) * 2019-07-16 2019-10-11 浙江大华技术股份有限公司 视频处理方法、终端设备及计算机存储介质
CN110870303A (zh) * 2017-07-13 2020-03-06 联发科技(新加坡)私人有限公司 呈现超出全方位媒体的vr媒体的方法和装置

Families Citing this family (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5689705A (en) * 1995-02-13 1997-11-18 Pulte Home Corporation System for facilitating home construction and sales
US9190110B2 (en) 2009-05-12 2015-11-17 JBF Interlude 2009 LTD System and method for assembling a recorded composition
US20110077990A1 (en) * 2009-09-25 2011-03-31 Phillip Anthony Storage Method and System for Collection and Management of Remote Observational Data for Businesses
US11232458B2 (en) 2010-02-17 2022-01-25 JBF Interlude 2009 LTD System and method for data mining within interactive multimedia
US9716920B2 (en) * 2010-08-05 2017-07-25 Qualcomm Incorporated Signaling attributes for network-streamed video data
US9065936B2 (en) * 2010-12-09 2015-06-23 Allot Communications Ltd. Cellular traffic monitoring and charging using application detection rules
BR112013017322A2 (pt) * 2011-11-11 2017-03-01 Sony Corp dispositivo e método de transmissão, e, método de recepção
US20130188922A1 (en) * 2012-01-23 2013-07-25 Research In Motion Limited Multimedia File Support for Media Capture Device Position and Location Timed Metadata
US20140032820A1 (en) * 2012-07-25 2014-01-30 Akinori Harasawa Data storage apparatus, memory control method and electronic device with data storage apparatus
US9444862B2 (en) * 2012-09-29 2016-09-13 Intel Corporation Dynamic media content output for mobile devices
CN105519130B (zh) * 2013-07-19 2019-03-08 索尼公司 信息处理装置和方法
CN105379256B (zh) * 2013-07-22 2019-11-12 索尼公司 信息处理装置和方法
EP3092796B1 (en) * 2014-01-07 2020-06-17 Canon Kabushiki Kaisha Method, device, and computer program for encoding inter-layer dependencies
KR20150083243A (ko) * 2014-01-09 2015-07-17 삼성전자주식회사 영상표시장치, 영상표시장치의 구동방법 및 영상표시방법
US9653115B2 (en) 2014-04-10 2017-05-16 JBF Interlude 2009 LTD Systems and methods for creating linear video from branched video
US9792957B2 (en) 2014-10-08 2017-10-17 JBF Interlude 2009 LTD Systems and methods for dynamic video bookmarking
US9922680B2 (en) * 2015-02-10 2018-03-20 Nokia Technologies Oy Method, an apparatus and a computer program product for processing image sequence tracks
US10460765B2 (en) * 2015-08-26 2019-10-29 JBF Interlude 2009 LTD Systems and methods for adaptive and responsive video
US11856271B2 (en) 2016-04-12 2023-12-26 JBF Interlude 2009 LTD Symbiotic interactive video
KR102170550B1 (ko) * 2016-05-24 2020-10-29 노키아 테크놀로지스 오와이 미디어 콘텐츠를 인코딩하는 방법, 장치 및 컴퓨터 프로그램
GB2553315A (en) * 2016-09-01 2018-03-07 Nokia Technologies Oy Determining inter-view prediction areas
US11050809B2 (en) 2016-12-30 2021-06-29 JBF Interlude 2009 LTD Systems and methods for dynamic weighting of branched video paths
KR102243666B1 (ko) * 2017-06-15 2021-04-23 엘지전자 주식회사 360도 비디오를 전송하는 방법, 360도 비디오를 수신하는 방법, 360도 비디오 전송 장치, 360도 비디오 수신 장치
US10679415B2 (en) * 2017-07-05 2020-06-09 Qualcomm Incorporated Enhanced signaling of regions of interest in container files and video bitstreams
CN109327699B (zh) * 2017-07-31 2021-07-16 华为技术有限公司 一种图像的处理方法、终端和服务器
US10257578B1 (en) 2018-01-05 2019-04-09 JBF Interlude 2009 LTD Dynamic library display for interactive videos
US11601721B2 (en) 2018-06-04 2023-03-07 JBF Interlude 2009 LTD Interactive video dynamic adaptation and user profiling
US20200296462A1 (en) 2019-03-11 2020-09-17 Wci One, Llc Media content presentation
US20200296316A1 (en) 2019-03-11 2020-09-17 Quibi Holdings, LLC Media content presentation
US11490047B2 (en) 2019-10-02 2022-11-01 JBF Interlude 2009 LTD Systems and methods for dynamically adjusting video aspect ratios
US11245961B2 (en) 2020-02-18 2022-02-08 JBF Interlude 2009 LTD System and methods for detecting anomalous activities for interactive videos
US11997336B2 (en) * 2021-05-14 2024-05-28 Qualcomm Incorporated Scheduling compressed video frame for in-vehicle wireless networks
US11882337B2 (en) 2021-05-28 2024-01-23 JBF Interlude 2009 LTD Automated platform for generating interactive videos
US11934477B2 (en) 2021-09-24 2024-03-19 JBF Interlude 2009 LTD Video player integration within websites
EP4297418A1 (en) * 2022-06-24 2023-12-27 Beijing Xiaomi Mobile Software Co., Ltd. Signaling encapsulated data representing primary video sequence and associated auxiliary video sequence

Family Cites Families (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7782363B2 (en) * 2000-06-27 2010-08-24 Front Row Technologies, Llc Providing multiple video perspectives of activities through a data network to a remote multimedia server for selective display by remote viewing audiences
KR100814426B1 (ko) * 2001-07-14 2008-03-18 삼성전자주식회사 다 채널 영상 중계 처리기 및 이를 적용한 다 채널 영상보안 시스템
US7679616B2 (en) * 2002-04-25 2010-03-16 Sharp Kabushiki Kaisha Image data generation apparatus for adding attribute information regarding image pickup conditions to image data, image data reproduction apparatus for reproducing image data according to added attribute information, and image data recording medium related thereto
KR100491724B1 (ko) * 2002-10-14 2005-05-27 한국전자통신연구원 공간영상의 효율적인 저장 및 검색을 지원하기 위한공간영상정보시스템 및 그 검색방법
JP4420897B2 (ja) * 2002-10-15 2010-02-24 サムスン エレクトロニクス カンパニー リミテッド マルチアングルを支援するデータ構造で記録された情報保存媒体及びその装置
US20040076042A1 (en) * 2002-10-16 2004-04-22 Sifang Wu High performance memory column group repair scheme with small area penalty
KR100636129B1 (ko) * 2002-12-16 2006-10-19 삼성전자주식회사 멀티 앵글을 지원하는 데이터 구조로 기록된 정보저장매체및 그 장치
US8832732B2 (en) * 2003-04-16 2014-09-09 Accenture Global Services Limited Controlled multi-media program review
US7778328B2 (en) * 2003-08-07 2010-08-17 Sony Corporation Semantics-based motion estimation for multi-view video coding
JP2007506385A (ja) * 2003-09-23 2007-03-15 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ ビデオコンテンツおよび隠蔽に依存した誤り保護およびスケジューリングアルゴリズムを提供するシステムおよび方法
JP4110105B2 (ja) * 2004-01-30 2008-07-02 キヤノン株式会社 文書処理装置及び文書処理方法及び文書処理プログラム
US7787013B2 (en) * 2004-02-03 2010-08-31 Panasonic Corporation Monitor system and camera
US20050193015A1 (en) * 2004-02-19 2005-09-01 Sandraic Logic, Llc A California Limited Liability Company Method and apparatus for organizing, sorting and navigating multimedia content
JP5035901B2 (ja) * 2004-04-22 2012-09-26 テクニカラー インコーポレイテツド ディジタル多用途ディスクのためのコンテキスト依存のマルチアングル・ナビゲーション技術
KR100679740B1 (ko) * 2004-06-25 2007-02-07 학교법인연세대학교 시점 선택이 가능한 다시점 동영상 부호화/복호화 방법
US7444664B2 (en) * 2004-07-27 2008-10-28 Microsoft Corp. Multi-view video format
JP4630149B2 (ja) * 2005-07-26 2011-02-09 シャープ株式会社 画像処理装置
US20070103558A1 (en) * 2005-11-04 2007-05-10 Microsoft Corporation Multi-view video delivery
US7817865B2 (en) * 2006-01-12 2010-10-19 Lg Electronics Inc. Processing multiview video
WO2007114612A1 (en) * 2006-03-30 2007-10-11 Lg Electronics Inc. A method and apparatus for decoding/encoding a video signal
US9641842B2 (en) * 2006-07-06 2017-05-02 Thomson Licensing Method and apparatus for decoupling frame number and/or picture order count (POC) for multi-view video encoding and decoding
KR101021831B1 (ko) * 2006-08-24 2011-03-17 노키아 코포레이션 미디어 파일에서 트랙 관계를 표시하는 시스템 및 방법
US8365060B2 (en) * 2006-08-24 2013-01-29 Nokia Corporation System and method for indicating track relationships in media files
EP2087741B1 (en) * 2006-10-16 2014-06-04 Nokia Corporation System and method for implementing efficient decoded buffer management in multi-view video coding
EP2087737A2 (en) * 2006-10-24 2009-08-12 Thomson Licensing Picture management for multi-view video coding
WO2008084443A1 (en) * 2007-01-09 2008-07-17 Nokia Corporation System and method for implementing improved decoded picture buffer management for scalable video coding and multiview video coding
CN100588250C (zh) * 2007-02-05 2010-02-03 北京大学 一种多视点视频流的自由视点视频重建方法及***
CN101242530B (zh) * 2007-02-08 2011-06-01 华为技术有限公司 运动估计方法、基于运动估计的多视编解码方法及装置
EP2135454A4 (en) * 2007-03-02 2010-09-01 Lg Electronics Inc METHOD AND DEVICE FOR DECODING / CODING A VIDEO SIGNAL
US8253797B1 (en) * 2007-03-05 2012-08-28 PureTech Systems Inc. Camera image georeferencing systems
US8494046B2 (en) * 2007-03-23 2013-07-23 Lg Electronics Inc. Method and an apparatus for decoding/encoding a video signal by performing illumination compensation
EP2149262A4 (en) * 2007-04-25 2010-09-01 Lg Electronics Inc METHOD AND DEVICE FOR DECODING / CODING A VIDEO SIGNAL
EP2143278B1 (en) * 2007-04-25 2017-03-22 Thomson Licensing Inter-view prediction with downsampled reference pictures
US8355019B2 (en) * 2007-11-02 2013-01-15 Dimension Technologies, Inc. 3D optical illusions from off-axis displays

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110870303A (zh) * 2017-07-13 2020-03-06 联发科技(新加坡)私人有限公司 呈现超出全方位媒体的vr媒体的方法和装置
CN110870303B (zh) * 2017-07-13 2021-10-08 联发科技(新加坡)私人有限公司 呈现超出全方位媒体的vr媒体的方法和装置
CN108184136A (zh) * 2018-01-16 2018-06-19 北京三体云联科技有限公司 一种视频合流方法及装置
CN108184136B (zh) * 2018-01-16 2020-06-02 北京三体云联科技有限公司 一种视频合流方法及装置
CN110324708A (zh) * 2019-07-16 2019-10-11 浙江大华技术股份有限公司 视频处理方法、终端设备及计算机存储介质

Also Published As

Publication number Publication date
CN102177717B (zh) 2014-01-29
US20110202575A1 (en) 2011-08-18
CN102177718A (zh) 2011-09-07
EP2332336A1 (en) 2011-06-15
RU2508609C2 (ru) 2014-02-27
WO2010041998A1 (en) 2010-04-15
ES2515967T3 (es) 2014-10-30
US20110182366A1 (en) 2011-07-28
CA2767794A1 (en) 2010-04-15
EP2332337A1 (en) 2011-06-15
JP2012505569A (ja) 2012-03-01
CN102177718B (zh) 2014-03-12
JP5298201B2 (ja) 2013-09-25
AU2008362821A1 (en) 2010-04-15
RU2011118384A (ru) 2012-12-10
RU2504917C2 (ru) 2014-01-20
EP2332337A4 (en) 2014-01-01
JP2012505570A (ja) 2012-03-01
RU2011118367A (ru) 2012-11-20
WO2010041999A1 (en) 2010-04-15
EP2332336A4 (en) 2014-01-01
EP2332336B1 (en) 2014-08-13
CA2739716A1 (en) 2010-04-15
AU2008362801A1 (en) 2010-04-15

Similar Documents

Publication Publication Date Title
CN102177717B (zh) 一种用于产生媒体容器文件的方法及设备
KR101533114B1 (ko) 입체영상 데이터를 수록한 기록매체 및 상기 입체영상 데이터를 기록하는 방법
CN109076255B (zh) 发送、接收360度视频的方法及设备
KR100813961B1 (ko) 영상 수신장치
KR101499252B1 (ko) 입체영상 데이터를 기록하는 방법 및 입체영상 데이터를수록한 컴퓨터로 읽을 수 있는 매체
CN111937397B (zh) 媒体数据处理方法及装置
WO2008054100A1 (en) Method and apparatus for decoding metadata used for playing stereoscopic contents
RU2767300C2 (ru) Высокоуровневая передача служебных сигналов для видеоданных типа "рыбий глаз"
KR20080112149A (ko) 스테레오스코픽 데이터의 저장 및 재생을 위한 메타데이터구조 및 이를 이용하는 스테레오스코픽 콘텐츠 파일의 저장방법
CN103039087A (zh) 发信号通知用于串流视频数据的随机存取点
WO2021117859A1 (ja) 画像処理装置および方法
KR20090037283A (ko) 스테레오스코픽 데이터의 저장 및 재생을 위한 메타데이터구조 및 이를 이용하는 스테레오스코픽 콘텐츠 파일의 저장방법
US20180159911A1 (en) Methods and systems for network based video clip processing and management
CN102984560A (zh) 从断点处播放视频的方法和设备
CN111726598B (zh) 图像处理方法和装置
CN111567057B (zh) 信息处理装置和方法
Niamut et al. Live event experiences-interactive UHDTV on mobile devices
Curcio et al. Multi-viewpoint and overlays in the MPEG OMAF standard
CN110198457A (zh) 视频播放方法及其设备、***、存储介质、终端、服务器
Deshpande et al. Omnidirectional MediA Format (OMAF): toolbox for virtual reality services
KR20200107948A (ko) 정보 처리 장치 및 방법
Niamut et al. Immersive live event experiences-interactive UHDTV on mobile devices
Sægrov Bagadus: next generation sport analysis and multimedia platform using camera array and sensor networks
Macq et al. Interim Specification of Generic Data Representation and Coding Scheme
CN118283277A (zh) 媒体数据处理方法及装置

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20140129

Termination date: 20181215