CN106463128A - 屏幕相关的音频对象重映射的设备和方法 - Google Patents
屏幕相关的音频对象重映射的设备和方法 Download PDFInfo
- Publication number
- CN106463128A CN106463128A CN201580026227.6A CN201580026227A CN106463128A CN 106463128 A CN106463128 A CN 106463128A CN 201580026227 A CN201580026227 A CN 201580026227A CN 106463128 A CN106463128 A CN 106463128A
- Authority
- CN
- China
- Prior art keywords
- screen
- metadata
- audio object
- value
- audio
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims description 54
- 238000013507 mapping Methods 0.000 claims description 80
- 238000009877 rendering Methods 0.000 claims description 18
- 238000004590 computer program Methods 0.000 claims description 15
- 230000006835 compression Effects 0.000 claims description 14
- 238000007906 compression Methods 0.000 claims description 14
- 230000005540 biological transmission Effects 0.000 claims description 11
- 238000006243 chemical reaction Methods 0.000 claims description 8
- 241001269238 Data Species 0.000 claims description 2
- 230000006870 function Effects 0.000 description 37
- 230000008569 process Effects 0.000 description 13
- 230000008859 change Effects 0.000 description 7
- 238000012545 processing Methods 0.000 description 6
- 230000005236 sound signal Effects 0.000 description 6
- 238000005516 engineering process Methods 0.000 description 5
- 238000004519 manufacturing process Methods 0.000 description 5
- 238000004422 calculation algorithm Methods 0.000 description 4
- 238000012544 monitoring process Methods 0.000 description 4
- 210000005069 ears Anatomy 0.000 description 3
- 230000011664 signaling Effects 0.000 description 3
- 238000011156 evaluation Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 210000003141 lower extremity Anatomy 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 241000283973 Oryctolagus cuniculus Species 0.000 description 1
- 230000006978 adaptation Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000005452 bending Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000006837 decompression Effects 0.000 description 1
- 235000013399 edible fruits Nutrition 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000005611 electricity Effects 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 230000000670 limiting effect Effects 0.000 description 1
- 238000012886 linear function Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000036961 partial effect Effects 0.000 description 1
- 238000002203 pretreatment Methods 0.000 description 1
- 230000002829 reductive effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000000153 supplemental effect Effects 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 230000036962 time dependent Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/04—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
- G10L19/16—Vocoder architecture
- G10L19/18—Vocoders using multiple modes
- G10L19/20—Vocoders using multiple modes using sound class specific coding, hybrid encoders or object based coding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S7/00—Indicating arrangements; Control arrangements, e.g. balance control
- H04S7/30—Control circuits for electronic adaptation of the sound field
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/008—Multichannel audio signal coding or decoding using interchannel correlation to reduce redundancy, e.g. joint-stereo, intensity-coding or matrixing
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/23—Processing of content or additional data; Elementary server operations; Server middleware
- H04N21/233—Processing of audio elementary streams
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/431—Generation of visual interfaces for content selection or interaction; Content or additional data rendering
- H04N21/4318—Generation of visual interfaces for content selection or interaction; Content or additional data rendering by altering the content in the rendering process, e.g. blanking, blurring or masking an image region
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/439—Processing of audio elementary streams
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/45—Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
- H04N21/4508—Management of client data or end-user data
- H04N21/4516—Management of client data or end-user data involving client characteristics, e.g. Set-Top-Box type, software version or amount of memory available
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/81—Monomedia components thereof
- H04N21/8106—Monomedia components thereof involving special audio data, e.g. different tracks for different languages
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/83—Generation or processing of protective or descriptive data associated with content; Content structuring
- H04N21/84—Generation or processing of descriptive data, e.g. content descriptors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S3/00—Systems employing more than two channels, e.g. quadraphonic
- H04S3/008—Systems employing more than two channels, e.g. quadraphonic in which the audio signals are in digital form, i.e. employing more than two discrete digital channels
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S7/00—Indicating arrangements; Control arrangements, e.g. balance control
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S7/00—Indicating arrangements; Control arrangements, e.g. balance control
- H04S7/30—Control circuits for electronic adaptation of the sound field
- H04S7/308—Electronic adaptation dependent on speaker or headphone connection
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/04—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
- G10L19/16—Vocoder architecture
- G10L19/167—Audio streaming, i.e. formatting and decoding of an encoded audio signal representation into a data stream for transmission or storage purposes
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R2499/00—Aspects covered by H04R or H04S not otherwise provided for in their subgroups
- H04R2499/10—General applications
- H04R2499/15—Transducers incorporated in visual displaying devices, e.g. televisions, computer displays, laptops
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S2400/00—Details of stereophonic systems covered by H04S but not provided for in its groups
- H04S2400/11—Positioning of individual sound objects, e.g. moving airplane, within a sound field
Landscapes
- Engineering & Computer Science (AREA)
- Signal Processing (AREA)
- Multimedia (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Mathematical Physics (AREA)
- Databases & Information Systems (AREA)
- Stereophonic System (AREA)
Abstract
提出了一种用于产生扬声器信号的设备。所述设备包括:对象元数据处理器(110)和对象渲染器(120)。所述对象渲染器(120)配置为接收音频对象。所述对象元数据处理器(110)配置为接收元数据,所述元数据包括关于所述音频对象是否是屏幕相关的指示,并且还包括所述音频对象的第一位置。所述对象元数据处理器(110)配置为如果所述元数据指示所述音频对象是屏幕相关的,则依赖于所述音频对象的第一位置并且依赖于屏幕的尺寸来计算所述音频对象的第二位置。所述对象渲染器(120)配置为依赖于所述音频对象并且依赖于位置信息来产生所述扬声器信号。所述对象元数据处理器(110)配置为如果所述元数据指示所述音频对象不是屏幕相关的,则将所述音频对象的第一位置作为所述位置信息馈送至所述对象渲染器(120)中。所述对象元数据处理器(110)配置为如果所述元数据指示所述音频对象是屏幕相关的,将所述音频对象的第二位置作为所述位置信息馈送至所述对象渲染器(120)。
Description
技术领域
本发明涉及音频信号处理,具体地涉及音频对象重映射的设备和方法,更具体地涉及屏幕相关音频对象重映射的设备和方法。
背景技术
随着日常生活中增加的多媒体内容消费,用于复杂多媒体解决方案的需求稳步增加。在这种场景下,将视觉内容与音频内容结合起到了重要的作用。视觉和音频多媒体内容对于可用的视觉和音频重放装置的的最优调节将是需要的。
在现有技术中,音频对象是已知的。例如,可以将音频对象看作是具有相关联的元数据的声轨。例如,所述元数据可以描述原始音频数据的特性,例如所需的播放费而至或者音量级别。基于对象的音频的优势在于可以按照对于所有的再现扬声器层面可能的最佳方式,通过播放侧上的特定渲染处理来再现预定的移动。
几何元数据可以用于限定应该在何处对音频对象进行渲染,例如方位角、仰角或者相对于基准点(例如,收听者)的绝对位置。将元数据与对象音频信号一起存储或传输。
在MPEG-H的场景中,在第105界MPEG会议时,音频组评论了不同应用标准的要求和时间表(MPEG=移动图片专家组)。根据所述评论,必要的是满足时间上的某些点和针对下一代广播***的具体要求。据此,***应该能够在编码器输入处接收音频对象。此外,***应该支持音频对象的信令传输、传送和渲染,并且应该使能用户控制对象,例如对话增强、交替语言跟踪和音频描述语言。
在现有技术中,提出了不同的概念。根据“高等级高保真音频信号的回放方法和设备(Method and apparatus for playback of a higher-order ambisonics audiosignal)”(参见参考文献1)中提出的第一现有技术,通过应用空间扭曲处理,使空间声音场为导向的音频重放适应所连接的视觉对象。在所述现有技术中,解码器对声音场进行扭曲,使得根据目标和基准屏幕的比率对所有声音对象沿屏幕的方向进行压缩或伸展。包括这样一种可能性:将内容和作为元数据在内容生产时使用的屏幕的基准尺寸(或者从基准收听位置的观看角度)进行编码和传输。替代地,假设固定的基准屏幕尺寸用于编码和解码,并且解码器知晓目标屏幕的实际尺寸。在这种现有技术中,解码器按照这样的方式对声音场进行翘曲,使得根据目标屏幕的尺寸与基准屏幕的尺寸的比率对所有声音对象沿屏幕的方向进行翘曲。使用所谓的“两段逐段线性”翘曲函数。伸展局限于声音项目的角向位置。在这种现有技术中,对于中心屏幕,翘曲函数的定义与用于屏幕相关重映射的映射函数的定义类似。可以将三段逐段线性映射函数的第一段和第三段定义为两段逐段线性函数。然而,利用这种现有技术,该申请局限于空间域中的HOA(HOA=高阶高保真)(声音场定向)的信号。此外,翘曲函数只依赖于基准屏幕和再现屏幕的比率,不提供针对非中心屏幕的定义。
在另一个现有技术中,“Vorrichtung und Verfahren zum Bestimmen einerWiedergabeposition”(参见参考文献2),描述了一种采用声音源的位置用于视频再现的方法。依赖于与基准点的方向和距离以及照相机的参数,针对每一个声音对象来单独地确定声音源的播放位置。所述现有技术还描述了假设具有固定基准尺寸的屏幕。(在笛卡尔坐标中)对所有位置参数的线性缩放进行研究,将所述场景适应于比基准屏幕更大或更小的再现屏幕。然而根据所述现有技术,物理照相机与投影参数的集成是复杂的,并且这些参数并非总是可用的。此外,所述技术的方法工作于笛卡尔坐标(x,y,z),因为不但所述位置而且对象的距离随着屏幕缩放而改变。另外,这种现有技术不可应用于在角向坐标中将对象的位置相对于相对屏幕尺寸的改变(空间孔径角、观看角度)而进行适配。
在另一个现有技术“Verfahren zur Audiocodierung”(参见参考文献3),描述了一种方法,所述方法包括在数据流中传输当前的(随时间变化的)水平和垂直观看角度(相对于原始场景中的收听者位置的基准观看角度)。在再现一侧,对再现的尺寸和位置进行分析,并且对声音对象的重放单独地进行优化以与基准屏幕相匹配。
在另一个现有技术“Acoustical Zooming Based on a parametric Sound FieldRepresentation”(参见参考文献4),描述了一种方法,所述方法提供跟随视觉场景的移动的音频渲染(听觉缩放)。将听觉缩放处理定义为虚拟记录位置的偏移。用于缩放算法的场景模型将所有的声音源放置于具有任意但是固定半径的圆上。然而,所述现有技术的方法工作于DirAC参数域,当改变距离和角度(到达方向)时,映射函数是非线性的并且依赖于缩放因子/参数,并且不支持非中心屏幕。
发明内容
本发明的目的是提供一种改进的概念,用于采用现有多媒体再现装置的音频和视觉多媒体内容集成。本发明的目的是通过根据权利要求1的设备、通过根据权利要求13的解码器装置、通过根据权利要求14的方法并且通过根据权利要求15的计算机程序来解决的。
提出了一种音频对象重映射的设备,所述设备包括对象元数据处理器和对象渲染器。所述对象渲染器配置为接收音频对象。所述对象元数据处理器配置为接收元数据,所述元数据包括关于所述音频对象是否是屏幕相关的指示,并且还包括所述音频对象的第一位置。此外,所述对象元数据处理器配置为如果所述元数据指示所述音频对象是屏幕相关的,则依赖于所述音频对象的第一位置并且依赖于屏幕的尺寸来计算所述音频对象的第二位置。所述对象渲染器配置为依赖于所述音频对象并且依赖于位置信息来产生所述扬声器信号。所述对象元数据处理器配置为如果在所述元数据中指示所述音频对象不是屏幕相关的,则将所述音频对象的第一位置作为所述位置信息馈送至所述对象渲染器。另外,所述对象元数据处理器配置为如果在所述元数据中指示所述音频对象是屏幕相关的,则将所述音频对象的第二位置作为所述位置信息馈送至所述对象渲染器。
根据实施例,所述对象元数据处理器可以例如配置为如果在所述元数据中指示所述音频对象不是屏幕相关的,则不计算所述音频对象的第二位置。
在实施例中,所述对象渲染器可以例如配置为不对所述位置信息是所述音频对象的第一位置还是所述音频对象的第二位置进行确定。
根据实施例,所述对象渲染器可以例如配置为进一步依赖于重放环境的扬声器的个数来产生扬声器信号。
在实施例中,所述对象渲染器可以例如配置为进一步依赖于所述重放环境的每一个扬声器的扬声器位置来产生扬声器信号。
根据实施例,所述对象元数据处理器配置为如果在所述元数据中指示所述音频对象是屏幕相关的,则依赖于所述音频对象的第一位置并且依赖于屏幕的尺寸来计算所述音频对象的第二位置,其中所述第一位置表示三维空间中的第一位置,并且其中所述第二位置表示三维空间中的第二位置。
在实施例中,所述对象元数据处理器可以例如配置为如果在所述元数据中指示所述音频对象是屏幕相关的,则依赖于所述音频对象的第一位置并且依赖于屏幕的尺寸来计算所述音频对象的第二位置,其中所述第一位置表示第一方位角、第一仰角和第一距离,并且其中所述第二位置表示第二方位角、第二仰角和第二距离。
根据实施例,所述对象元数据处理器可以例如配置为接收所述元数据,所述元数据包括表示所述音频对象是否是屏幕相关的指示作为第一指示,并且还包括第二指示,如果所述音频对象是屏幕相关的,所述第二指示表示所述音频对象是否是屏幕上对象。所述对象元数据处理器可以例如配置为依赖于所述音频对象的第一位置并且依赖于所述屏幕的尺寸来计算所述音频对象的第二位置,使得如果所述第二指示表示所述音频对象是屏幕上对象,则所述第二位置取所述屏幕的屏幕区域上的第一值。
在实施例中,所述对象元数据处理器可以例如配置为依赖于所述音频对象的第一位置并且依赖于所述屏幕的尺寸来计算所述音频对象的第二位置,使得如果所述第二指示表示所述音频对象不是屏幕上对象,所述第二位置取在屏幕区域上或者不在屏幕区域上的第二值。
根据实施例,所述对象元数据处理器可以例如配置为接收元数据,所述元数据包括所述音频对象是屏幕相关的指示作为第一指示,并且还包括第二指示,如果所述音频对象是屏幕相关的,则所述第二指示表示所述音频对象是否是屏幕上对象。所述对象元数据处理器可以例如配置为如果所述第二指示表示所述音频对象是屏幕上对象,则依赖于所述音频对象的第一位置、依赖于所述屏幕的尺寸并且依赖于第一映射曲线作为映射曲线来计算所述音频对象的第二位置,其中所述第一映射曲线限定了第一值区间中的原始对象位置与第二值区间中的重映射对象位置的映射。此外,所述对象元数据处理器可以例如配置为如果所述第二指示表示所述音频对象不是屏幕上对象,依赖于所述音频对象的第一位置、依赖于所述屏幕的尺寸并且依赖于第二映射曲线作为映射曲线来计算所述音频对象的第二位置,其中所述第二映射曲线限定了第一值区间中的原始对象位置与第三值区间中的重映射对象位置的映射,以及其中所述第二值区间小于所述第三值区间。
在实施例中,所述第一值区间、所述第二值区间和所述第三值区间的每一个可以例如是方位角的值区间,或者所述第一值区间、所述第二值区间和所述第三值区间的每一个可以例如是仰角的值区间。
根据实施例,所述对象元数据处理器可以例如配置为依赖于第一线性映射函数和第二线性映射函数的至少一个来计算所述音频对象的第二位置,其中所述第一线性映射函数限定为将第一方位角值映射至第二方位角值,其中所述第二线性映射函数限定为将第一仰角值映射至第二仰角值,其中指示左方位角屏幕边缘基准,其中指示右方位角屏幕边缘基准,其中指示顶部仰角屏幕边缘基准,其中指示底部仰角屏幕边缘基准,其中指示所述屏幕的左方位角屏幕边缘,其中指示所述屏幕的右方位角屏幕边缘,其中指示所述屏幕的顶部仰角屏幕边缘,其中指示所述屏幕的底部仰角屏幕边缘,其由指示所述第一方位角值,其中指示所述第二方位角值,其中θ指示所述第一仰角值,其中θ′指示所述第二仰角值,其中所述第二方位角值根据第一线性映射函数
由第一方位角的第一映射产生,以及
其中所述第二仰角值θ′根据第二线性映射函数
由第一仰角值θ的第二映射产生。
此外,提出了一种解码器装置。所述解码器装置包括USAC解码器,用于对比特流进行解码以获得一个或多个音频输入声道,以获得一个或多个输入音频对象,以获得压缩的对象元数据,并且以获得一个或多个SAOC传输声道。另外,所述解码器装置包括SAOC解码器,用于对一个或多个SAOC传输声道进行解码,以获得第一组一个或多个渲染的音频对象。此外,所述解码器装置包括根据上述实施例所述的设备。所述设备包括对象元数据解码器,是根据前述权利要求之一所述的设备的对象元数据处理器,并且实现为对压缩的对象元数据进行解码以获得未压缩的元数据,并且所述设备还包括根据上述实施例所述的设备的对象渲染器,用于依赖于未压缩的元数据对一个或多个输入音频数据进行渲染以获得第二组一个或多个渲染的音频对象。另外,所述解码器装置包括格式转换器,用于转换所述一个或多个音频输入声道以获得一个或多个转换的声道。此外,所述解码器装置包括混合器,用于将所述第一组一个或多个渲染的音频对象的一个或多个音频对象、所述第二组一个或多个渲染的音频对象的一个或多个音频对象以及所述一个或多个转换的声道进行混合,以获得一个或多个解码的音频声道。
另外,提出了一种产生扬声器信号的方法。所述方法包括:
-接收音频对象。
-接收元数据,所述元数据包括所述音频对象是屏幕相关的指示,且还包括所述音频对象的第一位置。
-如果在所述元数据中指示所述音频对象是屏幕相关的,依赖于所述音频对象的第一位置并且依赖于屏幕的尺寸来计算所述音频对象的第二位置。
-依赖于所述音频对象并且依赖于位置信息来产生所述扬声器信号。
如果在所述元数据中指示所述音频对象不是屏幕相关的,所述位置信息是所述音频对象的第一位置。如果在所述元数据中指示所述音频对象是屏幕相关的,所述位置信息是所述音频对象的第二位置。
此外,提出了一种计算机程序,其中所述计算机程序配置为当在计算机或信号处理器上执行时,用于实现如上所述的方法。
附图说明
在下文中,参考附图更详细地描述本发明的实施例,其中:
图1是根据实施例的产生扬声器信号的设备,
图2示出根据实施例的对象渲染器,
图3图示了根据实施例的对象元数据处理器,
图4示出了根据实施例的方位角重映射,
图5示出了根据实施例的仰角重映射,
图6示出了根据实施例的方位角重映射,
图7示出了根据其他实施例的仰角重映射,
图8示出了3D-音频编码器的总览图,
图9示出了根据实施例的3D-音频解码器的总览图,
图10示意了格式转换器的结构,
图11示出了根据实施例的基于对象的音频渲染,
图12示出了根据实施例的对象元数据预处理器,
图13示出了根据实施例的方位角重映射,
图14示出了根据实施例的仰角重映射,
图15示出了根据实施例的方位角重映射,
图16示出了根据其他实施例的仰角重映射,以及
图17示出了根据另外实施例的仰角重映射。
具体实施方式
图1示出了根据实施例的音频对象重映射的设备。所述设备包括对象元数据处理器110和对象渲染器120。
所述对象渲染器120配置为接收音频对象。
所述对象元数据处理器110配置为接收元数据,所述元数据包括关于所述音频对象是否是屏幕相关的指示,并且还包括所述音频对象的第一位置。此外,所述对象元数据处理器110配置为如果在所述元数据将所述音频对象表示为是屏幕相关的,则依赖于所述音频对象的第一位置并且依赖于屏幕的尺寸来计算所述音频对象的第二位置。
所述对象渲染器120配置为依赖于所述音频对象并且依赖于位置信息来产生所述扬声器信号。
所述对象元数据处理器110配置为如果在所述元数据中指示所述音频对象不是屏幕相关的,将所述音频对象的第一位置作为所述位置信息馈送至所述对象渲染器120中。
另外,所述对象元数据处理器110配置为如果在所述元数据中指示所述音频对象是屏幕相关的,将所述音频对象的第二位置作为所述位置信息馈送至所述对象渲染器120中。
根据实施例,所述对象元数据处理器110可以例如配置为如果在所述元数据中指示所述音频对象不是屏幕相关的,则不计算所述音频对象的第二位置。
在实施例中,所述对象渲染器120可以例如配置为不去确定所述位置信息是所述音频对象的第一位置还是所述音频对象的第二位置。
根据实施例,所述对象渲染器120可以例如配置为进一步依赖于重放环境的扬声器的个数来产生扬声器信号。
在实施例中,所述对象渲染器120可以例如配置为进一步依赖于所述重放环境的每一个扬声器的扬声器位置来产生扬声器信号。
根据实施例,所述对象元数据处理器110配置为如果在所述元数据中指示所述音频对象是屏幕相关的,依赖于所述音频对象的第一位置并且依赖于屏幕的尺寸来计算所述音频对象的第二位置,其中所述第一位置表示三维空间中的第一位置,并且其中所述第二位置表示三维空间中的第二位置。
在实施例中,所述对象元数据处理器110可以例如配置为如果在所述元数据中指示所述音频对象是屏幕相关的,依赖于所述音频对象的第一位置并且依赖于屏幕的尺寸来计算所述音频对象的第二位置,其中所述第一位置表示第一方位角、第一仰角和第一距离,并且其中所述第二位置表示第二方位角、第二仰角和第二距离。
根据实施例,所述对象元数据处理器110可以例如配置为接收所述元数据,包括表示所述音频对象是否是屏幕相关的指示作为第一指示,并且还包括第二指示,如果所述音频对象是屏幕相关的,所述第二指示表示所述音频对象是否是屏幕上对象。所述对象元数据处理器110可以例如配置为依赖于所述音频对象的第一位置并且依赖于所述屏幕的尺寸来计算所述音频对象的第二位置,使得如果所述第二指示表示所述音频对象是屏幕上对象,则所述第二位置取所述屏幕的屏幕区域上的第一值。
在实施例中,所述对象元数据处理器110可以例如配置为依赖于所述音频对象的第一位置并且依赖于所述屏幕的尺寸来计算所述音频对象的第二位置,使得如果所述第二指示表示所述音频对象不是屏幕上对象,所述第二位置取或者在屏幕区域上或者不在屏幕区域上的第二值。
根据实施例,所述对象元数据处理器110可以例如配置为接收元数据,所述元数据包括所述音频对象是屏幕相关的指示作为第一指示,并且还包括第二指示,如果所述音频对象是屏幕相关的,所述第二指示表示所述音频对象是否是屏幕上对象。所述对象元数据处理器110可以例如配置为如果所述第二指示表示所述音频对象是屏幕上对象,则依赖于所述音频对象的第一位置、依赖于所述屏幕的尺寸并且依赖于第一映射曲线作为映射曲线来计算所述音频对象的第二位置,其中所述第一映射曲线限定了第一值区间中的原始对象位置与第二值区间中的重映射对象位置的映射。此外,所述对象元数据处理器110可以例如配置为如果所述第二指示表示所述音频对象不是屏幕上对象,依赖于所述音频对象的第一位置、依赖于所述屏幕的尺寸并且依赖于第二映射曲线作为映射曲线来计算所述音频对象的第二位置,其中所述第二映射曲线限定了第一值区间中的原始对象位置与第三值区间中的重映射对象位置的映射,以及其中所述第二值区间小于所述第三值区间。
在实施例中,所述第一值区间、所述第二值区间和所述第三值区间的每一个可以例如是方位角的值区间,或者所述第一值区间、所述第二值区间和所述第三值区间的每一个可以例如是仰角的值区间。
在下文中,描述了本发明的具体实施例以及本发明的多个实施例的可选特征。
可以存在并非针对固定位置而是其位置应该随着再现装置中的屏幕尺寸而变化的音频对象(与3D空间中的位置相关联的音频信号,例如给定的方位角、仰角和距离)。
如果信令通知屏幕相关的对象(例如,通过元数据中的标志),根据具体的规则相对于屏幕尺寸来重映射/重新计算对象的位置。
图2示出根据实施例的对象渲染器。
作为介绍,注意以下内容:
按照基于对象的音频格式,与对象信号一起存储或传输元数据。使用所述元数据和与播放环境有关的信息在播放侧渲染所述音频对象。这种信息是例如扬声器的个数或屏幕的尺寸。
表1:示例元数据:
对于对象,几何元数据可以用于定义应该如何渲染它们,例如按照方位角或仰角或者相对于基准点(例如收听者)的绝对位置。渲染器基于几何数据和可用的扬声器及其位置来计算扬声器信号。
根据本发明的实施例按照以下方式从上文中显现出来。
为了控制屏幕相关的渲染,附加的元数据字段控制如何解释所述几何元数据:
如果将所述字段设置为OFF,则通过渲染器对几何元数据进行解释以计算扬声器信号。
如果将所述字段设置为ON,将所述几何元数据额定数据映射至其他值。基于几何元数据进行重映射,使得遵循对象元数据处理器的渲染器不知晓对象元数据的预处理并且操作不变。在下表中给出了这种元数据字段的示例。
表2:用于控制屏幕相关渲染的示例元数据及其含义:
此外,额定屏幕尺寸或者在音频内容的生产期间使用的屏幕尺寸可以作为元数据信息来发送。
|NominalScreenSize|在音频内容的生产期间使用的屏幕尺寸
下表展示了如何对这些元数据进行有效地编码的示例。
表3-根据实施例的0bjectMetadataConfig()的语义:
hasOnScreenObjects这一标志规定了是否存在屏幕相关的对象。
isScreenRelatedObject这一标志定义了对象位置是否是屏幕相关的(应该不同地渲染所述位置使得对它们的位置重映射,但是可以仍然包含所有有效的角度值)。
isOnScreenObject这一标志限定了相应的对象是“屏幕上的”。应该不同地渲染这一标志等于1的对象,使得它们的位置只取屏幕区域上的值。根据替代实施例,没有使用所述标志,但是限定了基准屏幕角度。如果isScreenRelativeObject=1,那么所有的角度都与这一基准角度相关。可能存在需要知晓所述音频对象是屏幕上的其他使用情况。
需要注意的是,相对于isScreenRelativeObject,根据实施例存在另种可能性:重映射位置、但是仍然取所有的值(屏幕相关的),以及进行映射使其只包含屏幕区域上(屏幕上)的值。
在对象元数据处理器中进行所述重映射,所述对象元数据处理器考虑局部屏幕尺寸并且执行几何元数据的映射。
图3示出了根据实施例的对象元数据处理器。
关于屏幕相关的几何元数据改进,描述一下内容。
依赖于信息isScreenRelativeObject和isOnScreenObject,对于信号屏幕相关音频元件存在两种可能性:
a)屏幕相关的音频元件
b)屏幕上的音频元件
在这两种情况下,通过对象元数据处理器重映射音频元件的位置数据。应用将位置的原始方位角和仰角映射到重映射的方位角和仰角的曲线。
基准是元数据中的额定屏幕尺寸或者假设的缺省屏幕尺寸。
例如,可以使用在ITU-R REC-BT.2022中定义的观看角度(针对平板显示器上的SDTV和HDTV电视图像的主观评估的普通观看条件)。
两种类型的屏幕相关之间的差异在于重映射曲线的定义。
在情况a)重映射的方位角可以取-180°和180°之间的值,并且重映射的仰角可以取-90°和90°之间的值。定义所述曲线,使得将缺省左边缘方位角和缺省右边缘方位角之间的方位角值映射(压缩或者扩大)至给定的屏幕左边缘和给定的屏幕右边缘之间的间隔(并且相应地用于仰角)。将其他方位角和仰角值相应地进行压缩或者扩大,使得覆盖整个范围的值。
图4示出了根据实施例的方位角重映射。
在情况b)重映射的方位角和仰角可以只取描述屏幕区域的位置的值(方位角(屏幕左边缘)、方位角(重映射)、方位角(屏幕右边缘)以及仰角(屏幕下边缘)、仰角(重映射)、仰角(屏幕上边缘))。
对于处理这些范围外部的值存在不同的可能性:可以将它们映射到屏幕的边缘,使得-180°方位角和屏幕左边缘之间的所有对象终止于屏幕左边缘,并且屏幕右边缘和180°方位角之间的所有对象终止于屏幕右边缘。另一种可能性是将后半球的值映射到前半球。在左半球上,将-180°+方位角(屏幕左边缘)和方位角(屏幕左边缘)之间的位置映射到屏幕左边缘。将-180°和-180°+方位角(屏幕左边缘)之间的值映射到0°和方位角(屏幕左边缘)之间的值。按照相同的方式处理右半球和仰角。
图5示出了根据实施例的仰角重映射。
可以将曲线的梯度改变的点-x和+x2(可能与+x1不同或者相同)设置为缺省值(缺省假设的标准屏幕尺寸+位置),或者它们可以存在于元数据中(例如由随后可以将生产屏幕尺寸放置于元数据中的生产者)。
还存在不包括线性部分而是弯曲的映射函数。
附加的元数据可以控制重映射的方式,例如限定偏移或者非线性系数以考虑听觉的摇摄行为或者分辨率。
同样,可以信令通知如何执行映射,例如通过将用于背面的所有对象“投影”到屏幕上。
在以下的附图中倾听到这种替代的映射方法。
这里,图6示出了根据实施例的方位角重映射。
图7示出了根据实施例的仰角重映射。
关于未知的屏幕尺寸行为:
如果没有给出再现屏幕尺寸,那么:
-假设缺省的屏幕尺寸,或者
-即使将对象标记为屏幕相关或者屏幕上,不施加映射。
回到图4,在另一个实施例中,在情况b),重映射的方位角和仰角可以只取描述屏幕区域上的(方位角(屏幕左边缘)≤方位角(重映射)≤方位角(屏幕右边缘)并且仰角(屏幕下边缘)≤仰角(重映射)≤仰角(屏幕上边缘))的位置。存在两种处理这些范围之外的值的可能性:在一些实施例中,可以将它们映射到屏幕的边缘,使得+180°方位角和屏幕左边缘之间的所有对象终止于屏幕左边缘,并且屏幕右边缘和-180°方位角之间的所有对象终止于屏幕右边缘。另一种可能性是将后半球的值映射到前半球。
在左半球上,将+180°-方位角(屏幕左边缘)和方位角(屏幕右边缘)之间的位置映射到屏幕左边缘。将+180°和+180°-方位角(屏幕左边缘)之间的值映射到0°和方位角(屏幕左边缘)之间的值。按照相同的方式处理右半球和仰角。
图16示出了与图5类似的图。在图16所示的实施例中,在两幅图中,示出了横轴上从-90°到+90°的值区间和纵轴上从-90°至+90°的值区间。
图17示出了与图7类似的图。在图17所示的实施例中,在两幅图中,示出了横轴上从-90°到+90°的值区间和纵轴上从-90°至+90°的值区间。
在下文中,将参考图8-图15描述本发明的另外实施例和另外实施例的可选特征。
根据一些实施例,如果比特流包含由OAM数据(OAM数据=相关联的对象元数据)补充的屏幕相关元件(对于至少一个音频元件,isScreenRelativeObjectflag==1)并且如果经由LocalScreenSize()接口将局部屏幕尺寸信号传送至解码器,例如可以只处理屏幕相关元件的重映射。
例如,几何位置数据(在通过用户相互作用进行的任意位置改变已经发生之前的OAM数据)可以通过映射函数的定义和利用映射到不同范围的值。例如,重映射可以改变几何位置数据作为渲染的预处理步骤,使得渲染器不知晓重映射并且操作不变。
例如,可以考虑(混合和监测过程中使用的)额定基准屏幕的屏幕尺寸和/或播放室中的局部屏幕尺寸信息用于重映射。
如果没有给出额定基准屏幕尺寸,可以使用缺省的基准值,例如假设4k显示器和最优的观看距离。
如果没有给出局部屏幕尺寸信息,那么例如不应该施加重映射。
例如,可以定义两种线性映射函数用于仰角和方位角值的重映射:
例如,额定屏幕尺寸的屏幕边缘可以由下式给出:
例如,再现屏幕边缘可以简化为:
例如,可以通过以下的线性映射函数来定义方位角和仰角位置数据的重映射:
图13示出了根据实施例的位置数据的重映射函数。具体地在图13中,描述了用于方位角映射的映射函数。在图13中,定义所述曲线,使得将额定基准左边缘方位角和额定基准右边缘方位角之间的方位角值映射(压缩或者扩大)至给定的局部屏幕左边缘和给定的局部屏幕右边缘之间的间隔。对其他方位角值相应地进行压缩或扩大,使得覆盖整个范围的值。
例如,重映射的方位角可以取-180°和180°之间的值,并且重映射的仰角可以取-90°和90°之间的值。
根据实施例,例如如果将isScreenRelativeObject标志设置为零,那么不会对相应的元件施加屏幕相关元件映射,并且通过渲染器直接使用几何位置数据(OAM数据加上用户相互作用引起的位置变化)以计算重放信号。
根据一些实施例,例如可以根据再现屏幕尺寸对所有屏幕相关元件的位置重映射作为对于再现室的适应。例如,如果没有给出再现屏幕尺寸信息或者不存在屏幕相关元件,不施加重映射。
例如,可以通过考虑重放室中的再现屏幕尺寸信息以及例如在混合和监测过程中使用的基准屏幕的屏幕尺寸信息来定义重映射。
在图13中描述了根据实施例的方位角映射函数。在所述图13中,示出了方位角的映射函数。如图13所示,例如可以对映射函数进行定义,使得将基准屏幕的左边缘和右边缘之间的方位角值映射(压缩或扩大)至再现屏幕的左边缘和右边缘之间的间隔。可以对其他方位角值压缩或扩大,使得覆盖整个范围的值。
可以相应地定义仰角映射函数(参见图14)。例如,屏幕相关处理也可以考虑放大为高分辨率视频内容的作坊区域。例如,可以只针对动态位置数据所伴随的并且标记为屏幕相关的元件来限定屏幕相关处理。
在下文中,提出了3D音频编解码器***的***概览。可以在这种3D音频编解码***中采用本发明的实施例。例如,3D音频编解码***可以基于用于对声道和对象信号进行编码的MPEG-D USAC编解码器。
根据实施例,为了增加对大量对象进行编码的效率,已经采用了MPEG SAOC技术(SAOC=空间音频对象编码)。例如根据一些实施例,三种类型的渲染器可以例如执行以下任务:渲染至声道的对象、渲染至耳机的声道或者渲染至不同扬声器装置的声道。
当使用SAOC对对象信号进行明确地传输或者参量编码时,将相应的对象元数据信息压缩并且复用至3D-音频比特流。
当使用SAOC显式地发送对象信号或对对象进行参数化编码时,将对应的对象元数据信息进行压缩且复用到3D-音频比特流中。
图8和图9示出了三维音频***的不同算法块。
图8和图9示出了3D-音频***的不同算法块。具体地,图8示出了3D-音频编码器的总览图。图9示出了根据实施例的3D-音频解码器的总览图。
现在描述图8和图8的模块的可能实施例。
在图8中,示出了预渲染器810(也称作混合器)。在图8的结构中,预渲染器810(混合器)是可选的。在编码之前,可以可选地将预渲染器810用于将声道加对象输入场景转换为声道场景。功能上地,编码器一侧上的预渲染器810可以例如与随后描述的解码器一侧上的对象渲染器/混合器920的功能相关。对象的预渲染例如在编码器输入上确保决定性的信号熵,该信号熵基本上独立于同时活跃的对象信号的数目。利用对象的预渲染,不再要求对象元数据的传输。将离散对象信号渲染至编码器配置用于使用的声道布局。从相关联的对象元数据(OAM)获取针对每一个声道的对象权重。
用于扬声器声道信号、离散对象信号、对象下混频信号以及预渲染信号的核心编解码基于MPEG-D USAC技术(USAC核心编码器)。通过基于对象指派以及输入声道的几何与语义信息来创建声道与对象映射信息,USAC编码器820(例如图8所示)对大量信号的编码进行处理。该映射信息描述如何将输入声道和对象映射到USAC声道元件(CPE、SCE、LFE)以及如何向解码器发送对应信息。
所有附加的有效载荷(如SAOC数据或对象元数据)已通过扩展元素且已在编码器速率控制中考虑。
取决于对于渲染器的速率/失真需求以及互动需求,对象的编码可以通过不同的方式进行。以下对象编码变型是可能的:
-预渲染对象:在编码前,将对象信号预渲染并混频为22.2声道信号。随后的编码链看到22.2声道信号。
-离散对象波形:将对象作为单声道波形供应至USAC编码器820。除了声道信号之外,SAC编码器820使用单个声道元件SCE来发送对象。在接收机侧对解码对象进行渲染和混合。将压缩的对象元数据信息一起发送至接收机/渲染器。
-参数化对象波形:通过SAOC参数的方式来描述对象属性及他们彼此间关系。通过USAC编码器820将对象信号与USAC下混频。将参数化信息一起发送。取决于对象的数目以及整体数据速率来选择下混频声道的数目。向SAOC渲染器发送压缩对象元数据信息。
在解码器一侧上,USAC解码器910进行USAC解码。
此外根据实施例,提出了一种解码器设备,参见图9。解码器设备包括USAC解码器910,用于对比特流进行解码以获得一个或多个音频输入声道,以获得一个或多个输入音频对象,以获得压缩的对象元数据并且获得一个或多个SAOC传输声道。
另外,所述解码器设备包括SAOC解码器915,用于对一个或多个SAOC传输声道进行解码以获得第一组一个或多个已渲染的音频对象。
此外,所述解码器设备包括上文参考图1至图7所述或者下面参考图11至图15所述的根据实施例的设备917。设备915包括对象元数据解码器918,例如图1的设备的对象元数据处理器110,并且实现用于对压缩的对象元数据进行解码以获得未压缩的元数据。
另外,如上所述根据实施例的设备917包括对象渲染器920,类似图1的设备的对象渲染器120,用于依赖于未压缩的元数据对一个或多个输入音频对象进行渲染以获得第二组一个或多个已渲染的音频对象。
另外,所述解码器设备包括格式转换器922,用于对一个或多个音频输入声道进行转换以获得一个或多个已转换的声道。
此外,所述解码器设备包括混合器930,用于将第一组的一个或多个已渲染的音频对象的一个或多个音频对象、第二组的一个或多个已渲染的音频对象的一个或多个音频对象以及一个或多个已转换的声道进行混合以获得一个或多个已解码的音频信道。
在图9中,示出了解码器设备的具体实施例。用于对象信号的SAOC编码器815(SAOC编码器815是可选的,参见图8)和SAOC解码器915(参见图9)是基于MPEG SAOC技术。***能够基于少量已发送声道和附加的参数数据(OLD,IOC,DMG)(OLD=对象级别差异,IOC=相互对象相关性,DMG=下混频增益)来重新创建、改进和渲染大量音频对象。附加的参数数据表现出比单独地的发送所有对象所要求的明显更低的数据率,使得编码非常有效。
SAOC编码器815采取单声道波形的对象/声道信号作为输入,并且输出参数信息(封装到3D-音频比特流中)和SAOC传输声道(使用单一声道元件进行编码并且发送)。
SAOC解码器915根据已解码的SAOC传输声道和参数信息来重构对象/声道信号,并且基于再现布局、解压缩的对象元数据信息以及可选地用户相互作用信息来产生输出音频场景。
对于对象元数据编解码器,针对每一个对象,通过按照时间和空间对对象性质的量化对规定了几何位置和对象在3D空间中的展开的相关联元数据进行有效地编码,例如通过图8的元数据编码器818。将压缩的对象元数据cOAM(cOAM=压缩的音频对象元数据)作为侧面信息发送至接收机。在接收机处,通过元数据解码器918对cOAM进行解码。
例如在图9中,元数据解码器918可以例如实现根据上述实施例之一的对象元数据处理器。
对象渲染器(例如图9的对象渲染器920)根据给定的再现格式,利用压缩的对象元数据来产生对象波形。根据对象的元数据将每一个对象渲染至某个输出声道。这种块的输出由部分结果之和来产生。
例如在图9中,对象渲染器920例如可以根据上述实施例之一来实现。
在图9中,元数据解码器918可以例如实现为参考图1至图7和图11至图15所述、根据上述或下述实施例之一所述的对象元数据处理器,并且对象渲染器920可以例如实现为参考图1至图7和图11至图15所述、根据上述或下述实施例之一所述的对象渲染器。元数据解码器918和对象渲染器920可以例如一起实现用于参考图1至图7和图11至图15所述的如上所述或者如下所述产生扬声器信号的设备917。
如果对基于声道的内容和离散/参数对象两者进行解码,在输出结果波形之前对基于声道的波形和已渲染的对象波形进行混合,例如通过图9的混合器930(或者像双耳渲染器或者扬声器渲染器模块那样,在将其馈送至后处理器模块之前)。
双耳渲染器模块940可以例如产生多声道音频材料的双耳下混频,使得通过虚拟声音源来表示每一个输入信道。进行所述处理是QMF域中的帧状的。例如,双耳化可以是基于测量的双耳室内脉冲响应。
扬声器渲染器922可以例如在发射声道结构和所需的再现格式之间转换。因此在下文中称作格式转换器922。格式转换器922执行至少量输出声道的转换,例如其创建下混频。***针对输入和输出格式的给定组合产生优化的下混频矩阵,并且将这些矩阵应用于下混频过程。格式转换器922允许标准的扬声器结构以及具有非标准扬声器位置的随机结构。
图10示出了格式转换器的结构。图10示出了下混频配置器1010和用于在QMF域(QMF域=积分镜像滤波器域)处理下混频的下混频处理器。
根据一些实施例,对象渲染器920可以配置为实现屏幕相关的音频对象重映射,如相对于已经参考图1至图7描述的上述多个实施例之一所描述的或者相对于如将参考图11至图15描述的多个下述实施例所描述的屏幕相关音频对象重映射。
在下文中,描述了本发明实施例的另外实施例和概念。
根据一些实施例,对用的用户控制可以例如采用描述性元数据,例如与比特流内部的对象存在和对象的高级别性质有关的信息,并且可以例如采用限制性元数据,例如与内容创建者如何进行或者使能相互作用有关的信息。
根据一些实施例,音频对象的信令通知、传输和渲染可以例如采用位置性元数据、结构性元数据,例如对象的分组和分层、渲染特定扬声器以及作为对象信令通知声道内容的能力、以及将对象场景适应屏幕尺寸的装置。
实施例提出:除了已经定义的3D空间中对象的几何位置和水平之外还开发的新元数据字段。
如果在不同的再现装置中再现了基于对象的音频场景,根据一些实施例,已渲染的声音源的位置可以例如自动地缩放至再现的尺寸。在展示音频-视觉内容的情况下,音频对象再现的标准渲染可以例如导致位置型的音频-视觉一致性的扰乱,因为声音源位置和声音的视觉发起者的位置可能例如不再是恒定的。
为了避免这种效果,例如可以采用一种可能情况来信令通知音频对象并非用于3D空间的固定位置,但是其位置应该随着再现装置中的屏幕尺寸而改变。根据一些实施例,这些音频对象的特殊处理以及针对场景缩放算法的定义可以例如允许更加逼真的体验,因为可以基于重放环境的局部特征来优化重放。
在一些实施例中,渲染器或预处理模块可以例如考虑再现房间中的局部屏幕尺寸,并且因此可以例如保持电影或游戏内容中的音频和视频之间的关系。在这些实施例中,然后例如可以根据再现装置自动地缩放音频场景,使得视觉元件的位置和相应的声音源的位置一致。例如,可以保持对于尺寸变换的屏幕的位置音频-视觉一致性。
例如根据实施例,然后可以与再现屏幕尺寸无关地从屏幕上扬声器的方向察觉对话或者演讲。然后,这可以用于固定源和其中声音轨迹和视觉元件的移动必须相对应的移动源。
为了控制屏幕相关渲染,引入附加的元数据字段,所述附加的元数据字段允许将对象标记为屏幕相关的。如果将对象标记为屏幕相关的,在渲染之前将对象的几何位置元数据重映射至其他值。例如,图13示出了针对方位角的示范性(重新)映射函数。
此外,一些实施例可以例如实现在角度域(方位角、仰角)工作来定义的简单映射函数。
此外,一些实施例可以例如实现不改变对象的距离、不会进行朝向屏幕或者远离屏幕的“缩放”或“视觉移动”,但是只是对象的位置进行缩放。
另外,当映射函数不但基于屏幕比而且考虑屏幕边缘的方位角和仰角时,一些实施例可以例如处理处理非中心再现屏幕(和/或)。
此外,一些实施例可以例如定义用于屏幕上对象的特定映射函数。根据一些实施例,用于方位角和仰角的映射函数可以例如是独立的,因此可以所述映射函数以只对方位角或仰角值进行重映射。
在下文中,提出了另外的实施例。
图11示出了根据实施例的基于对象的音频的渲染。例如,可以使用元数据和与重放环境有关的信息在重放侧对音频对象进行渲染。这些信息例如是扬声器的个数或屏幕的尺寸。渲染器1110可以例如基于几何数据和可用扬声器及其位置来计算扬声器信号。
现在,参考图12描述根据实施例的对象元数据(预)处理器1210。
在图12中,对象元数据处理器1210配置为进行重映射,所述重映射考虑局部屏幕尺寸并且执行几何元数据的映射。
通过对象元数据处理器1210对屏幕相关对象的位置数据进行重映射。例如,可以应用曲线,所述曲线将所述位置的原始方位角和仰角映射至重映射的方位角和重映射的仰角。
例如可以考虑在混合和监测过程中采用的额定基准屏幕的屏幕尺寸以及重放室中局部屏幕尺寸信息用于重映射。
可以例如在元数据中传输被称作再现屏幕尺寸的基准屏幕尺寸。
在一些实施例中,如果没有给出额定屏幕尺寸,例如可以假设缺省屏幕尺寸。
例如,可以使用在ITU-R REC-BT.2022(参见:用于屏幕显示器上的SDTV和HDTV电视图像质量的主观评估的通用观看条件)中定义的观看角度。
在一些实施例中,例如可以限定两个线性映射函数用于仰角和方位角值的重映射。
在下文中,将参考图13-图15来描述根据一些实施例的屏幕相关几何元数据改进。
重映射的方位角可以取-180°和180°之间的值,并且重映射的仰角可以取-90°和90°之间的值。映射曲线通常地定义,使得将缺省左边缘方位角和缺省右边缘方位角之间的方位角值映射(压缩或扩大)到给定的屏幕左边缘和给定的屏幕右边缘(相应地用于仰角)。相应地压缩或扩大其他方位角和仰角,使得覆盖整个范围的值。
如上文已经描述的,额定屏幕尺寸的屏幕边缘可以例如通过下式给出:
再现屏幕边缘可以例如通过下式来简化:
方位角和仰角位置数据的重映射可以例如通过以下的线性映射函数来定义:
在图13中描述了针对方位角的映射函数,以及在图14中描述了针对仰角的映射函数。
可以将曲线的梯度变化的点定义为缺省值(缺省的假设标准屏幕尺寸和缺省的假设标准屏幕位置),或者可以在元数据中出现所述点(例如,通过可以给出生产/监测屏幕尺寸的生产者)。
关于用于屏幕相关重映射的对象元数据的定义,为了控制屏幕相关的渲染,定义了称作“isScreenRelativeObject”的附加元数据标志。这种标志可以例如限定是否应该与局部再现屏幕尺寸相关地处理/渲染音频对象。
如果在音频场景中存在屏幕相关的元件,那么提供一种可能性来提供额定基准屏幕的屏幕尺寸信息,所述屏幕尺寸信息用于混合和监测(在音频内容的生产期间使用的屏幕尺寸)。
表4-根据实施例的OhjectMetadataConfig()的语义:
hasScreenRelativeObjects这一标志规定了是否存在屏幕相关的对象。
hasScreenSize这一标志规定了是否定义了额定屏幕尺寸。经由与平面边缘相对应的观看角度来进行这种定义。在hasScreenSize为零的情况下,缺省地使用以下的值:
bsScreenSizeAz这一字段定义了与屏幕左右边缘相对应的方位角:
bsScreenSizeTopE1这一字段定义了与顶部平面边缘相对应的仰角:
bsScreenSizeBottomEl这一字段定义了与屏幕底部边缘相对应的仰角:
isScreenRelativeObject这一标志定义了对象位置是屏幕相关的(应该不同地渲染所述位置,使得对它们的位置重映射,但是可以仍然包含所有有效的角度值)。
根据实施例,如果没有给出再现屏幕尺寸,或者假设缺省的再现屏幕尺寸和缺省的再现屏幕位置,或者即使将对象标记为屏幕相关的也不施加映射。
所述实施例的一些实现了可能的变体。
在一些实施例中,采用非线性映射函数。这些映射函数可能不包括线性部分,而代替地是曲线的。在一些实施例中,附加的元数据控制重映射的方式,例如限定偏移或非线性系数以考虑听觉的摇摄行为或者分辨率。
一些实施例实现了方位角和仰角的独立处理。可以将方位角和仰角独立地标记和处理为屏幕相关的。
表5:示出了根据这种实施例的ObjectMetadataConfig()的语义:
一些实施例采用屏幕上对象的定义。可以在屏幕相关的对象和屏幕上对象之间进行区分。然后一种可能的语义是表6的以下内容:
表6-根据实施例的0bjectMetadataConfig()的语义:
hasOnScreenObjects这一标志规定了是否存在屏幕相关的对象。
isScreenRelatedObject这一标志限定了对象位置是否是屏幕相关的(应该不同地渲染所述位置,使得重映射它们的位置,但是所述位置仍然包含所有的有效角度值)。
isOnScreenObject这一标志限定了相应的对象是否是“屏幕上的”。应该不同地渲染这一标志等于1的对象,使得它们的位置值可以取屏幕区域上的值。
对于屏幕上对象,重映射的方位角和仰角只可以取描述屏幕上的位置的值(并且)。
如通过一些实施例实现的,存在处理这些范围之外的值的不同可能性:可以将这些范围之外的值映射到屏幕的边缘。在左半球上,将180°
和之间的位置映射到屏幕左边缘按照相同的方式处理右半球和仰角(图15中的非虚线映射函数1510)。
由所述实施例的一些实现的另一种可能性是将后半球的值映射到前半球。将180°和之间的值映射到0°和之间的值。按照相同的方式处理右半球和仰角(图15总的虚线映射函数1520)。
图15示出了根据这些实施例的(屏幕上对象)方位角的重映射。
可以通过附加的元数据(例如,用于将后部[180°和]以及[-180°and-180°]所需的所有屏幕上对象“投影”到屏幕上)信道进行所需行为的选择。
虽然已经在装置的上下文中描述了一些方面,但是将清楚的是,这些方面还表示对相应方法的描述,其中框或设备对应于方法步骤或方法步骤的特征。类似地,在方法步骤的上下文中描述的方案也表示对相应块或项或者相应装置的特征的描述。
新颖的分解信号可以存储在数字存储介质上,或者可以在诸如无线传输介质或有线传输介质(例如,互联网)等的传输介质上传输。
取决于某些实现要求,可以在硬件中或在软件中实现本发明的实施例。可以使用其上存储有电子可读控制信号的数字存储介质(例如,软盘、DVD、CD、ROM、PROM、EPROM、EEPROM或闪存)来执行该实现,该电子可读控制信号与可编程计算机***协作(或者能够与之协作)从而执行相应方法。
根据本发明的一些实施例包括具有电子可读控制信号的非临时数据载体,该电子可读控制信号能够与可编程计算机***协作从而执行本文所述的方法之一。
通常,本发明的实施例可以实现为具有程序代码的计算机程序产品,程序代码可操作以在计算机程序产品在计算机上运行时执行方法之一。程序代码可以例如存储在机器可读载体上。
其他实施例包括存储在机器可读载体上的计算机程序,该计算机程序用于执行本文所述的方法之一。
换言之,本发明方法的实施例因此是具有程序代码的计算机程序,该程序代码用于在计算机程序在计算机上运行时执行本文所述的方法之一。
因此,本发明方法的另一实施例是其上记录有计算机程序的数据载体(或者数字存储介质或计算机可读介质),该计算机程序用于执行本文所述的方法之一。
因此,本发明方法的另一实施例是表示计算机程序的数据流或信号序列,所述计算机程序用于执行本文所述的方法之一。数据流或信号序列可以例如被配置为经由数据通信连接(例如,经由互联网)传递。
另一实施例包括处理装置,例如,计算机或可编程逻辑器件,所述处理装置被配置为或适于执行本文所述的方法之一。
另一实施例包括其上安装有计算机程序的计算机,该计算机程序用于执行本文所述的方法之一。
在一些实施例中,可编程逻辑器件(例如,现场可编程门阵列)可以用于执行本文所述的方法的功能中的一些或全部。在一些实施例中,现场可编程门阵列可以与微处理器协作以执行本文所述的方法之一。通常,方法优选地由任意硬件装置来执行。
上述实施例对于本发明的原理仅是说明性的。应当理解的是:本文所述的布置和细节的修改和变形对于本领域其他技术人员将是显而易见的。因此,旨在仅由所附专利权利要求的范围来限制而不是由借助对本文的实施例的描述和解释所给出的具体细节来限制。
文献
[1]“Method and apparatus for playback of a higher-order ambisonicsaudio signal”,专利申请号EP20120305271
[2]“Vorrichtung und Verfahren zum Bestimmen einer Wiedergabeposition“,专利申请号W02004073352A1
[3]“Verfahren zur Audiocodierung',专利申请号EP20020024643
[4]“Acoustical Zooming Based on a Parametric Sound FieldRepresentaLion”
http://www.aes.org/tmpFiles/elib/20140814/15417.pdf
Claims (15)
1.一种用于产生扬声器信号的设备,包括:
对象元数据处理器(110),以及
对象渲染器(120),
其中所述对象渲染器(120)配置为接收音频对象,
其中所述对象元数据处理器(110)配置为接收元数据,所述元数据包括与所述音频对象是否是屏幕相关的有关的指示,并且还包括所述音频对象的第一位置,
其中所述对象元数据处理器(110)配置为如果在所述元数据中指示所述音频对象是屏幕相关的,则依赖于所述音频对象的第一位置并且依赖于屏幕的尺寸来计算所述音频对象的第二位置,
其中所述对象渲染器(120)配置为依赖于所述音频对象并且依赖于位置信息来产生所述扬声器信号,
其中所述对象元数据处理器(110)配置为如果在所述元数据中指示所述音频对象不是屏幕相关的,则将所述音频对象的第一位置作为所述位置信息馈送至所述对象渲染器(120),以及
其中所述对象元数据处理器(110)配置为如果在所述元数据中指示所述音频对象是屏幕相关的,则将所述音频对象的第二位置作为所述位置信息馈送至所述对象渲染器(120)中。
2.根据权利要求1所述的设备,其中所述对象元数据处理器(110)配置为如果在所述元数据中指示所述音频对象不是屏幕相关的,则不计算所述音频对象的第二位置。
3.根据权利要求1或2所述的设备,其中所述对象渲染器(120)配置为不对所述位置信息是所述音频对象的第一位置还是所述音频对象的第二位置进行确定。
4.根据前述权利要求之一所述的设备,其中所述对象渲染器(120)配置为进一步依赖于重放环境的扬声器的个数来产生扬声器信号。
5.根据权利要求4所述的设备,其中所述对象渲染器(120)配置为进一步依赖于所述重放环境的每一个扬声器的扬声器位置来产生扬声器信号。
6.根据前述权利要求之一所述的设备,其中所述对象元数据处理器(110)配置为如果在所述元数据中指示所述音频对象是屏幕相关的,则依赖于所述音频对象的第一位置并且依赖于屏幕的尺寸来计算所述音频对象的第二位置,其中所述第一位置指示三维空间中的第一位置,并且其中所述第二位置指示三维空间中的第二位置。
7.根据权利要求6所述的设备,其中所述对象元数据处理器(110)配置为如果在所述元数据中指示所述音频对象是屏幕相关的,则依赖于所述音频对象的第一位置并且依赖于屏幕的尺寸来计算所述音频对象的第二位置,其中所述第一位置指示第一方位角、第一仰角和第一距离,并且其中所述第二位置指示第二方位角、第二仰角和第二距离。
8.根据前述权利要求之一所述的设备,
其中所述对象元数据处理器(110)配置为接收所述元数据,所述元数据包括表示所述音频对象是否是屏幕相关的指示作为第一指示,并且还包括第二指示,如果所述音频对象是屏幕相关的,则所述第二指示表示所述音频对象是否是屏幕上对象,以及
其中所述对象元数据处理器(110)配置为依赖于所述音频对象的第一位置并且依赖于所述屏幕的尺寸来计算所述音频对象的第二位置,使得如果所述第二指示表示所述音频对象是屏幕上对象,则所述第二位置取所述屏幕的屏幕区域上的第一值。
9.根据权利要求8所述的设备,其中所述对象元数据处理器(110)配置为依赖于所述音频对象的第一位置并且依赖于所述屏幕的尺寸来计算所述音频对象的第二位置,使得如果所述第二指示表示所述音频对象不是屏幕上对象,则所述第二位置取在屏幕区域上或者不在屏幕区域上的第二值。
10.根据权利要求1至7之一所述的设备,
其中所述对象元数据处理器(110)配置为接收元数据,所述元数据包括所述音频对象是屏幕相关的指示作为第一指示,并且还包括第二指示,如果所述音频对象是屏幕相关的,则所述第二指示表示所述音频对象是否是屏幕上对象,
其中所述对象元数据处理器(110)配置为如果所述第二指示表示所述音频对象是屏幕上对象,则依赖于所述音频对象的第一位置、依赖于所述屏幕的尺寸并且依赖于作为映射曲线的第一映射曲线来计算所述音频对象的第二位置,其中所述第一映射曲线限定了第一值区间中的原始对象位置与第二值区间中的重映射对象位置的映射,以及
其中所述对象元数据处理器(110)配置为如果所述第二指示表示所述音频对象不是屏幕上对象,则依赖于所述音频对象的第一位置、依赖于所述屏幕的尺寸并且依赖于第二映射曲线作为映射曲线来计算所述音频对象的第二位置,其中所述第二映射曲线限定了第一值区间中的原始对象位置与第三值区间中的重映射对象位置的映射,以及其中所述第二值区间小于所述第三值区间。
11.根据权利要求10所述的设备,
其中所述第一值区间、所述第二值区间和所述第三值区间的每一个是方位角的值区间,或者
其中所述第一值区间、所述第二值区间和所述第三值区间的每一个是仰角的值区间。
12.根据前述权利要求之一所述的设备,
其中所述对象元数据处理器(110)配置为依赖于第一线性映射函数和第二线性映射函数的至少一个来计算所述音频对象的第二位置,
其中所述第一线性映射函数被定义为将第一方位角值映射至第二方位角值,
其中所述第二线性映射函数被定义为将第一仰角值映射至第二仰角值,
其中指示左方位角屏幕边缘基准,
其中指示右方位角屏幕边缘基准,
其中指示顶部仰角屏幕边缘基准,
其中指示仰角屏幕边缘基准,
其中指示所述屏幕的左方位角屏幕边缘,
其中指示所述屏幕的右方位角屏幕边缘,
其中指示所述屏幕的顶部仰角屏幕边缘,
其中指示所述屏幕的底部仰角屏幕边缘,
其中指示所述第一方位角值,
其中指示所述第二方位角值,
其中θ指示所述第一仰角值,
其中θ′指示所述第二仰角值,
其中所述第二方位角值根据第一线性映射函数
由第一方位角的第一映射产生,以及
其中所述第二仰角值θ′根据第二线性映射函数
由第一仰角值θ的第二映射产生。
13.一种解码器装置,包括:
USAC解码器(910),用于对比特流进行解码以获得一个或多个音频输入声道,以获得一个或多个输入音频对象,从而获得压缩的对象元数据,并且获得一个或多个SAOC传输声道,
SAOC解码器(915),用于对一个或多个SAOC传输声道进行解码,以获得第一组一个或多个渲染的音频对象,
根据前述权利要求之一所述的设备(917),其中所述设备包括:
对象元数据解码器(918),是根据前述权利要求之一所述的设备的对象元数据处理器(110),并且实现为对压缩的对象元数据进行解码以获得未压缩的元数据,以及
根据前述权利要求之一所述的设备的对象渲染器(920;120),用于依赖于未压缩的元数据对一个或多个输入音频数据进行渲染以获得第二组一个或多个渲染的音频对象,
格式转换器(922),用于转换所述一个或多个音频输入声道以获得一个或多个转换的声道,以及
混合器(930),用于将所述第一组一个或多个渲染的音频对象的一个或多个音频对象、所述第二组一个或多个渲染的音频对象的一个或多个音频对象以及所述一个或多个转换的声道进行混合,以获得一个或多个解码的音频声道。
14.一种产生扬声器信号的方法,包括:
接收音频对象,
接收元数据,所述元数据包括所述音频对象是屏幕相关的指示,并且还包括所述音频对象的第一位置,
如果在所述元数据中指示所述音频对象是屏幕相关的,依赖于所述音频对象的第一位置并且依赖于屏幕的尺寸来计算所述音频对象的第二位置,
依赖于所述音频对象并且依赖于位置信息来产生所述扬声器信号,
其中如果在所述元数据中指示所述音频对象不是屏幕相关的,则所述位置信息是所述音频对象的第一位置,以及
如果所述元数据指示所述音频对象是屏幕相关的,则所述位置信息是所述音频对象的第二位置。
15.一种计算机程序,当在计算机或信号处理器上执行时,用于实现权利要求14所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010076120.5A CN111276153B (zh) | 2014-03-26 | 2015-03-25 | 屏幕相关的音频对象重映射的设备和方法 |
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP14161819.9 | 2014-03-26 | ||
EP14161819 | 2014-03-26 | ||
EP14196769.5A EP2928216A1 (en) | 2014-03-26 | 2014-12-08 | Apparatus and method for screen related audio object remapping |
EP14196769.5 | 2014-12-08 | ||
PCT/EP2015/056417 WO2015144766A1 (en) | 2014-03-26 | 2015-03-25 | Apparatus and method for screen related audio object remapping |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010076120.5A Division CN111276153B (zh) | 2014-03-26 | 2015-03-25 | 屏幕相关的音频对象重映射的设备和方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN106463128A true CN106463128A (zh) | 2017-02-22 |
CN106463128B CN106463128B (zh) | 2020-02-21 |
Family
ID=52015948
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201580026227.6A Active CN106463128B (zh) | 2014-03-26 | 2015-03-25 | 屏幕相关的音频对象重映射的设备和方法 |
CN202010076120.5A Active CN111276153B (zh) | 2014-03-26 | 2015-03-25 | 屏幕相关的音频对象重映射的设备和方法 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010076120.5A Active CN111276153B (zh) | 2014-03-26 | 2015-03-25 | 屏幕相关的音频对象重映射的设备和方法 |
Country Status (19)
Country | Link |
---|---|
US (4) | US10192563B2 (zh) |
EP (4) | EP2928216A1 (zh) |
JP (4) | JP6422995B2 (zh) |
KR (1) | KR101920356B1 (zh) |
CN (2) | CN106463128B (zh) |
AR (1) | AR099835A1 (zh) |
AU (1) | AU2015238354B2 (zh) |
BR (1) | BR112016022045B1 (zh) |
CA (1) | CA2943570C (zh) |
ES (2) | ES2953685T3 (zh) |
FI (1) | FI3487189T3 (zh) |
MX (1) | MX355455B (zh) |
MY (1) | MY184715A (zh) |
PL (2) | PL3487189T3 (zh) |
PT (2) | PT3123741T (zh) |
RU (1) | RU2683380C2 (zh) |
SG (1) | SG11201607953TA (zh) |
TW (1) | TWI595785B (zh) |
WO (1) | WO2015144766A1 (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109313904A (zh) * | 2016-05-30 | 2019-02-05 | 索尼公司 | 视频音频处理设备、视频音频处理方法和程序 |
CN110537373A (zh) * | 2017-04-25 | 2019-12-03 | 索尼公司 | 信号处理装置和方法以及程序 |
CN111801952A (zh) * | 2018-03-08 | 2020-10-20 | 索尼公司 | 信息处理装置、信息处理方法、信息处理***和程序 |
CN112154676A (zh) * | 2018-01-30 | 2020-12-29 | 弗劳恩霍夫应用研究促进协会 | 转换音频对象的对象位置的设备、音频流供应器、音频内容产生***、音频播放设备、方法及计算机程序 |
Families Citing this family (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2830051A3 (en) | 2013-07-22 | 2015-03-04 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Audio encoder, audio decoder, methods and computer program using jointly encoded residual signals |
EP2928216A1 (en) | 2014-03-26 | 2015-10-07 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Apparatus and method for screen related audio object remapping |
US9940937B2 (en) * | 2014-10-10 | 2018-04-10 | Qualcomm Incorporated | Screen related adaptation of HOA content |
CN115209186A (zh) | 2014-10-10 | 2022-10-18 | 索尼公司 | 再现装置和再现方法 |
CN106303897A (zh) * | 2015-06-01 | 2017-01-04 | 杜比实验室特许公司 | 处理基于对象的音频信号 |
CN113242448B (zh) | 2015-06-02 | 2023-07-14 | 索尼公司 | 发送装置和方法、媒体处理装置和方法以及接收装置 |
EP4207756A1 (en) | 2015-07-16 | 2023-07-05 | Sony Group Corporation | Information processing apparatus and method |
DE102015220595A1 (de) * | 2015-10-22 | 2017-04-27 | Robert Bosch Gmbh | Batteriezelle mit teilweise flexibel formbarer Wandung |
EP3378240B1 (en) | 2015-11-20 | 2019-12-11 | Dolby Laboratories Licensing Corporation | System and method for rendering an audio program |
US9854375B2 (en) * | 2015-12-01 | 2017-12-26 | Qualcomm Incorporated | Selection of coded next generation audio data for transport |
JP2019518373A (ja) * | 2016-05-06 | 2019-06-27 | ディーティーエス・インコーポレイテッドDTS,Inc. | 没入型オーディオ再生システム |
US10979844B2 (en) | 2017-03-08 | 2021-04-13 | Dts, Inc. | Distributed audio virtualization systems |
US10972859B2 (en) * | 2017-04-13 | 2021-04-06 | Sony Corporation | Signal processing apparatus and method as well as program |
WO2019013400A1 (ko) * | 2017-07-09 | 2019-01-17 | 엘지전자 주식회사 | 비디오 화면 줌에 연동되는 오디오 출력 방법 및 출력 장치 |
JP6988904B2 (ja) * | 2017-09-28 | 2022-01-05 | 株式会社ソシオネクスト | 音響信号処理装置および音響信号処理方法 |
JP7102024B2 (ja) | 2018-04-10 | 2022-07-19 | ガウディオ・ラボ・インコーポレイテッド | メタデータを利用するオーディオ信号処理装置 |
SG11202012259RA (en) | 2018-07-04 | 2021-01-28 | Sony Corp | Information processing device and method, and program |
GB2577698A (en) | 2018-10-02 | 2020-04-08 | Nokia Technologies Oy | Selection of quantisation schemes for spatial audio parameter encoding |
US20230171557A1 (en) * | 2020-03-16 | 2023-06-01 | Nokla Technologies Oy | Rendering encoded 6dof audio bitstream and late updates |
US11743670B2 (en) * | 2020-12-18 | 2023-08-29 | Qualcomm Incorporated | Correlation-based rendering with multiple distributed streams accounting for an occlusion for six degree of freedom applications |
GB202118094D0 (en) * | 2021-12-14 | 2022-01-26 | Nokia Technologies Oy | A method and apparatus for AR scene modification |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009278381A (ja) * | 2008-05-14 | 2009-11-26 | Nippon Hoso Kyokai <Nhk> | 音像定位音響メタ情報を付加した音響信号多重伝送システム、制作装置及び再生装置 |
CN102460571A (zh) * | 2009-06-10 | 2012-05-16 | 韩国电子通信研究院 | 多音频对象信号的编解码方法和装置及转码方法和转码器 |
US20120183162A1 (en) * | 2010-03-23 | 2012-07-19 | Dolby Laboratories Licensing Corporation | Techniques for Localized Perceptual Audio |
WO2013006338A2 (en) * | 2011-07-01 | 2013-01-10 | Dolby Laboratories Licensing Corporation | System and method for adaptive audio signal generation, coding and rendering |
EP2637427A1 (en) * | 2012-03-06 | 2013-09-11 | Thomson Licensing | Method and apparatus for playback of a higher-order ambisonics audio signal |
Family Cites Families (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20030007648A1 (en) * | 2001-04-27 | 2003-01-09 | Christopher Currell | Virtual audio system and techniques |
DE10154932B4 (de) | 2001-11-08 | 2008-01-03 | Grundig Multimedia B.V. | Verfahren zur Audiocodierung |
US7606372B2 (en) * | 2003-02-12 | 2009-10-20 | Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. | Device and method for determining a reproduction position |
DE10305820B4 (de) | 2003-02-12 | 2006-06-01 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Vorrichtung und Verfahren zum Bestimmen einer Wiedergabeposition |
US7548657B2 (en) * | 2005-06-25 | 2009-06-16 | General Electric Company | Adaptive video compression of graphical user interfaces using application metadata |
JP5258967B2 (ja) | 2008-07-15 | 2013-08-07 | エルジー エレクトロニクス インコーポレイティド | オーディオ信号の処理方法及び装置 |
KR101805212B1 (ko) * | 2009-08-14 | 2017-12-05 | 디티에스 엘엘씨 | 객체-지향 오디오 스트리밍 시스템 |
ES2644520T3 (es) * | 2009-09-29 | 2017-11-29 | Dolby International Ab | Decodificador de señal de audio MPEG-SAOC, método para proporcionar una representación de señal de mezcla ascendente usando decodificación MPEG-SAOC y programa informático usando un valor de parámetro de correlación inter-objeto común dependiente del tiempo/frecuencia |
EP2450880A1 (en) | 2010-11-05 | 2012-05-09 | Thomson Licensing | Data structure for Higher Order Ambisonics audio data |
KR101748760B1 (ko) * | 2011-03-18 | 2017-06-19 | 프라운호퍼 게젤샤프트 쭈르 푀르데룽 데어 안겐반텐 포르슝 에.베. | 오디오 콘텐츠를 표현하는 비트스트림의 프레임들 내의 프레임 요소 배치 |
CA3151342A1 (en) * | 2011-07-01 | 2013-01-10 | Dolby Laboratories Licensing Corporation | System and tools for enhanced 3d audio authoring and rendering |
EP2637327A1 (en) * | 2012-03-09 | 2013-09-11 | Harman International Industries Ltd. | Audio mixing console with lighting control and method of mixing by means of a mixing console |
US9190065B2 (en) * | 2012-07-15 | 2015-11-17 | Qualcomm Incorporated | Systems, methods, apparatus, and computer-readable media for three-dimensional audio coding using basis function coefficients |
US9516446B2 (en) * | 2012-07-20 | 2016-12-06 | Qualcomm Incorporated | Scalable downmix design for object-based surround codec with cluster analysis by synthesis |
WO2014032709A1 (en) * | 2012-08-29 | 2014-03-06 | Huawei Technologies Co., Ltd. | Audio rendering system |
EP2928216A1 (en) * | 2014-03-26 | 2015-10-07 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Apparatus and method for screen related audio object remapping |
-
2014
- 2014-12-08 EP EP14196769.5A patent/EP2928216A1/en not_active Withdrawn
-
2015
- 2015-03-16 TW TW104108296A patent/TWI595785B/zh active
- 2015-03-25 JP JP2016559292A patent/JP6422995B2/ja active Active
- 2015-03-25 WO PCT/EP2015/056417 patent/WO2015144766A1/en active Application Filing
- 2015-03-25 EP EP23167354.2A patent/EP4254988A3/en active Pending
- 2015-03-25 KR KR1020167029805A patent/KR101920356B1/ko active IP Right Grant
- 2015-03-25 MY MYPI2016001725A patent/MY184715A/en unknown
- 2015-03-25 AR ARP150100877A patent/AR099835A1/es active IP Right Grant
- 2015-03-25 MX MX2016012286A patent/MX355455B/es active IP Right Grant
- 2015-03-25 CN CN201580026227.6A patent/CN106463128B/zh active Active
- 2015-03-25 FI FIEP18248305.7T patent/FI3487189T3/fi active
- 2015-03-25 CA CA2943570A patent/CA2943570C/en active Active
- 2015-03-25 AU AU2015238354A patent/AU2015238354B2/en active Active
- 2015-03-25 RU RU2016141642A patent/RU2683380C2/ru active
- 2015-03-25 ES ES18248305T patent/ES2953685T3/es active Active
- 2015-03-25 EP EP15716439.3A patent/EP3123741B1/en active Active
- 2015-03-25 PT PT15716439T patent/PT3123741T/pt unknown
- 2015-03-25 BR BR112016022045-5A patent/BR112016022045B1/pt active IP Right Grant
- 2015-03-25 SG SG11201607953TA patent/SG11201607953TA/en unknown
- 2015-03-25 PL PL18248305.7T patent/PL3487189T3/pl unknown
- 2015-03-25 PL PL15716439T patent/PL3123741T3/pl unknown
- 2015-03-25 CN CN202010076120.5A patent/CN111276153B/zh active Active
- 2015-03-25 ES ES15716439T patent/ES2723965T3/es active Active
- 2015-03-25 EP EP18248305.7A patent/EP3487189B1/en active Active
- 2015-03-25 PT PT182483057T patent/PT3487189T/pt unknown
-
2016
- 2016-09-23 US US15/274,310 patent/US10192563B2/en active Active
-
2018
- 2018-10-16 JP JP2018194721A patent/JP6734343B2/ja active Active
- 2018-12-28 US US16/236,079 patent/US10854213B2/en active Active
-
2020
- 2020-07-09 JP JP2020118271A patent/JP2020182227A/ja active Pending
- 2020-11-17 US US16/950,768 patent/US11527254B2/en active Active
-
2022
- 2022-11-18 US US18/057,188 patent/US11900955B2/en active Active
-
2023
- 2023-10-06 JP JP2023174101A patent/JP2023175947A/ja active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009278381A (ja) * | 2008-05-14 | 2009-11-26 | Nippon Hoso Kyokai <Nhk> | 音像定位音響メタ情報を付加した音響信号多重伝送システム、制作装置及び再生装置 |
CN102460571A (zh) * | 2009-06-10 | 2012-05-16 | 韩国电子通信研究院 | 多音频对象信号的编解码方法和装置及转码方法和转码器 |
US20120183162A1 (en) * | 2010-03-23 | 2012-07-19 | Dolby Laboratories Licensing Corporation | Techniques for Localized Perceptual Audio |
WO2013006338A2 (en) * | 2011-07-01 | 2013-01-10 | Dolby Laboratories Licensing Corporation | System and method for adaptive audio signal generation, coding and rendering |
EP2637427A1 (en) * | 2012-03-06 | 2013-09-11 | Thomson Licensing | Method and apparatus for playback of a higher-order ambisonics audio signal |
US20130236039A1 (en) * | 2012-03-06 | 2013-09-12 | Thomson Licensing | Method and apparatus for playback of a higher-order ambisonics audio signal |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109313904A (zh) * | 2016-05-30 | 2019-02-05 | 索尼公司 | 视频音频处理设备、视频音频处理方法和程序 |
CN109313904B (zh) * | 2016-05-30 | 2023-12-08 | 索尼公司 | 视频音频处理设备和方法以及存储介质 |
US11902704B2 (en) | 2016-05-30 | 2024-02-13 | Sony Corporation | Apparatus and method for video-audio processing, and program for separating an object sound corresponding to a selected video object |
CN110537373A (zh) * | 2017-04-25 | 2019-12-03 | 索尼公司 | 信号处理装置和方法以及程序 |
CN110537373B (zh) * | 2017-04-25 | 2021-09-28 | 索尼公司 | 信号处理装置和方法以及存储介质 |
CN112154676A (zh) * | 2018-01-30 | 2020-12-29 | 弗劳恩霍夫应用研究促进协会 | 转换音频对象的对象位置的设备、音频流供应器、音频内容产生***、音频播放设备、方法及计算机程序 |
US11653162B2 (en) | 2018-01-30 | 2023-05-16 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Apparatuses for converting an object position of an audio object, audio stream provider, audio content production system, audio playback apparatus, methods and computer programs |
CN111801952A (zh) * | 2018-03-08 | 2020-10-20 | 索尼公司 | 信息处理装置、信息处理方法、信息处理***和程序 |
Also Published As
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106463128A (zh) | 屏幕相关的音频对象重映射的设备和方法 | |
US12010502B2 (en) | Apparatus and method for audio rendering employing a geometric distance definition | |
Herre et al. | MPEG-H audio—the new standard for universal spatial/3D audio coding | |
CN109314833B (zh) | 音频处理装置和音频处理方法以及程序 | |
Shivappa et al. | Efficient, compelling, and immersive vr audio experience using scene based audio/higher order ambisonics | |
KR20240052967A (ko) | 객체-기반 공간 오디오 마스터링 디바이스 및 방법 | |
WO2021091769A1 (en) | Signalling of audio effect metadata in a bitstream |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |