KR101040086B1 - 오디오 생성방법, 오디오 생성장치, 오디오 재생방법 및 오디오 재생장치 - Google Patents

오디오 생성방법, 오디오 생성장치, 오디오 재생방법 및 오디오 재생장치 Download PDF

Info

Publication number
KR101040086B1
KR101040086B1 KR1020090044162A KR20090044162A KR101040086B1 KR 101040086 B1 KR101040086 B1 KR 101040086B1 KR 1020090044162 A KR1020090044162 A KR 1020090044162A KR 20090044162 A KR20090044162 A KR 20090044162A KR 101040086 B1 KR101040086 B1 KR 101040086B1
Authority
KR
South Korea
Prior art keywords
audio
effect
objects
information
description information
Prior art date
Application number
KR1020090044162A
Other languages
English (en)
Other versions
KR20100125118A (ko
Inventor
조충상
김제우
최병호
김홍국
이영한
Original Assignee
전자부품연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 전자부품연구원 filed Critical 전자부품연구원
Priority to KR1020090044162A priority Critical patent/KR101040086B1/ko
Priority to US12/760,154 priority patent/US20100298960A1/en
Publication of KR20100125118A publication Critical patent/KR20100125118A/ko
Application granted granted Critical
Publication of KR101040086B1 publication Critical patent/KR101040086B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S1/00Two-channel systems
    • H04S1/007Two-channel systems in which the audio signals are in digital form
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B20/00Signal processing not specific to the method of recording or reproducing; Circuits therefor
    • G11B20/10Digital recording or reproducing

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing For Digital Recording And Reproducing (AREA)
  • Stereophonic System (AREA)

Abstract

오디오 생성방법, 오디오 재생장치, 오디오 재생방법 및 오디오 재생장치가 제공된다. 본 오디오 생성방법은, 오디오 객체들 모두에 일괄적으로 적용될 오디오 효과가 수록된 장면 효과가 적어도 하나 이상 포함된 묘사 정보를 생성하는 단계 및 묘사 정보와 오디오 객체들을 통합하여, 오디오 비트스트림을 생성하는 단계를 포함한다.
오디오 객체, 장면 효과, 묘사 정보, 재생 구간

Description

오디오 생성방법, 오디오 생성장치, 오디오 재생방법 및 오디오 재생장치{Method and apparatus for generating audio and method and apparatus for reproducing audio}
본 발명은 오디오 처리에 관한 것으로, 더욱 상세하게는 오디오 생성방법, 오디오 생성장치, 오디오 재생방법 및 오디오 재생장치에 관한 것이다.
일반적으로 라디오 및 MP3, CD 등을 통해 제공되는 오디오 서비스는 음원에 따라 2개에서 수십 개에 이르는 음원으로부터 획득된 신호를 합성하여 모노 및 스테레오, 5.1 채널 신호 등으로 저장 및 재생한다.
이러한 서비스에서 사용자가 주어진 음원과 상호작용(interaction)을 가질 수 있는 것은 음량의 조절 및 이퀄라이저(equalizer)를 통한 대역 증폭 및 감쇄이며, 주어진 음원에 대해 특정 객체에 대한 조절 및 효과를 줄 수 없다.
이러한 단점을 극복하기 위해 오디오 컨텐츠를 제작할 때, 각 음원에 해당하는 신호를 서비스 제공자가 합성하지 않고, 합성에 필요한 객체들과 각 객체에 필요한 효과 및 음량 등에 해당하는 정보를 저장하여 사용자가 합성할 수 있는 서비스를 객체기반의 오디오 서비스라 한다.
이러한 객체기반 오디오 서비스는 각 객체에 대한 압축 정보와 각 객체를 합성하는데 필요한 장면 묘사 정보(Scene Description Information)로 구성된다. 각 객체에 대한 압축 정보는 MP3 (MPEG-1 layer 3), AAC (Advanced Audio Coding), ALS (MPEG-4 Audio Lossless Coding) 등의 오디오 코덱이 사용될 수 있고, 장면 효과 정보로는 MPEG-4 BIFs (Binary Format for Scenes), MPEG-4 LASeR (Lightweight Application Scene Representation) 등이 사용될 수 있다.
BIFs는 2차원 내지 3차원의 음성/영상 콘텐츠의 합성, 저장, 재생을 위한 바이너리 형식을 규정한 것으로써 BIFs를 통해 프로그램과 콘텐츠 데이터베이스가 원활하게 연동될 수 있게 된다. 예를 들어 BIFs는 한 장면에서 어떤 자막을 삽입할 지, 그림을 어떤 형태로 포함할지, 몇 초 간격으로 얼마동안 그림 등이 나올지를 기술한다. 또한 특정 장면에 대하여 상호작용을 위한 이벤트의 정의 및 이벤트 처리를 통해 사용자가 BIFs를 통하여 랜더링되는 객체와 상호작용을 할 수 있다. 오디오를 위해서는 음원 정위 효과 및 잔향 효과 등이 정의되어 있다.
LASeR는 모바일 환경에 적합한 리치미디어 콘텐츠 규격으로써 MPEG-4 part 20에 정의되어 있다. LASeR는 리소스 제약이 있는 모바일 단말 등에도 활용될 수 있도록 초경량화를 지향하였고, 그래픽 애니메이션을 표현하기 위해 모바일 환경에서 널리 사용되고 있는 W3C의 SVG와 호환이 가능하다. 따라서 LASeR 규격에는 장면 구성을 위한 LASeR ML (markup language)과 효율적인 전송을 위한 이진화 규격, 동기화 및 각종 미디어 디코딩 정보의 전송을 위한 SAF (simple aggregation format) 포맷이 포함되어 있다.
BIFs와 LASeR의 문제점은 다음과 같다. BIFs는 3차원 오디오 효과를 위해 정의된 기능이 음상 정위 및 잔향 효과로 제약되어 있으며, 높은 연산량을 요구하기 때문에 휴대기기에 구현하기 어렵다는 단점이 있다. 반면, LASeR는 계산량이 낮고, 이진화 규격으로 부호화되어 있기 때문에 휴대기기에 적합하지만, 오디오 처리를 위해 정의된 기능이 없기 때문에 3차원 효과 및 다양한 합성 효과를 제공할 수 없다. 따라서 다양한 플랫폼에 적용되면서 사용자의 요구를 적극적으로 반영하고, 최근의 고품질 및 3D 오디오 효과를 효율적으로 제공할 수 있는 장면 묘사 방법에 대한 개발이 필요하다.
본 발명은 상기와 같은 문제점을 해결하기 위하여 안출된 것으로서, 본 발명의 목적은, 오디오 객체들 모두에 일괄적으로 적용될 오디오 효과가 수록된 장면 효과가 적어도 하나 이상 포함된 묘사 정보를 이용하여, 오디오를 생성하고 재생하는 방법 및 장치를 제공함에 있다.
본 발명의 다른 목적은, 오디오 객체들 각각에 대한 재생 구간들에 대한 정보가 각각 수록된 객체 묘사들이 포함된 묘사 정보를 이용하여, 오디오를 생성하고 재생하는 방법 및 장치를 제공함에 있다.
상기 목적을 달성하기 위한 본 발명에 따른, 오디오 생성방법은, 오디오 객체들 모두에 일괄적으로 적용될 오디오 효과가 수록된 장면 효과가 적어도 하나 이 상 포함된 묘사 정보를 생성하는 단계; 및 상기 묘사 정보와 상기 오디오 객체들을 통합하여, 오디오 비트스트림을 생성하는 단계;를 포함한다.
상기 장면 효과는, 상기 일괄적으로 적용될 오디오 효과의 적용 시작시간, 상기 일괄적으로 적용될 오디오 효과의 적용 종료시간 및 상기 일괄적으로 적용될 오디오 효과를 나타내는 정보를 포함할 수 있다.
상기 묘사 정보는, 상기 오디오 객체들에 개별적으로 적용될 오디오 효과들이 각각 수록된 객체 묘사들을 더 포함할 수 있다.
상기 객체 묘사는, 상기 개별적으로 적용될 오디오 효과의 적용 시작시간, 상기 개별적으로 적용될 오디오 효과의 적용 종료시간 및 상기 개별적으로 적용될 오디오 효과를 나타내는 정보를 포함할 수 있다.
상기 묘사 정보는, 상기 오디오 객체들 각각에 대한 재생 구간들에 대한 정보가 각각 수록된 객체 묘사들을 더 포함할 수 있다.
재생 구간은, 오디오 객체에 대한 첫 번째 재생 구간, 상기 첫 번째 재생 구간과 이격된 두 번째 재생 시작 구간을 포함하여, 상기 오디오 객체가 시간적으로 분할되어 재생되도록 정의될 수 있다.
상기 첫 번째 재생 구간과 상기 두 번째 재생 구간 사이에서, 상기 오디오 객체는 재생되지 않도록 정의될 수 있다.
상기 적어도 하나의 오디오 효과는, 오디오 편집자에 의해 결정될 수 있다.
상기 묘사 정보에는, 다른 묘사 정보와 구별하기 위한 ID가 수록될 수 있다.
한편, 본 발명에 따른, 오디오 생성장치는, 오디오 객체들 모두에 일괄적으 로 적용될 오디오 효과가 수록된 장면 효과가 적어도 하나 이상 포함된 묘사 정보를 생성하는 인코더; 및 상기 묘사 정보와 상기 오디오 객체들을 통합하여, 오디오 비트스트림을 생성하는 패킷화부;를 포함한다.
상기 장면 효과는, 상기 일괄적으로 적용될 오디오 효과의 적용 시작시간, 상기 일괄적으로 적용될 오디오 효과의 적용 종료시간 및 상기 일괄적으로 적용될 오디오 효과를 나타내는 정보를 포함할 수 있다.
상기 묘사 정보는, 상기 오디오 객체들에 개별적으로 적용될 오디오 효과들이 각각 수록된 객체 묘사들을 더 포함할 수 있다.
상기 객체 묘사는, 상기 개별적으로 적용될 오디오 효과의 적용 시작시간, 상기 개별적으로 적용될 오디오 효과의 적용 종료시간 및 상기 개별적으로 적용될 오디오 효과를 나타내는 정보를 포함할 수 있다.
상기 묘사 정보는, 상기 오디오 객체들 각각에 대한 재생 구간들에 대한 정보가 각각 수록된 객체 묘사들을 더 포함할 수 있다.
재생 구간은, 오디오 객체에 대한 첫 번째 재생 구간, 상기 첫 번째 재생 구간과 이격된 두 번째 재생 시작 구간을 포함하여, 상기 오디오 객체가 시간적으로 분할되어 재생되도록 정의될 수 있다.
상기 첫 번째 재생 구간과 상기 두 번째 재생 구간 사이에서, 상기 오디오 객체는 재생되지 않도록 정의될 수 있다.
상기 적어도 하나의 오디오 효과는, 오디오 편집자에 의해 결정할 수 있다.
상기 묘사 정보에는, 다른 묘사 정보와 구별하기 위한 ID가 수록될 수 있다.
한편, 본 발명에 따른, 오디오 재생방법은, 오디오 비트스트림에 포함되어 있는 묘사 정보와 오디오 객체들을 분리하는 단계; 상기 오디오 객체들을 압축해제하는 단계; 및 상기 묘사 정보에 포함되어 있는 장면 효과에 수록되어 있는 오디오 효과를, 압축해제된 오디오 객체들 모두에 일괄적으로 적용하는 오디오 처리단계;를 포함한다.
상기 오디오 처리단계는, 상기 압축해제된 오디오 객체들을 합성하여, 하나의 오디오 신호를 생성하는 단계; 및 상기 오디오 신호에 상기 오디오 효과를 부여하여, 상기 오디오 효과를 상기 압축해제된 오디오 객체들 모두에 일괄적으로 적용하는 단계;를 포함할 수 있다.
상기 오디오 처리단계는, 상기 오디오 신호 생성단계 수행 전에, 상기 묘사 정보에 포함된 객체 묘사들 각각에 포함된 오디오 효과들을 참조하여 상기 압축해제된 오디오 객체들 각각에 개별적으로 오디오 효과들을 적용하는 단계;를 더 포함할 수 있다.
상기 오디오 신호 생성단계는, 상기 묘사 정보에 포함된 객체 묘사들 각각에 포함된 상기 압축해제된 오디오 객체들 각각에 대한 재생 구간을 기초로, 상기 압축해제된 오디오 객체들을 합성하여, 하나의 오디오 신호를 생성할 수 있다.
재생 구간은, 오디오 객체에 대한 첫 번째 재생 구간, 상기 첫 번째 재생 구간과 이격된 두 번째 재생 시작 구간을 포함하여, 상기 오디오 신호 생성단계는, 상기 오디오 객체가 시간적으로 분할되어 재생되게, 상기 압축해제된 오디오 객체들을 합성할 수 있다.
상기 오디오 신호 생성단계는, 상기 첫 번째 재생 구간과 상기 두 번째 재생 구간 사이에서, 상기 오디오 객체는 재생되지 않도록, 상기 압축해제된 오디오 객체들을 합성할 수 있다.
상기 오디오 처리 단계는, 사용자의 편집 내용을 기초로, 상기 압축해제된 오디오 객체들의 전부 또는 일부에 오디오 효과를 적용할 수 있다.
상기 묘사 정보에는, 다른 묘사 정보와 구별하기 위한 ID가 수록될 수 있다.
한편, 본 발명에 따른, 오디오 재생장치는, 오디오 비트스트림에 포함되어 있는 묘사 정보와 오디오 객체들을 분리하는 디패킷화부; 상기 오디오 객체들을 압축해제하는 오디오 디코더; 및 상기 묘사 정보에 포함되어 있는 장면 효과에 수록되어 있는 오디오 효과를, 압축해제된 오디오 객체들 모두에 일괄적으로 적용하는 오디오 처리부;를 포함한다.
상기 오디오 처리부는, 상기 압축해제된 오디오 객체들을 합성하여, 하나의 오디오 신호를 생성하고, 상기 오디오 신호에 상기 오디오 효과를 부여하여, 상기 오디오 효과를 상기 압축해제된 오디오 객체들 모두에 일괄적으로 적용할 수 있다.
상기 오디오 처리부는, 상기 오디오 신호 생성 전에, 상기 묘사 정보에 포함된 객체 묘사들 각각에 포함된 오디오 효과들을 참조하여 상기 압축해제된 오디오 객체들 각각에 개별적으로 오디오 효과들을 적용할 수 있다.
상기 오디오 처리부는, 상기 묘사 정보에 포함된 객체 묘사들 각각에 포함된 상기 압축해제된 오디오 객체들 각각에 대한 재생 구간을 기초로, 상기 압축해제된 오디오 객체들을 합성하여, 하나의 오디오 신호를 생성할 수 있다.
재생 구간은, 오디오 객체에 대한 첫 번째 재생 구간, 상기 첫 번째 재생 구간과 이격된 두 번째 재생 시작 구간을 포함하여, 상기 오디오 처리부는, 상기 오디오 객체가 시간적으로 분할되어 재생되게, 상기 압축해제된 오디오 객체들을 합성할 수 있다.
상기 오디오 처리부는, 상기 첫 번째 재생 구간과 상기 두 번째 재생 구간 사이에서, 상기 오디오 객체는 재생되지 않도록, 상기 압축해제된 오디오 객체들을 합성할 수 있다.
상기 오디오 처리부는, 사용자의 편집 내용을 기초로, 상기 압축해제된 오디오 객체들의 전부 또는 일부에 오디오 효과를 적용할 수 있다.
상기 묘사 정보에는, 다른 묘사 정보와 구별하기 위한 ID가 수록될 수 있다.
한편, 본 발명에 따른, 오디오 생성방법은, 오디오 객체들 각각에 대한 재생 구간들에 대한 정보가 각각 수록된 객체 묘사들이 포함된 묘사 정보를 생성하는 단계; 및 상기 묘사 정보와 상기 오디오 객체들을 통합하여, 오디오 비트스트림을 생성하는 단계;를 포함한다.
재생 구간은, 오디오 객체에 대한 첫 번째 재생 구간, 상기 첫 번째 재생 구간과 이격된 두 번째 재생 시작 구간을 포함하여, 상기 오디오 객체가 시간적으로 분할되어 재생되도록 정의할 수 있다.
상기 첫 번째 재생 구간과 상기 두 번째 재생 구간 사이에서, 상기 오디오 객체는 재생되지 않도록 정의할 수 있다.
상기 묘사 정보에는, 다른 묘사 정보와 구별하기 위한 ID가 수록될 수 있다.
한편, 본 발명에 따른, 오디오 생성장치는, 오디오 객체들 각각에 대한 재생 구간들에 대한 정보가 각각 수록된 객체 묘사들이 포함된 묘사 정보를 생성하는 인코더; 및 상기 묘사 정보와 상기 오디오 객체들을 통합하여, 오디오 비트스트림을 생성하는 패킷화부;를 포함한다.
재생 구간은, 오디오 객체에 대한 첫 번째 재생 구간, 상기 첫 번째 재생 구간과 이격된 두 번째 재생 시작 구간을 포함하여, 상기 오디오 객체가 시간적으로 분할되어 재생되도록 정의할 수 있다.
상기 첫 번째 재생 구간과 상기 두 번째 재생 구간 사이에서, 상기 오디오 객체는 재생되지 않도록 정의할 수 있다.
상기 묘사 정보에는, 다른 묘사 정보와 구별하기 위한 ID가 수록될 수 있다.
한편, 본 발명에 따른, 오디오 재생방법은, 오디오 비트스트림에 포함되어 있는 묘사 정보와 오디오 객체들을 분리하는 단계; 상기 오디오 객체들을 압축해제하는 단계; 및 상기 묘사 정보에 포함된 객체 묘사들 각각에 포함된 상기 압축해제된 오디오 객체들 각각에 대한 재생 구간들을 기초로 상기 압축해제된 오디오 객체들을 합성하여, 하나의 오디오 신호를 생성하는 단계;를 포함할 수 있다.
재생 구간은, 오디오 객체에 대한 첫 번째 재생 구간, 상기 첫 번째 재생 구간과 이격된 두 번째 재생 시작 구간을 포함하여, 상기 오디오 신호 생성단계는, 상기 오디오 객체가 시간적으로 분할되어 재생되게, 상기 압축해제된 오디오 객체들을 합성할 수 있다.
상기 오디오 신호 생성단계는, 상기 첫 번째 재생 구간과 상기 두 번째 재생 구간 사이에서, 상기 오디오 객체는 재생되지 않도록, 상기 압축해제된 오디오 객체들을 합성할 수 있다.
상기 묘사 정보에는, 다른 묘사 정보와 구별하기 위한 ID가 수록될 수 있다.
한편, 본 발명에 따른, 오디오 재생장치는, 오디오 비트스트림에 포함되어 있는 묘사 정보와 오디오 객체들을 분리하는 디패킷화부; 상기 오디오 객체들을 압축해제하는 오디오 디코더; 및 상기 묘사 정보에 포함된 객체 묘사들 각각에 포함된 상기 압축해제된 오디오 객체들 각각에 대한 재생 구간들을 기초로 상기 압축해제된 오디오 객체들을 합성하여, 하나의 오디오 신호를 생성하는 오디오 처리부;를 포함한다.
재생 구간은, 오디오 객체에 대한 첫 번째 재생 구간, 상기 첫 번째 재생 구간과 이격된 두 번째 재생 시작 구간을 포함하여, 상기 오디오 처리부는, 상기 오디오 객체가 시간적으로 분할되어 재생되게, 상기 압축해제된 오디오 객체들을 합성할 수 있다.
상기 오디오 처리부는, 상기 첫 번째 재생 구간과 상기 두 번째 재생 구간 사이에서, 상기 오디오 객체는 재생되지 않도록, 상기 압축해제된 오디오 객체들을 합성할 수 있다.
상기 묘사 정보에는, 다른 묘사 정보와 구별하기 위한 ID가 수록될 수 있다.
이상 설명한 바와 같이, 본 발명에 따르면, 오디오 객체들 모두에 일괄적으로 적용될 오디오 효과가 수록된 장면 효과가 적어도 하나 이상 포함된 묘사 정보 를 이용하여, 오디오를 생성하고 재생할 수 있게 된다.
또한, 오디오 객체들 각각에 대한 재생 구간들에 대한 정보가 각각 수록된 객체 묘사들이 포함된 묘사 정보를 이용하여, 오디오를 생성하고 재생할 수 있게 된다.
그리고, 본 발명에 따르면, 객체별로 3차원 효과를 제공하기 위한 정보와 객체별로 부호화한 정보를 저장할 수 있고, 특히, 객체별 효과뿐만 아니라 전체 오디오 신호에 효과를 주기 위해서 장면 효과 정보를 포함하고 있으며 각 효과를 적용하는 시간을 설정할 수 있게 되며, 무음 구간에 대한 처리를 제거하기 위해 하나의 객체를 여러 세그먼트로 나누어 재생구간을 정의할 수 있게 된다.
이러한 장면 효과 및 효과 적용 시간 설정, 세그먼트 정의 등을 이용하여 객체기반 오디오의 계산량을 낮출 수 있다는 장점이 있다.
본 발명은, IPTV와 같은 대화형 서비스에 사용자 정보 기반의 상호적응 오디오 서비스의 구현, DMB 및 기존 DTV와 같은 단방향 서비스에 적용하여 기존 서비스의 향상, 고품질 오디오에 대한 개인화 서비스 구현 등에 일조한다.
그리고, 오디오에 사용할 필드만 정의하고 있으며, 각 객체에 동일한 효과를 적용할 경우, 장면 효과(Scene Effect)를 통해 객체별로 동일한 효과를 적용하지 않고, 합성된 최종 신호에 효과를 적용하기 때문에 보다 낮은 계산량으로 동일한 효과를 구현할 수 있다.
또한, 본 발명은, 3차원 효과를 적용하는 시간정보를 정의함으로써, 하나의 객체에 대해 다양한 3차원 효과를 시간대별로 적용할 수 있다는 장점이 있다.
그리고, 본 발명은, 라디오 방송, CD 및 SACD (Super Audio CD)와 같은 오디오 서비스 뿐만 아니라 DMB, UCC 등 휴대기기를 통한 멀티미디어 서비스에 적용 및 구현이 가능하다.
이하에서는 도면을 참조하여 본 발명을 보다 상세하게 설명한다.
도 1은 본 발명의 일 실시예에 따른, 오디오 생성장치의 블럭도이다. 본 실시예에 따른 오디오 생성장치(100)는, 오디오 객체(Audio Object)들에 대한 묘사 정보(Description Information)가 포함된 오디오 비트스트림(Audio Bitstream)을 생성한다.
묘사 정보는, 오디오 객체들 모두에 대한 장면 효과 정보(SEI: Scene Effect Information)와, 오디오 객체들 각각에 대한 객체 묘사 정보(ODI: Object Description Information)로 분류된다.
장면 효과 정보(SEI)란, 오디오 비트스트림에 포함되어 있는 오디오 객체들 모두에 일괄적으로 적용되는 오디오 효과들에 대한 내용이 수록되어 있는 정보이다.
객체 묘사 정보(ODI)란, 오디오 비트스트림에 포함되어 있는 오디오 객체들 각각에 개별적으로 적용되는 오디오 효과들과 재생 구간에 대한 내용이 수록되어 있는 정보이다.
본 실시예에 따른 오디오 생성장치(100)는, 도 1에 도시된 바와 같이, 오디오 인코더(110), 묘사 인코더(120) 및 패킷화부(130)를 포함한다.
오디오 인코더(110)는 입력되는 오디오 객체들을 압축한다. 도 1에 도시된 바와 같이, 오디오 인코더(110)는 N개의 오디오 인코더(110-1, 110-2, ... , 110-N)를 구비한다.
오디오 인코더-1(110-1)는 오디오 객체-1을 압축하고, 오디오 인코더-2(110-2)는 오디오 객체-2를 압축하며, ... , 오디오 인코더-N(110-N)은 오디오 객체-N을 압축한다.
오디오 객체는 오디오 컨텐츠를 구성하는 요소로, 오디오 컨텐츠는 다수의 오디오 객체들로 구성된다. 오디오 컨텐츠가 음악인 경우를 상정한다면, 오디오 객체들은 음악 연주에 이용된 악기들에서 각각 발생된 오디오들일 수 있다. 예를 들면, 오디오 객체-1은 기타에서 발생된 오디오이고, 오디오 객체-2는 베이스에서 발생된 오디오이며, ... , 오디오 객체-N은 드럼에서 발생된 오디오일 수 있다.
묘사 인코더(120)는 오디오 편집자의 편집 명령에 따라 묘사 정보를 생성하고, 생성된 묘사 정보를 부호화하여 출력한다.
묘사 정보에는, 1) 오디오 객체들 모두에 일괄적으로 적용되는 오디오 효과에 대한 내용이 수록된 적어도 하나의 장면 효과들이 포함된 장면 효과 정보(SEI)와, 2) 오디오 비트스트림에 포함되어 있는 오디오 객체들 각각에 개별적으로 적용되는 오디오 효과와 재생 구간에 대한 내용이 수록되어 있는 적어도 하나의 객체 묘사들이 포함된 객체 묘사 정보(ODI)가 포함된다.
장면 효과들은, 오디오 비트스트림에 포함되어 있는 오디오 객체들 모두에 적용된다. 한편, 객체 묘사는 오디오 객체 마다 별개로 생성된다. 즉, 오디오 객 체-1에 대한 객체 묘사, 오디오 객체-2에 대한 객체 묘사, ... , 오디오 객체-N에 대한 객체 묘사는 별개로 생성되어 존재한다.
묘사 정보를 구성하는 장면 효과 정보(SEI)와 객체 묘사 정보(ODI)의 상세한 구조에 대한 설명은 후술한다.
한편, 묘사 정보는 오디오 편집자의 명령에 따라 생성되므로, 장면 효과들에 수록되는 오디오 효과와, 객체 묘사들에 수록되는 오디오 효과와 재생 구간은 오디오 편집자에 의해 결정된다고 할 수 있다.
패킷화부(130)는 오디오 인코더(110)에서 출력되는 압축된 오디오 객체들과 묘사 인코더(120)에서 생성되는 묘사 정보를 통합하여 오디오 비트스트림을 생성한다. 구체적으로, 패킷화부(130)는 오디오 객체들을 순차적으로 나열하고, 오디오 객체들 앞에 묘사 정보를 부가하는 방식으로, 오디오 비트스트림을 생성한다.
도 2는, 도 1에 도시된 오디오 생성장치가 오디오 비트스트림을 생성하는 과정을 나타낸 흐름도이다.
도 2에 도시된 바와 같이, 먼저 오디오 인코더(110)는 입력되는 오디오 객체들을 압축한다(S210). 그리고, 묘사 인코더(120)는 오디오 편집자의 편집 명령에 따라 묘사 정보를 생성하고, 생성된 묘사 정보를 부호화한다(S220). 그러면, 패킷화부(130)는 S210단계에서 압축된 오디오 객체들과 S220단계에서 생성/부호화된 묘사 정보를 통합하여 오디오 비트스트림을 생성한다(S230).
도 3은 본 발명의 다른 실시예에 따른 오디오 재생장치의 블럭도이다. 본 오디오 재생장치(300)는, 도 1에 도시된 오디오 생성장치에 의해 생성된 객체기반 오디오 비트스트림으로부터 오디오 신호를 복원하여 재생할 수 있다.
본 실시예에 따른 오디오 재생장치(300)는, 도 3에 도시된 바와 같이, 디패킷화부(310), 오디오 디코더(320), 묘사 디코더(330), 오디오 처리부(340), 사용자 명령 전달부(350) 및 오디오 출력부(360)를 포함한다.
디패킷화부(310)는 오디오 생성장치(100)에서 생성된 오디오 비트스트림을 입력받아, 오디오 객체들과 묘사 정보로 분리한다. 디패킷화부(310)에서 분리된 오디오 객체들은 오디오 디코더(320)로 인가되고, 디패킷화부(310)에서 분리된 묘사 정보는 묘사 디코더(330)로 인가된다.
오디오 디코더(320)는 디패킷화부(310)로부터 인가되는 오디오 객체들을 압축해제한다. 따라서, 오디오 디코더(320)에서는 전술한 오디오 인코더(110)에서 압축되기 전 N개의 오디오 객체들이 출력된다.
묘사 디코더(330)는 묘사 인코더(120)에서 생성/부호화된 묘사 정보를 복호화한다.
오디오 처리부(340)는 오디오 디코더(320)로부터 인가되는 N개의 오디오 객체들을 합성하여 하나의 오디오 신호를 생성한다. 오디오 신호 생성시, 오디오 처리부(340)는 묘사 디코더(330)로부터 인가되는 묘사 정보를 참조하여 오디오 객체들을 배열하고, 오디오 효과를 부여한다.
구체적으로, 오디오 처리부(340)는,
1) 객체 묘사 정보(ODI)에 수록된 오디오 효과를 참조하여, 해당 오디오 객체들 각각에 개별적으로 오디오 효과를 부여하고,
2) 객체 묘사 정보(ODI)에 수록된 재생 구간들을 기초로, 오디오 객체들을 합성하여, 하나의 오디오 신호를 생성하며,
3) 장면 효과 정보(SEI)에 수록된 오디오 효과를 참조하여, 오디오 신호에 오디오 효과를 부여하는 바,
이하에서 각각에 대해 부연 설명한다.
1) 객체 묘사 정보(ODI)를 참조하여, 개별적으로 오디오 효과 부여
객체 묘사 정보(ODI)를 구성하는 객체 묘사들은 오디오 객체 마다 개별적으로 존재한다고 전술한 바 있다. 즉, 오디오 객체-1에 대한 객체 묘사-1, 오디오 객체-2에 대한 객체 묘사-2, ... , 오디오 객체-N에 대한 객체 묘사-N이 별개로 존재한다.
만약, a) 객체 묘사-1에 오디오 효과로 음상 정위 효과가 지정되어 있는 경우, 오디오 처리부(340)는 오디오 객체-1에 음상 정위 효과를 부여하고, b) 객체 묘사-2에 오디오 효과로 가상공간 효과가 지정되어 있는 경우, 오디오 처리부(340)는 오디오 객체-2에 가상공간 효과를 부여하고, ... , c) 객체 묘사-N에 오디오 효과로 외재화 효과가 지정되어 있는 경우, 오디오 처리부(340)는 오디오 객체-N에 외재화 효과를 부여한다.
위 예에서는, 객체 묘사에 오디오 효과가 하나씩 수록되어 있는 것으로 상정하였으나, 이는 설명의 편의를 위한 일 예에 해당한다. 필요에 따라, 객체 묘사에는 2 이상의 오디오 효과가 수록되도록 구현하는 것도 가능하다.
2) 객체 묘사 정보(ODI)를 참조하여, 오디오 객체들을 합성
객체 묘사 정보(ODI)를 구성하는 객체 묘사들에는 해당 오디오 객체의 재생 구간에 대한 정보가 수록되어 있다. 재생 구간은 시작시간과 종료시간으로 구성되는데, 하나의 오디오 객체에 대해 재생 구간이 2 이상 지정될 수 있다.
그리고, 오디오 객체는 객체 묘사에서 지정하고 있는 재생 구간에서 재생될 오디오 데이터만을 보유하고 있다. 예를 들어, 객체 묘사에서 지정하고 있는 재생 구간이 "0:00~10:00"와 "25:00~30:00"인 경우, 오디오 객체는 "0:00~10:00"에서 재생될 오디오 데이터와 "0:00~10:00"와 "25:00~30:00"에서 재생될 오디오 데이터만을 보유하고 있는 것이지, "0:00~30:00"에서 재생될 오디오 데이터를 보유하고 있는 것은 아니다.
위 오디오 객체의 경우, 총 재생 시간은 "15:00(10:00 + 5:00)"이지만, 재생 완료까지 소요되는 시간은 "30:00"이다.
만약,
a) 객체 묘사-1에 재생 구간으로 "0:00~30:00"이 지정되고,
b) 객체 묘사-2에 재생 구간으로 "0:00~10:00"이 지정되며,
... ,
c) 객체 묘사-N에 재생 구간으로 "20:00~30:00"이 지정된 경우를 상정하면,
오디오 처리부(340)는,
a) "0:00~10:00"에서는 오디오 객체-1과 오디오 객체-2가 재생되고,
b) "10:00~20:00"에서는 오디오 객체-1만이 재생되고,
... ,
c) "20:00~30:00"에서는 오디오 객체-1과 오디오 객체-N이 재생되도록,
오디오 객체-1, 오디오 객체-2, ... , 오디오 객체-N을 합성하여, 하나의 오디오 신호를 생성한다.
3) 장면 효과 정보(SEI)를 참조하여, 일괄적으로 오디오 효과 부여
장면 효과 정보(SEI)에 포함된 장면 효과에 수록되어 있는 오디오 효과는 위 합성 절차에 의해 생성된 하나의 오디오 신호에 대해 적용된다. 그런데, 이 하나의 오디오 신호는, 모든 오디오 객체들이 합성된 것이다. 따라서, 장면 효과에 수록되어 있는 오디오 효과는 모든 오디오 객체들에 적용되는 것이라 할 수 있다.
만약, 장면 효과에 오디오 효과로 배경음 효과가 지정되어 있는 경우, 오디오 처리부(340)는 오디오 객체들을 합성하여 생성한 오디오 신호에 배경음 효과를 부여한다.
지금까지, 오디오 처리부(340)에 의해 오디오 객체들에 개별적으로 오디오 효과가 부여되고, 오디오 객체들이 합성되며, 합성된 오디오 객체들에 일괄적으로 오디오 효과가 부여되는 과정에 대해 상세히 설명하였다.
전술한 오디오 처리부(340)에 의한 오디오 처리 과정은, 오디오 재생장 치(300)의 사용자에 의해 변경가능하다. 예를 들어, 오디오 재생장치(300)의 사용자는, 전체 또는 일부 오디오 객체에 대해 특정 오디오 효과를 부여하도록 편집 명령하는 것이 가능하다.
이와 같은 사용자 편집 명령은 도 3에 도시된 사용자 명령 전달부(350)가 입력받아 오디오 처리부(340)에 전달한다. 그러면, 오디오 처리부(340)는 오디오 처리 과정에서, 사용자 편집 내용을 반영한다.
오디오 출력부(360)는 오디오 처리부(340)에서 출력되는 오디오 신호를 스피커나 출력단자와 같은 출력 소자를 통해 출력하여, 사용자가 오디오를 감상할 수 있도록 한다.
도 4는, 도 3에 도시된 오디오 재생장치가 오디오 비트스트림을 재생하는 과정을 나타낸 흐름도이다.
도 4에 도시된 바와 같이, 먼저 디패킷화부(310)는오디오 비트스트림을 오디오 객체들과 묘사 정보로 분리한다(S410). 그러면, 오디오 디코더(320)는 S410단계에서 분리된 오디오 객체들을 압축해제한다(S420). 그리고, 묘사 디코더(330)는 S410단계에서 분리된 묘사 정보를 복호화한다(S430).
이후, 오디오 처리부(340)는 S430단계에서 복호화된 묘사 정보와 사용자 명령 전달부(350)를 통해 전달되는 사용자 편집 명령에 따라, S420단계에서 압축해제된 오디오 객체들에 대해 오디오 신호 처리를 수행하여, 하나의 오디오 신호를 생성한다(S440).
그러면, 오디오 출력부(360)는 S440단계에서 오디오 신호 처리된 오디오를 출력하여, 사용자가 오디오를 감상할 수 있도록 한다(S450).
이하에서는, 전술한 묘사 정보를 구성하는 장면 효과 정보(SEI)와 객체 묘사 정보(ODI)의 상세한 구조에 대해 상세히 설명한다.
도 5는 묘사 정보의 데이터 구조를 도시한 도면이다. 도 5에 도시된 묘사 정보 뒤에 오디오 객체들을 부가된 것은, 패킷화부(130)에서 생성되는 오디오 비트스트림에 해당한다.
이해와 도시의 편의를 위해, 도 5에는 오디오 객체들을 도시하지는 않았으며, 오디오 비트스트림에 수록되는 묘사 정보만을 도시하였다.
도 5의 (a)에 도시되어 있는 바와 같이, 묘사 정보에는, 1) 묘사 ID 필드(Des ID), 2) 재생시간 필드(Duration), 3) 객체 묘사 개수 필드(Num_ObjDes), 4) 장면 효과 개수 필드(Num_SceneEffect), 5) 장면 효과 정보(SEI) 및 6) 객체 묘사 정보(ODI)가 포함되어 있다.
묘사 ID 필드(Des ID)는 묘사 정보를 다른 묘사 정보와 구별할 수 있도록 하는 ID가 수록되는 필드로, 묘사 정보가 여러 개인 경우에 필요하다.
재생시간 필드(Duration)는 오디오 비트스트림의 총 재생 시간에 대한 정보가 수록되는 필드이다.
객체 묘사 개수 필드(Num_ObjDes)는 본 묘사 정보에 수록되어 있는 객체 묘사의 개수에 대한 정보가 수록되는 필드이며, 장면 효과 개수 필드(Num_SceneEffect)는 본 묘사 정보에 수록되어 있는 장면 효과의 개수에 대한 정보가 수록되는 필드이다.
장면 효과 정보(SEI)에는 M개의 장면 효과 필드들(SceneEffect_1, ... , SceneEffect_M)이 포함된다.
도 5의 (b)에 도시된 바와 같이, 첫 번째 장면 효과 필드(SceneEffect_1)에는 1) 장면 효과 ID 필드(SceneEffect_ID), 2) 장면 효과 명칭 필드(SceneEffect_Name), 3) 장면 효과 시작시간 필드(SceneEffect_StartTime), 4) 장면 효과 종료시간 필드(SceneEffect_EndTime) 및 5) 장면 효과 정보 필드(SceneEffect_Info)가 포함되어 있다.
두 번째 장면 효과 필드(SceneEffect_2) 내지 M 번째 장면 효과 필드(SceneEffect_M)의 데이터 구조는 첫 번째 장면 효과 필드(SceneEffect_1)와 동일하므로, 이하에서는, 첫 번째 장면 효과 필드(SceneEffect_1)의 데이터 구조에 대해서만 설명한다.
장면 효과 ID 필드(SceneEffect_ID)는 첫 번째 장면 효과 필드(SceneEffect_1)를 다른 장면 효과 필드들과 구별할 수 있도록 하는 ID가 수록되는 필드이다.
장면 효과 명칭 필드(SceneEffect_Name)는 첫 번째 장면 효과 필드(SceneEffect_1)를 통해 부여하고자 하는 오디오 효과의 명칭을 수록한다. 예를 들어, 첫 번째 장면 효과 필드(SceneEffect_1)를 통해 부여하고자 하는 오디오 효과가 "잔향"인 경우, 장면 효과 명칭 필드(SceneEffect_Name)에는 "잔향"이 수록된다.
장면 효과 시작시간 필드(SceneEffect_StartTime)에는 장면 효과 부여가 시 작되는 재생시간에 대한 정보가 수록되고, 장면 효과 종료시간 필드(SceneEffect_EndTime)에는 장면 효과 부여가 종료되는 재생시간에 대한 정보가 수록된다.
장면 효과 정보 필드(SceneEffect_Info)에는 오디오 효과를 부여하는데 필요한 상세한 정보가 수록된다.
장면 효과 정보 필드(SceneEffect_Info)에는 오디오 효과로서, 1) 음상 정위 효과, 2) 가상공간 효과, 3) 외재화 효과 또는 4) 배경음 효과에 대한 상세한 정보가 수록가능하다. 이들 오디오 효과의 데이터 구조에 대해서는 후술한다.
한편, 도 5의 (a)에 도시되어 있는 바와 같이, 객체 묘사 정보(ODI)에는 N개의 객체 묘사 필드들(ObjDes_1, ObjDes_2, ... , ObjDes_N)이 수록되어 있다. 객체 묘사 정보(ODI)에 수록되는 객체 묘사 필드들(ObjDes_1, ObjDes_2, ... , ObjDes_N)의 개수는 오디오 비트스트림에 포함되는 오디오 객체들의 개수와 동일하다. 오디오 객체 마다 객체 묘사가 개별적으로 생성되기 때문이다.
첫 번째 객체 묘사 필드(ObjDes_1)에는 오디오 객체-1에 대한 묘사 정보가 수록되어 있고, 두 번째 객체 묘사 필드(ObjDes_2)에는 오디오 객체-2에 대한 묘사 정보가 수록되어 있으며, ... , N 번째 객체 묘사 필드(ObjDes_N)에는 오디오 객체-N에 대한 묘사 정보가 수록되어 있다.
도 5의 (c)에 도시된 바와 같이, 첫 번째 객체 묘사 필드(ObjDes_1)에는, 1) 객체 묘사 ID 필드(ObjDes ID), 2) 객체 명칭 필드(Obj_Name), 3) 객체 세그먼트 필드(Obj_Seg), 4) 객체 시작시간 필드(Obj_StartTime), 5) 객체 종료시간 필 드(Obj_EndTime), 6) 객체 효과 개수 필드(Obj_NumEffect), 7) 객체 합성 비율 필드(Obj_MixRatio) 및 8) 효과 필드들(Effect_1, ... , Effect_L)이 포함되어 있다.
두 번째 객체 묘사 필드(ObjDes_2) 내지 N 번째 객체 묘사 필드(ObjDes_N)의 데이터 구조는 첫 번째 객체 묘사 필드(ObjDes_1)와 동일하므로, 이하에서는, 첫 번째 객체 묘사 필드(ObjDes_1)의 데이터 구조에 대해서만 설명한다.
객체 묘사 ID 필드(ObjDes ID)는 객체 묘사 필드를 다른 객체 묘사 필드와 구별할 수 있도록 하는 ID가 수록되는 필드이다.
객체 명칭 필드(Obj_Name)는 객체에 대한 명칭이 수록된다. 예를 들어, 오디오 객체-1이 기타에서 발생된 오디오인 경우, 객체 명칭 필드(Obj_Name)에는 "기타"를 나타내는 정보가 수록된다.
객체 세그먼트 필드(Obj_Seg)는 오디오 객체가 몇 개로 분할되어 재생되는지에 대한 정보가 수록된다. 환언하면, 객체 세그먼트 필드(Obj_Seg)에는 전술한 재생 구간의 개수가 수록된다고 할 수 있다.
만약, 1) 객체 세그먼트 필드(Obj_Seg)가 "1"로 지정되어 있다면 오디오 객체-1은 분할 없이 연속하여 재생됨을 의미하고, 2) 객체 세그먼트 필드(Obj_Seg)가 "2"로 지정되어 있다면 오디오 객체-1은 2개의 재생 구간으로 분할되어 재생됨을 의미한다.
객체 시작시간 필드(Obj_StartTime)와 객체 종료시간 필드(Obj_EndTime)는 전술한 재생 구간에 대한 정보가 수록된다. 객체 시작시간 필드(Obj_StartTime)/객체 종료시간 필드(Obj_EndTime) 쌍의 개수는 객체 세그먼트 필드(Obj_Seg)에 수 록된 수(재생 구간의 개수)와 동일하다.
예를 들어, 오디오 객체-1에 대한 재생 구간이 "0:00~10:00"와 "25:00~30:00"인 경우, 1) 첫 번째 객체 시작시간 필드(Obj_StartTime)에는 "0:00"이 수록되고, 2) 첫 번째 객체 종료시간 필드(Obj_EndTime)에는 "10:00"이 수록되며, 3) 두 번째 객체 시작시간 필드(Obj_StartTime)에는 "25:00"이 수록되고, 4) 두 번째 객체 종료시간 필드(Obj_EndTime)에는 "30:00"이 수록된다.
객체 효과 개수 필드(Obj_NumEffect)는 객체 묘사 필드에 포함되어 있는 효과 필드들(Effect_1, ... , Effect_L)의 개수가 수록된다.
객체 합성 비율 필드(Obj_MixRatio)는 오디오 객체-1이 재생될 경우 이용될 스피커의 종류에 대한 정보가 수록된다. 예를 들어, 5.1 채널 스피커 환경에서, 오디오 객체-1이 중앙 스피커와 왼쪽 프런트 스피커에서만 출력된다면, 객체 합성 비율 필드(Obj_MixRatio)에는 "1, 0, 1, 0, 0, 0"가 수록된다.
효과 필드들(Effect_1, ... , Effect_L)에는 오디오 객체-1에 적용할 오디오 효과들에 대한 정보가 각각 수록된다.
도 5의 (d)에 도시된 바와 같이, 첫 번째 효과 필드(Effect_1)에는 1) 효과 ID 필드(Effect_ID), 2) 효과 명칭 필드(Effect_Name), 3) 효과 시작시간 필드(Effect_StartTime), 4) 효과 종료시간 필드(Effect_EndTime), 5) 효과 정보 필드(Effect_Info)가 포함되어 있다.
두 번째 효과 필드(Effect_2) 내지 L 번째 효과 필드(Effect_L)의 데이터 구조는 첫 번째 효과 필드(Effect_1)와 동일하므로, 이하에서는, 첫 번째 효과 필 드(Effect_1)의 데이터 구조에 대해서만 설명한다.
효과 ID 필드(Effect_ID)는 첫 번째 효과 필드(Effect_1)를 다른 효과 필드들과 구별할 수 있도록 하는 ID가 수록되는 필드이다.
효과 명칭 필드(Effect_Name)는 첫 번째 효과 필드(Effect_1)를 통해 부여하고자 하는 효과의 명칭을 수록한다. 예를 들어, 첫 번째 효과 필드(Effect_1)를 통해 부여하고자 하는 효과가 "잔향"인 경우, 효과명 필드(Effect_Name)에는 "잔향"이 수록된다.
효과 시작시간 필드(Effect_StartTime)에는 효과 부여가 시작되는 재생 시간에 대한 정보가 수록되고, 효과 종료시간 필드(Effect_EndTime)에는 효과 부여가 종료되는 재생 시간에 대한 정보가 수록된다.
효과 정보 필드(Effect_Info)에는 오디오 효과를 부여하는데 필요한 상세한 정보가 수록된다.
효과 정보 필드(Effect_Info)에는 오디오 효과로서, 1) 음상 정위 효과, 2) 가상공간 효과, 3) 외재화 효과 또는 4) 배경음 효과에 대한 상세한 정보가 수록가능하다. 이하에서는 각 오디오 효과의 데이터 구조에 대해 상세히 설명한다.
도 6에는 음상 정위 효과를 위한 상세 정보의 데이터 구조를 도시하였다. 도 6에 도시된 음상 정위 효과에는 오디오 객체-1에 대한 방향감 및 거리감을 부여하는데 필요한, 1) 음원의 채널수 필드(mSL_NumofChannels), 2) 음상 정위 각도 필드(mSL_Azimuth), 3) 음상 정위 거리 필드(mSL_Distance), 4) 음상 정위 고도 필드(mSL_Elevation) 및 5) 스피커의 가상 각도 필드(mSL_SpkAngle)가 포함되어 있 다.
도 7에는 가상공간 효과를 위한 상세 정보의 데이터 구조를 도시하였다. 가상공간 효과를 위한 상세 정보의 데이터 구조는, 사전 정의된 공간의 적용 여부(mVR_Predefined Enable)에 따라 다르다.
사전 정의된 공간을 적용하는 경우, 가상공간 효과를 위한 상세 정보에는, 1) "On"이 수록된 사전 정의된 공간의 적용 여부 필드(mVR_Predefined Enable), 2) 공간 인덱스 필드(mVR_RoomIdx) 필드 및 3) 반사음 계수 필드(mVR_ReflectCoeff)가 포함된다.
그리고, 사전 정의된 공간을 적용하지 않을 경우, 가상공간 효과를 위한 상세 정보에는, 1) "Off"가 수록된 사전 정의된 공간의 적용 여부 필드(mVR_Predefined Enable)가 포함되고, 가상 공간 정의에 필요한 2) 마이크의 좌표 필드(mVR_MicPos), 3) 공간 크기 필드(mVR_RoomSize), 4) 음원 위치 필드(mVR_SourcePos), 5) 반사음 차수 필드(mVR_ReflectOrder) 및 6) 반사음 계수 필드(mVR_ReflectCoeff)가 포함된다.
가상공간 효과를 위한 상세 정보를 이용하면, 오디오 객체-1에 대해 가상공간에서 발생하는 잔향을 추가할 수 있다.
도 8에는 외재화 효과를 위한 상세 정보의 데이터 구조를 도시하였다. 외재화 효과에는, 헤드폰 청취 환경에서 외재화 효과를 적용하는데 필요한, 1) 외재화 정위 각도 필드(mExt_Angle), 2) 외재화 정위 거리 필드(mExt_Distance) 및 3) 스피커의 가상 각도 필드(mExt_SpkAngle)가 포함된다.
도 9에는 배경음 효과를 위한 상세 정보로, 배경음 인덱스 필드(mBG_index)가 도시되어 있다. 배경음 인덱스 필드(mBG_index)에는 오디오에 추가되는 배경음에 대한 정보가 수록된다.
이 밖에도, 다른 종류의 오디오 효과가 본 발명에 적용될 수 있고, 3차원 오디오 효과는 물론 이외의 오디오 효과도 본 발명에 적용가능하다.
도 10은 오디오 파일에서 오디오 객체 선별/추가의 개념 설명에 제공되는 도면이다.
도 1에 도시된 오디오 생성장치(100)가 이용하는 오디오 객체들로 구성되는 오디오 파일은 네트워크를 통해 연결된 오디오 서버(10)로부터 다운로드 받을 수 있다.
이때, 도 10의 좌측에 도시된 바와 같이, 오디오 생성장치(100)가 사용자가 원하는 오디오 객체들만으로 구성된 오디오 파일을 오디오 서버(10)로부터 다운로드 받는 것이 가능하다.
한편, 오디오 파일에는 사용자를 위한 오디오 객체가 할당된다. 즉, 사용자는 자신이 생성한 오디오 객체를 오디오 파일에 추가할 수 있다. 오디오 파일의 포맷정보에는 어느 오디오 객체가 사용자를 위한 오디오 객체로 할당되어 있는지에 대한 정보가 수록되어 있다.
이 포맷정보를 참조하여, 오디오 생성장치(100)는 사용자가 생성한 오디오 객체를 오디오 파일에 추가할 수 있다. 오디오 생성장치(100)는 사용자에 의해 추가된 오디오 객체가 어느 것인지에 대한 정보를 오디오 파일의 포맷정보에 수록한 다.
한편, 오디오 생성장치(100)는 사용자에 의해 오디오 객체가 추가된 오디오 파일을 오디오 서버(10)에 업로드할 수 있다. 오디오 서버(10)에 업로드된 오디오 파일은 다른 사용자가 다운로드 받을 수 있다.
이때, 다른 사용자는, 1) 오디오 파일을 업로드한 사용자가 추가한 오디오 객체만을 다운로드 받거나, 2) 추가된 오디오 객체를 제외한 다른 오디오 객체들만이 수록된 오디오 파일을 다운로드 받을 수 있음은 물론, 3) 양자 모두가 포함된 오디오 파일을 다운로드 받을 수도 있다.
"1)"과 "2)"의 경우는, 오디오 파일의 포맷정보를 참조하여 가능하다.
또한, 이상에서는 본 발명의 바람직한 실시예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어져서는 안될 것이다.
도 1은 본 발명의 일 실시예에 따른, 오디오 생성장치의 블럭도,
도 2는, 도 1에 도시된 오디오 생성장치가 오디오 비트스트림을 생성하는 과정을 나타낸 흐름도,
도 3은 본 발명의 다른 실시예에 따른 오디오 재생장치의 블럭도,
도 4는, 도 3에 도시된 오디오 재생장치가 오디오 비트스트림을 재생하는 과정을 나타낸 흐름도,
도 5는 묘사 정보의 데이터 구조를 도시한 도면,
도 6은 음상 정위 효과를 위한 상세 정보의 데이터 구조를 도시한 도면,
도 7은 가상공간 효과를 위한 상세 정보의 데이터 구조를 도시한 도면,
도 8은 외재화 효과를 위한 상세 정보의 데이터 구조를 도시한 도면,
도 9는 배경음 효과를 위한 상세 정보로, 배경음 인덱스 필드(mBG_index)가 도시된 도면, 그리고,
도 10은 오디오 컨텐츠에서 오디오 객체 선별/추가의 개념 설명에 제공되는 도면이다.

Claims (50)

  1. 하나의 오디오 비트스트림에 포함될 복수의 오디오 객체들 모두에 일괄적으로 적용될 오디오 효과가 수록된 장면 효과가 적어도 하나 이상 포함된 묘사 정보를 생성하는 단계; 및
    상기 묘사 정보와 상기 오디오 객체들을 통합하여, 오디오 비트스트림을 생성하는 단계;를 포함하는 것을 특징으로 하는 오디오 생성방법.
  2. 제 1항에 있어서,
    상기 장면 효과는,
    상기 일괄적으로 적용될 오디오 효과의 적용 시작시간, 상기 일괄적으로 적용될 오디오 효과의 적용 종료시간 및 상기 일괄적으로 적용될 오디오 효과를 나타내는 정보를 포함하는 것을 특징으로 하는 오디오 생성방법.
  3. 제 1항에 있어서,
    상기 묘사 정보는,
    상기 오디오 객체들에 개별적으로 적용될 오디오 효과들이 각각 수록된 객체 묘사들을 더 포함하는 것을 특징으로 하는 오디오 생성방법.
  4. 제 3항에 있어서,
    상기 객체 묘사는,
    상기 개별적으로 적용될 오디오 효과의 적용 시작시간, 상기 개별적으로 적용될 오디오 효과의 적용 종료시간 및 상기 개별적으로 적용될 오디오 효과를 나타내는 정보를 포함하는 것을 특징으로 하는 오디오 생성방법.
  5. 제 1항에 있어서,
    상기 묘사 정보는,
    상기 오디오 객체들 각각에 대한 재생 구간들에 대한 정보가 각각 수록된 객체 묘사들을 더 포함하는 것을 특징으로 하는 오디오 생성방법.
  6. 제 5항에 있어서,
    재생 구간은,
    오디오 객체에 대한 첫 번째 재생 구간, 상기 첫 번째 재생 구간과 이격된 두 번째 재생 시작 구간을 포함하여, 상기 오디오 객체가 시간적으로 분할되어 재생되도록 정의되는 것을 특징으로 하는 오디오 생성방법.
  7. 제 6항에 있어서,
    상기 첫 번째 재생 구간과 상기 두 번째 재생 구간 사이에서, 상기 오디오 객체는 재생되지 않도록 정의되는 것을 특징으로 하는 오디오 생성방법.
  8. 제 1항에 있어서,
    상기 적어도 하나의 오디오 효과는, 오디오 편집자에 의해 결정되는 것을 특징으로 하는 오디오 생성방법.
  9. 제 1항에 있어서,
    상기 묘사 정보에는,
    다른 묘사 정보와 구별하기 위한 ID가 수록되어 있는 것을 특징으로 하는 오디오 생성방법.
  10. 하나의 오디오 비트스트림에 포함될 복수의 오디오 객체들 모두에 일괄적으로 적용될 오디오 효과가 수록된 장면 효과가 적어도 하나 이상 포함된 묘사 정보를 생성하는 인코더; 및
    상기 묘사 정보와 상기 오디오 객체들을 통합하여, 오디오 비트스트림을 생성하는 패킷화부;를 포함하는 것을 특징으로 하는 오디오 생성장치.
  11. 제 10항에 있어서,
    상기 장면 효과는,
    상기 일괄적으로 적용될 오디오 효과의 적용 시작시간, 상기 일괄적으로 적용될 오디오 효과의 적용 종료시간 및 상기 일괄적으로 적용될 오디오 효과를 나타내는 정보를 포함하는 것을 특징으로 하는 오디오 생성장치.
  12. 제 10항에 있어서,
    상기 묘사 정보는,
    상기 오디오 객체들에 개별적으로 적용될 오디오 효과들이 각각 수록된 객체 묘사들을 더 포함하는 것을 특징으로 하는 오디오 생성장치.
  13. 제 12항에 있어서,
    상기 객체 묘사는,
    상기 개별적으로 적용될 오디오 효과의 적용 시작시간, 상기 개별적으로 적용될 오디오 효과의 적용 종료시간 및 상기 개별적으로 적용될 오디오 효과를 나타내는 정보를 포함하는 것을 특징으로 하는 오디오 생성장치.
  14. 제 10항에 있어서,
    상기 묘사 정보는,
    상기 오디오 객체들 각각에 대한 재생 구간들에 대한 정보가 각각 수록된 객체 묘사들을 더 포함하는 것을 특징으로 하는 오디오 생성장치.
  15. 제 14항에 있어서,
    재생 구간은,
    오디오 객체에 대한 첫 번째 재생 구간, 상기 첫 번째 재생 구간과 이격된 두 번째 재생 시작 구간을 포함하여, 상기 오디오 객체가 시간적으로 분할되어 재생되도록 정의되는 것을 특징으로 하는 오디오 생성장치.
  16. 제 15항에 있어서,
    상기 첫 번째 재생 구간과 상기 두 번째 재생 구간 사이에서, 상기 오디오 객체는 재생되지 않도록 정의되는 것을 특징으로 하는 오디오 생성장치.
  17. 제 10항에 있어서,
    상기 적어도 하나의 오디오 효과는, 오디오 편집자에 의해 결정되는 것을 특징으로 하는 오디오 생성장치.
  18. 제 10항에 있어서,
    상기 묘사 정보에는,
    다른 묘사 정보와 구별하기 위한 ID가 수록되어 있는 것을 특징으로 하는 오디오 생성장치.
  19. 오디오 비트스트림에 포함되어 있는 묘사 정보와 오디오 객체들을 분리하는 단계;
    상기 오디오 객체들을 압축해제하는 단계; 및
    상기 묘사 정보에 포함되어 있는 장면 효과에 수록되어 있는 오디오 효과를, 압축해제된 복수의 오디오 객체들 모두에 일괄적으로 적용하는 오디오 처리단계;를 포함하는 것을 특징으로 하는 오디오 재생방법.
  20. 제 19항에 있어서,
    상기 오디오 처리단계는,
    상기 압축해제된 오디오 객체들을 합성하여, 하나의 오디오 신호를 생성하는 단계; 및
    상기 오디오 신호에 상기 오디오 효과를 부여하여, 상기 오디오 효과를 상기 압축해제된 오디오 객체들 모두에 일괄적으로 적용하는 단계;를 포함하는 것을 특징으로 하는 오디오 재생방법.
  21. 제 20항에 있어서,
    상기 오디오 처리단계는,
    상기 오디오 신호 생성단계 수행 전에, 상기 묘사 정보에 포함된 객체 묘사들 각각에 포함된 오디오 효과들을 참조하여 상기 압축해제된 오디오 객체들 각각에 개별적으로 오디오 효과들을 적용하는 단계;를 더 포함하는 것을 특징으로 하는 오디오 재생방법.
  22. 제 20항에 있어서,
    상기 오디오 신호 생성단계는,
    상기 묘사 정보에 포함된 객체 묘사들 각각에 포함된 상기 압축해제된 오디오 객체들 각각에 대한 재생 구간을 기초로, 상기 압축해제된 오디오 객체들을 합 성하여, 하나의 오디오 신호를 생성하는 것을 특징으로 하는 오디오 재생방법.
  23. 제 22항에 있어서,
    재생 구간은,
    오디오 객체에 대한 첫 번째 재생 구간, 상기 첫 번째 재생 구간과 이격된 두 번째 재생 시작 구간을 포함하여,
    상기 오디오 신호 생성단계는,
    상기 오디오 객체가 시간적으로 분할되어 재생되게, 상기 압축해제된 오디오 객체들을 합성하는 것을 특징으로 하는 오디오 재생방법.
  24. 제 23항에 있어서,
    상기 오디오 신호 생성단계는,
    상기 첫 번째 재생 구간과 상기 두 번째 재생 구간 사이에서, 상기 오디오 객체는 재생되지 않도록, 상기 압축해제된 오디오 객체들을 합성하는 것을 특징으로 하는 오디오 재생방법.
  25. 제 19항에 있어서,
    상기 오디오 처리 단계는,
    사용자의 편집 내용을 기초로, 상기 압축해제된 오디오 객체들의 전부 또는 일부에 오디오 효과를 적용하는 것을 특징으로 하는 오디오 재생방법.
  26. 제 19항에 있어서,
    상기 묘사 정보에는,
    다른 묘사 정보와 구별하기 위한 ID가 수록되어 있는 것을 특징으로 하는 오디오 재생방법.
  27. 오디오 비트스트림에 포함되어 있는 묘사 정보와 오디오 객체들을 분리하는 디패킷화부;
    상기 오디오 객체들을 압축해제하는 오디오 디코더; 및
    상기 묘사 정보에 포함되어 있는 장면 효과에 수록되어 있는 오디오 효과를, 압축해제된 복수의 오디오 객체들 모두에 일괄적으로 적용하는 오디오 처리부;를 포함하는 것을 특징으로 하는 오디오 재생장치.
  28. 제 27항에 있어서,
    상기 오디오 처리부는,
    상기 압축해제된 오디오 객체들을 합성하여, 하나의 오디오 신호를 생성하고, 상기 오디오 신호에 상기 오디오 효과를 부여하여, 상기 오디오 효과를 상기 압축해제된 오디오 객체들 모두에 일괄적으로 적용하는 것을 특징으로 하는 오디오 재생장치.
  29. 제 28항에 있어서,
    상기 오디오 처리부는,
    상기 오디오 신호 생성 전에, 상기 묘사 정보에 포함된 객체 묘사들 각각에 포함된 오디오 효과들을 참조하여 상기 압축해제된 오디오 객체들 각각에 개별적으로 오디오 효과들을 적용하는 것을 특징으로 하는 오디오 재생장치.
  30. 제 28항에 있어서,
    상기 오디오 처리부는,
    상기 묘사 정보에 포함된 객체 묘사들 각각에 포함된 상기 압축해제된 오디오 객체들 각각에 대한 재생 구간을 기초로, 상기 압축해제된 오디오 객체들을 합성하여, 하나의 오디오 신호를 생성하는 것을 특징으로 하는 오디오 재생장치.
  31. 제 30항에 있어서,
    재생 구간은,
    오디오 객체에 대한 첫 번째 재생 구간, 상기 첫 번째 재생 구간과 이격된 두 번째 재생 시작 구간을 포함하여,
    상기 오디오 처리부는,
    상기 오디오 객체가 시간적으로 분할되어 재생되게, 상기 압축해제된 오디오 객체들을 합성하는 것을 특징으로 하는 오디오 재생장치.
  32. 제 31항에 있어서,
    상기 오디오 처리부는,
    상기 첫 번째 재생 구간과 상기 두 번째 재생 구간 사이에서, 상기 오디오 객체는 재생되지 않도록, 상기 압축해제된 오디오 객체들을 합성하는 것을 특징으로 하는 오디오 재생장치.
  33. 제 27항에 있어서,
    상기 오디오 처리부는,
    사용자의 편집 내용을 기초로, 상기 압축해제된 오디오 객체들의 전부 또는 일부에 오디오 효과를 적용하는 것을 특징으로 하는 오디오 재생장치.
  34. 제 27항에 있어서,
    상기 묘사 정보에는,
    다른 묘사 정보와 구별하기 위한 ID가 수록되어 있는 것을 특징으로 하는 오디오 재생장치.
  35. 삭제
  36. 삭제
  37. 삭제
  38. 삭제
  39. 삭제
  40. 삭제
  41. 삭제
  42. 삭제
  43. 삭제
  44. 삭제
  45. 삭제
  46. 삭제
  47. 삭제
  48. 삭제
  49. 삭제
  50. 삭제
KR1020090044162A 2009-05-20 2009-05-20 오디오 생성방법, 오디오 생성장치, 오디오 재생방법 및 오디오 재생장치 KR101040086B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020090044162A KR101040086B1 (ko) 2009-05-20 2009-05-20 오디오 생성방법, 오디오 생성장치, 오디오 재생방법 및 오디오 재생장치
US12/760,154 US20100298960A1 (en) 2009-05-20 2010-04-14 Method and apparatus for generating audio, and method and apparatus for reproducing audio

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020090044162A KR101040086B1 (ko) 2009-05-20 2009-05-20 오디오 생성방법, 오디오 생성장치, 오디오 재생방법 및 오디오 재생장치

Publications (2)

Publication Number Publication Date
KR20100125118A KR20100125118A (ko) 2010-11-30
KR101040086B1 true KR101040086B1 (ko) 2011-06-09

Family

ID=43125106

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020090044162A KR101040086B1 (ko) 2009-05-20 2009-05-20 오디오 생성방법, 오디오 생성장치, 오디오 재생방법 및 오디오 재생장치

Country Status (2)

Country Link
US (1) US20100298960A1 (ko)
KR (1) KR101040086B1 (ko)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2891149A1 (en) 2012-08-31 2015-07-08 Dolby Laboratories Licensing Corporation Processing audio objects in principal and supplementary encoded audio signals

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20030037614A (ko) * 2001-11-07 2003-05-14 김상욱 엠펙(mpeg)-4 컨텐츠 생성 방법 및 그 장치
JP2006014180A (ja) * 2004-06-29 2006-01-12 Canon Inc データ処理装置、データ処理方法及びそのプログラム

Family Cites Families (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6490359B1 (en) * 1992-04-27 2002-12-03 David A. Gibson Method and apparatus for using visual images to mix sound
US6441830B1 (en) * 1997-09-24 2002-08-27 Sony Corporation Storing digitized audio/video tracks
CN1319051C (zh) * 1997-11-21 2007-05-30 日本胜利株式会社 音频信号的编码装置、唱盘以及盘重放装置
US6654931B1 (en) * 1998-01-27 2003-11-25 At&T Corp. Systems and methods for playing, browsing and interacting with MPEG-4 coded audio-visual objects
US6307141B1 (en) * 1999-01-25 2001-10-23 Creative Technology Ltd. Method and apparatus for real-time beat modification of audio and music signals
US7689510B2 (en) * 2000-09-07 2010-03-30 Sonic Solutions Methods and system for use in network management of content
EP1354318A1 (en) * 2000-12-22 2003-10-22 Muvee Technologies Pte Ltd System and method for media production
JP4423790B2 (ja) * 2001-01-11 2010-03-03 ソニー株式会社 実演システム、ネットワークを介した実演方法
GB2373154B (en) * 2001-01-29 2005-04-20 Hewlett Packard Co Audio user interface with mutable synthesised sound sources
WO2002091352A2 (en) * 2001-05-04 2002-11-14 Realtime Music Solutions, Llc Music performance system
KR100889438B1 (ko) * 2001-09-11 2009-03-24 톰슨 라이센싱 자동적 균등화 모드 활성화를 위한 방법 및 장치
KR100836574B1 (ko) * 2002-10-24 2008-06-10 도꾸리쯔교세이호진 상교기쥬쯔 소고겡뀨죠 악곡재생방법, 장치 및 음악음향데이터 중의 대표 모티프구간 검출방법
EP1427252A1 (en) * 2002-12-02 2004-06-09 Deutsche Thomson-Brandt Gmbh Method and apparatus for processing audio signals from a bitstream
US7492915B2 (en) * 2004-02-13 2009-02-17 Texas Instruments Incorporated Dynamic sound source and listener position based audio rendering
US8117282B2 (en) * 2004-10-20 2012-02-14 Clearplay, Inc. Media player configured to receive playback filters from alternative storage mediums
US7437290B2 (en) * 2004-10-28 2008-10-14 Microsoft Corporation Automatic censorship of audio data for broadcast
US7928311B2 (en) * 2004-12-01 2011-04-19 Creative Technology Ltd System and method for forming and rendering 3D MIDI messages
US7724885B2 (en) * 2005-07-11 2010-05-25 Nokia Corporation Spatialization arrangement for conference call
PL1938661T3 (pl) * 2005-09-13 2014-10-31 Dts Llc System i sposób przetwarzania dźwięku
KR100677622B1 (ko) * 2005-12-02 2007-02-02 삼성전자주식회사 오디오 파일의 이퀄라이저 설정 방법 및 이를 이용한오디오 파일 재생 방법
KR20080074975A (ko) * 2005-12-09 2008-08-13 소니 가부시끼 가이샤 음악 편집 장치, 음악 편집 정보의 작성 방법, 및 음악편집 정보가 기록된 기록 매체
JP4914124B2 (ja) * 2006-06-14 2012-04-11 パナソニック株式会社 音像制御装置及び音像制御方法
US8315396B2 (en) * 2008-07-17 2012-11-20 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Apparatus and method for generating audio output signals using object based metadata
GB0817950D0 (en) * 2008-10-01 2008-11-05 Univ Southampton Apparatus and method for sound reproduction
US8626322B2 (en) * 2008-12-30 2014-01-07 Apple Inc. Multimedia display based on audio and visual complexity
US8504184B2 (en) * 2009-02-04 2013-08-06 Panasonic Corporation Combination device, telecommunication system, and combining method

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20030037614A (ko) * 2001-11-07 2003-05-14 김상욱 엠펙(mpeg)-4 컨텐츠 생성 방법 및 그 장치
JP2006014180A (ja) * 2004-06-29 2006-01-12 Canon Inc データ処理装置、データ処理方法及びそのプログラム

Also Published As

Publication number Publication date
US20100298960A1 (en) 2010-11-25
KR20100125118A (ko) 2010-11-30

Similar Documents

Publication Publication Date Title
CN103649706B (zh) 三维音频音轨的编码及再现
US9135953B2 (en) Method for creating, editing, and reproducing multi-object audio contents files for object-based audio service, and method for creating audio presets
JP5646699B2 (ja) マルチチャネル・パラメータ変換のための装置および方法
CN102100088B (zh) 用于使用基于对象的元数据产生音频输出信号的装置和方法
RU2617553C2 (ru) Система и способ для генерирования, кодирования и представления данных адаптивного звукового сигнала
EP2501128B1 (en) Object-based 3-dimensional audio service system using preset audio scenes
US8705747B2 (en) Object-based 3-dimensional audio service system using preset audio scenes
EP2382803A1 (en) Method and apparatus for three-dimensional acoustic field encoding and optimal reconstruction
KR20140028094A (ko) 다객체 오디오 신호의 부가정보 비트스트림 생성 방법 및 장치
JP2003513325A (ja) マルチチャネル・オーディオ環境において対話型オーディオを提供するシステムおよび方法
KR102172279B1 (ko) 스케일러블 다채널 오디오 신호를 지원하는 부호화 장치 및 복호화 장치, 상기 장치가 수행하는 방법
US7606716B2 (en) Systems and methods for multi-dialog surround audio
US20230232182A1 (en) Spatial Audio Capture, Transmission and Reproduction
Olivieri et al. Scene-based audio and higher order ambisonics: A technology overview and application to next-generation audio, vr and 360 video
Riedmiller et al. Delivering scalable audio experiences using AC-4
KR101040086B1 (ko) 오디오 생성방법, 오디오 생성장치, 오디오 재생방법 및 오디오 재생장치
KR101114431B1 (ko) 실시간 스트리밍을 위한 오디오 생성장치, 오디오 재생장치 및 그 방법
JP2021129127A (ja) 受信装置、送信装置、受信方法、送信方法、およびプログラム
US8838460B2 (en) Apparatus for playing and producing realistic object audio
KR20090066190A (ko) 대화형 오디오 송/수신 장치 및 그 방법

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20131231

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20150109

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20151224

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20170512

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20180406

Year of fee payment: 8