KR20070022580A - 데이터 재생방법 및 재생장치, 기록매체와 데이터 기록방법및 기록장치 - Google Patents

데이터 재생방법 및 재생장치, 기록매체와 데이터 기록방법및 기록장치 Download PDF

Info

Publication number
KR20070022580A
KR20070022580A KR1020060034477A KR20060034477A KR20070022580A KR 20070022580 A KR20070022580 A KR 20070022580A KR 1020060034477 A KR1020060034477 A KR 1020060034477A KR 20060034477 A KR20060034477 A KR 20060034477A KR 20070022580 A KR20070022580 A KR 20070022580A
Authority
KR
South Korea
Prior art keywords
audio
video
recording medium
stream
data
Prior art date
Application number
KR1020060034477A
Other languages
English (en)
Inventor
김건석
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR1020060034477A priority Critical patent/KR20070022580A/ko
Priority to BRPI0615070A priority patent/BRPI0615070A2/pt
Priority to EP06769353A priority patent/EP1924993A4/en
Priority to US11/506,897 priority patent/US20070041712A1/en
Priority to PCT/KR2006/003276 priority patent/WO2007024076A2/en
Priority to US11/506,882 priority patent/US20070041279A1/en
Priority to JP2008527840A priority patent/JP2009505325A/ja
Priority to TW095130880A priority patent/TW200735048A/zh
Publication of KR20070022580A publication Critical patent/KR20070022580A/ko
Priority to US11/978,646 priority patent/US20080063369A1/en

Links

Images

Classifications

    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B20/00Signal processing not specific to the method of recording or reproducing; Circuits therefor
    • G11B20/10Digital recording or reproducing
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/102Programmed access in sequence to addressed parts of tracks of operating record carriers
    • G11B27/105Programmed access in sequence to addressed parts of tracks of operating record carriers of operating discs
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/11Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information not detectable on the record carrier
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/19Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
    • G11B27/28Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
    • G11B27/32Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording on separate auxiliary tracks of the same or an auxiliary record carrier
    • G11B27/322Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording on separate auxiliary tracks of the same or an auxiliary record carrier used signal is digitally coded
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B7/00Recording or reproducing by optical means, e.g. recording using a thermal beam of optical radiation by modifying optical properties or the physical structure, reproducing using an optical beam at lower power by sensing optical properties; Record carriers therefor
    • G11B7/004Recording, reproducing or erasing methods; Read, write or erase circuits therefor
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B7/00Recording or reproducing by optical means, e.g. recording using a thermal beam of optical radiation by modifying optical properties or the physical structure, reproducing using an optical beam at lower power by sensing optical properties; Record carriers therefor
    • G11B7/004Recording, reproducing or erasing methods; Read, write or erase circuits therefor
    • G11B7/0045Recording
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B7/00Recording or reproducing by optical means, e.g. recording using a thermal beam of optical radiation by modifying optical properties or the physical structure, reproducing using an optical beam at lower power by sensing optical properties; Record carriers therefor
    • G11B7/004Recording, reproducing or erasing methods; Read, write or erase circuits therefor
    • G11B7/005Reproducing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/426Internal components of the client ; Characteristics thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/426Internal components of the client ; Characteristics thereof
    • H04N21/42646Internal components of the client ; Characteristics thereof for reading from or writing on a non-volatile solid state storage medium, e.g. DVD, CD-ROM
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/4302Content synchronisation processes, e.g. decoder synchronisation
    • H04N21/4307Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen
    • H04N21/43072Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen of multiple content streams on the same device
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4312Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
    • H04N21/4316Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations for displaying supplemental content in a region of the screen, e.g. an advertisement in a separate window
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/432Content retrieval operation from a local storage medium, e.g. hard-disk
    • H04N21/4325Content retrieval operation from a local storage medium, e.g. hard-disk by playing back content from the storage medium
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/435Processing of additional data, e.g. decrypting of additional data, reconstructing software from modules extracted from the transport stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/439Processing of audio elementary streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/45Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
    • H04N21/462Content or additional data management, e.g. creating a master electronic program guide from data received from the Internet and a Head-end, controlling the complexity of a video stream by scaling the resolution or bit-rate based on the client capabilities
    • H04N21/4622Retrieving content or additional data from different sources, e.g. from a broadcast channel and the Internet
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/8106Monomedia components thereof involving special audio data, e.g. different tracks for different languages
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/84Generation or processing of descriptive data, e.g. content descriptors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • H04N5/445Receiver circuitry for the reception of television signals according to analogue transmission standards for displaying additional information
    • H04N5/45Picture in picture, e.g. displaying simultaneously another television channel in a region of the screen
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/87Regeneration of colour television signals
    • H04N9/8715Regeneration of colour television signals involving the mixing of the reproduced video signal with a non-recorded signal, e.g. a text signal
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B2220/00Record carriers by type
    • G11B2220/20Disc-shaped record carriers
    • G11B2220/25Disc-shaped record carriers characterised in that the disc is based on a specific recording technology
    • G11B2220/2537Optical discs
    • G11B2220/2541Blu-ray discs; Blue laser DVR discs
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/775Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television receiver
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/84Television signal recording using optical recording
    • H04N5/85Television signal recording using optical recording on discs or drums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/804Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components
    • H04N9/8042Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components involving data reduction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/804Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components
    • H04N9/806Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components with processing of the sound signal
    • H04N9/8063Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components with processing of the sound signal using time division multiplex of the PCM audio and PCM video signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/82Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
    • H04N9/8205Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/82Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
    • H04N9/8205Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal
    • H04N9/8211Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal the additional signal being a sound signal
    • H04N9/8216Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal the additional signal being a sound signal using time division multiplex
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/82Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
    • H04N9/8205Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal
    • H04N9/8227Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal the additional signal being at least another television signal

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Databases & Information Systems (AREA)
  • Business, Economics & Management (AREA)
  • Marketing (AREA)
  • Signal Processing For Digital Recording And Reproducing (AREA)
  • Television Signal Processing For Recording (AREA)

Abstract

본 발명은 제 1 비디오와 제 2 비디오를 함께 재생하는 데이터 재생방법 및 데이터 재생장치, 기록매체와 데이터 기록방법 및 기록방법을 제공한다.
본 발명은 제 1 비디오와 제 2 비디오 및 제 1 오디오와 제 2 오디오를 함께 재생함에 있어서, 기록매체 및/또는 스토리지로부터 관리데이터를 독출하는 단계; 상기 관리데이터에 포함된, 함께 재생되는 것이 허용되는 제 2 비디오/제 2 오디오 조합정보를 확인하는 단계; 상기 조합정보에 정의된 제 2 오디오 중 어느 하나를 디코딩하는 단계를 포함하는 것을 특징으로 하는 데이터 재생방법을 제공한다.
따라서, 상기 본 발명에 따르면 제 2 비디오를 제 2 오디오와 함께 재생하는 것이 가능해진다. 또한, 콘텐츠 제공자로 하여금 비디오와 함께 재생되는 오디오를 제어할 수 있도록 하는 장점이 있다.
광디스크, PiP, 오디오 믹싱

Description

데이터 재생방법 및 재생장치, 기록매체와 데이터 기록방법 및 기록장치{Method and apparatus for reproducing data, recording medium and method and eapparatus for recording data}
도 1은 본 발명의 광기록재생장치와 주변기간의 통합적 사용의 일 실시예를 도시한 것이다.
도 2는 본 발명의 기록매체로서 광 디스크에 기록되는 파일구조를 도시한 것이다.
도 3은 본 발명의 기록매체로서 광 디스크의 기록구조를 도시한 것이다.
도 4는 본 발명의 제 2 비디오에 관한 개념적 이해를 돕기 위해 도시한 것이다.
도 5는 본 발명의 제 2 비디오의 스트림엔트리를 포함한 테이블의 일 실시예를 도시한 것이다.
도 6은 본 발명의 제 2 비디오 메타데이터의 일 실시예를 도시한 것이다.
도 7은 본 발명의 광기록재생장치(10)의 전체 구성에 관한 일 실시예를 도시한 것이다.
도 8은 본 발명의 AV 디코더 모델을 개략적으로 도시한 것이다.
도 9은 본 발명의 오디오 믹싱 모델의 전체 구성을 도시한 것이다.
도 10a ~ 도 10b는 본 발명의 데이터 인코딩 방법의 실시예를 도시한 것이다.
도 11은 본 발명의 재생시스템(playback system)을 설명하기 위해 도시한 것이다.
도 12은 본 발명의 광기록재생장치에 구비된 상태 메모리 유닛의 일 실시예를 도시한 것이다.
도 13a ~ 도 13c은 본 발명에 따른 서브패스타입을 도시한 것이다.
도 14는 본 발명에 따른 데이터 재생방법의 흐름을 도시한 것이다.
*도면의 주요부분에 대한 부호의 설명
11 : 픽업 12 : 제어부
13 : 신호처리부 15 : 스토리지
17 : 재생시스템(playback system)
17a : 플레이어 모델(Player Model)
17b: AV 디코더(AV decoder)
410 : 제 1 비디오(Primary Video)
420 : 제 2 비디오(Secondary Video)
730a : 제 1 비디오 디코더(Primary Video Decoder)
730b : 제 2 비디오 디코더(Secondary Video Decoder)
740e : 제 1 오디오 디코더(Primary Audio Decoder)
740f : 제 2 오디오 디코더(Secondary Audio Decoder)
750a : 제 1 오디오 믹서(M1)
본 발명은 복수의 비디오를 함께 재생함에 있어서, 부수적인 비디오와 관련된 오디오를 상기 비디오와 함께 재생하는 데이터 재생방법 및 재생장치, 기록매체, 데이터 기록방법 및 기록장치에 관한 것이다.
기록매체로서 대용량의 데이터를 기록할 수 있는 광 디스크가 널리 사용되고 있다. 그 중에서도 최근에는 고화질의 비디오 데이터와 고음질의 오디오 데이터를 장시간 동안 기록하여 저장할 수 있는 새로운 고밀도 기록매체, 예를 들어 블루레이 디스크(BD: Blu-ray Disc)와 고밀도 디지털 비디오 디스크(HD-DVD: High Definition Digital Versatile Disc) 등이 개발되고 있다.
차세대 기록매체 기술인 고밀도 기록매체는 기존의 DVD를 현저하게 능가하는 데이터를 구비할 수 있는 차세대 광기록 솔루션으로 근래에 다른 디지털기기와 함께 이에 대한 개발이 진행되고 있다. 또한, 고밀도 기록매체 규격을 응용한 광기록재생장치의 개발도 시작되었다.
관련하여, 고밀도 기록매체와 광기록재생장치의 개발에 따라, 상기 고밀도 기록매체와 관련된 복수의 비디오를 동시에 재생하는 것이 가능해졌다. 그러나, 아직 복수의 비디오를 함께 기록하고나 재생하는 바람직한 방법 등이 알려진바 없어, 고밀도 기록매체 규격이 완전히 완비되지 못한 관계로, 본격적인 고밀도 기록매체 기반의 완성된 광기록재생장치를 개발하는 데 어려움이 따르는 것이 사실이다.
본 발명은 상기와 같은 실정을 감안하여 창작된 것으로서, 복수의 비디오를 함께 재생하는 바람직한 방법을 제공하는 데 그 목적이 있다.
또한, 본 발명은 제 2 비디오와 관련된 제 2 오디오를 상기 제 2 비디오와 함께 재생하는 데이터 재생방법 및 재생장치, 기록매체, 데이터 기록방법 및 기록장치를 제공하고자 한다.
상기 목적을 달성하기 위하여, 본 발명은 제 1 비디오와 제 2 비디오 및 제 1 오디오와 제 2 오디오를 함께 재생함에 있어서, 기록매체 및/또는 스토리지로부터 관리데이터를 독출하는 단계; 상기 관리데이터에 포함된, 함께 재생되는 것이 허용되는 제 2 비디오/제 2 오디오 조합정보를 확인하는 단계; 상기 조합정보에 정의된 제 2 오디오 중 어느 하나를 디코딩하는 단계를 포함하는 것을 특징으로 하는 데이터 재생방법을 제공한다.
또한, 상기 확인하는 단계에서, 상기 조합정보에 정의된 제 2 오디오와의 믹싱이 허용되는 제 1 오디오 정보를 더 확인할 수 있다.
또한, 상기 제 1 오디오와 상기 제 2 오디오는 커맨드 셋에 의해 믹싱레벨이 조절될 수 있다.
또한, 상기 제 1 오디오은 커맨드 셋에 의해 출력이 온/오프될 수 있다.
또한, 상기 제 2 오디오는 커맨드 셋에 의해 출력이 온/오프될 수 있다.
또한, 상기 조합정보는 상기 관리데이터 중, 상기 제 2 비디오의 스트림엔트리를 포함하는 스트림넘버테이블에 포함될 수 있다.
또한, 본 발명은 제 1 비디오와 제 2 비디오 및 제 1 오디오와 제 2 오디오를 함께 재생함에 있어서, 상기 제 1 비디오를 디코딩하는 제 1 비디오 디코더와 상기 제 2 비디오를 디코딩하는 제 2 비디오 디코더; 상기 제 1 오디오를 디코딩하는 제 1 오디오 디코더와 상기 제 2 오디오를 디코딩하는 제 2 오디오 디코더; 상기 제 1 오디오와 상기 제 2 오디오를 믹싱하는 믹서; 기록매체 및/또는 스토리지로부터 관리데이터를 독출하고, 상기 관리데이터에 포함된 함께 재생되는 것이 허용되는 제 2 비디오/제 2 오디오 조합정보를 확인하고, 상기 조합정보에 정의된 제 2 오디오 중 어느 하나를 디코딩하도록 제어하는 제어부를 포함하는 것을 특징으로 하는 데이터 재생장치를 제공한다.
또한, 상기 제어부는 상기 관리데이터에 포함된, 상기 조합정보에 정의된 제 2 오디오와의 믹싱이 허용되는 제 1 오디오 정보를 더 확인할 수 있다.
또한, 상기 제어부는 커맨드 셋을 이용하여 상기 제 1 오디오와 상기 제 2 오디오의 믹싱레벨을 조절할 수 있다.
또한, 상기 제어부는 커맨드 셋을 이용하여, 상기 제 1 오디오의 출력을 온/오프할 수 있다.
또한, 상기 제어부는 커맨드 셋을 이용하여, 상기 제 2 오디오의 출력을 온/오프할 수 있다.
또한, 상기 제어부는 상기 조합정보를 상기 관리데이터 중, 상기 제 2 비디 오의 스트림엔트리를 포함하는 스트림넘버테이블로부터 확인할 수 있다.
또한, 본 발명은 제 1 비디오와 제 2 비디오 및 제 1 오디오와 제 2 오디오가 저장된 스트림영역과 관리파일이 저장된 관리영역을 구비하되, 상기 관리영역에는 함께 재생되는 것이 허용되는 제 2 비디오/제 2 오디오 조합정보를 포함하는 관리데이터가 저장되고, 상기 조합정보에 정의된 제 2 오디오가 상기 스트림영역에 저장된 것을 특징으로 하는 기록매체를 제공한다.
또한, 상기 관리데이터는 상기 조합정보에 정의된 제 2 오디오와 믹싱이 허용되는 제 1 오디오 정보를 더 포함할 수 있다.
또한, 상기 기록매체는 상기 제 1 오디오와 상기 제 2 오디오의 믹싱레벨을 조절하는 커맨드 셋을 포함할 수 있다.
또한, 상기 기록매체는 상기 제 1 오디오의 출력을 온/오프하는 커맨드 셋을 포함할 수 있다.
또한, 상기 기록매체는 상기 제 2 오디오의 출력을 온/오프하는 커맨드 셋을 포함할 수 있다.
또한, 상기 조합정보는 상기 관리데이터 중, 상기 제 2 비디오의 스트림엔트리를 포함하는 스트림넘버테이블에 포함될 수 있다.
또한, 본 발명은 제 1 비디오와 제 2 비디오 및 제 1 오디오와 제 2 오디오를 기록매체에 기록함에 있어서, 함께 재생되는 것이 허용되는 제 2 비디오/제 2 오디오 조합정보를 포함하는 관리데이터를 생성하여 상기 기록매체에 기록하고, 상기 조합정보에 정의된 제 2 오디오를 상기 제 1 비디오 및 제 2 오디오와 함께 상 기 기록매체에 기록하는 것을 특징으로 하는 데이터 기록방법을 제공한다.
또한, 상기 관리데이터는 상기 조합정보에 정의된 제 2 오디오와 믹싱이 허용되는 제 1 오디오 정보를 더 포함할 수 있다.
또한, 상기 제 1 오디오와 상기 제 2 오디오의 믹싱과정에서의 믹싱레벨을 조절하는 커맨드 셋을 상기 기록매체에 더 기록할 수 있다.
또한, 상기 제 1 오디오의 출력을 온/오프하는 커맨드 셋을 상기 기록매체에 더 기록할 수 있다.
또한, 상기 제 2 오디오를 온/오프하는 커맨드 셋을 상기 기록매체에 기록할 수 있다.
또한, 상기 조합정보를 상기 관리데이터 중, 상기 제 2 비디오의 스트림엔트리를 포함하는 스트림넘버테이블에 포함시켜 기록할 수 있다.
또한, 본 발명은 제 1 비디오와 제 2 비디오 및 제 1 오디오와 제 2 오디오를 기록매체에 기록함에 있어서, 상기 기록매체에 데이터를 기록하는 기록부; 함께 재생되는 것이 허용되는 제 2 비디오/제 2 오디오 조합정보를 포함하는 관리데이터를 생성하고, 상기 관리데이터를 상기 조합정보에 정의된 제 2 오디오와 함께 상기 기록매체에 기록하도록 제어하는 제어부를 포함하는 것을 특징으로 하는 데이터 기록장치를 제공한다.
또한, 상기 제어부는 상기 조합정보에 정의된 제 2 오디오와 믹싱이 허용되는 제 1 오디오 정보를 상기 관리데이터에 포함시켜 상기 기록매체에 기록하도록 제어할 수 있다.
또한, 상기 제어부는 상기 제 1 오디오와 상기 제 2 오디오의 믹싱과정에서의 믹싱레벨을 조절하는 커맨드 셋을 상기 기록매체에 기록하도록 제어할 수 있다.
또한, 상기 제어부는 상기 제 1 오디오의 출력을 온/오프하는 커맨드 셋을 상기 기록매체에 기록하도록 제어할 수 있다.
또한, 상기 제어부는 상기 제 2 오디오를 온/오프하는 커맨드 셋을 상기 기록매체에 기록하도록 제어할 수 있다.
또한, 상기 제어부는 상기 조합정보를 상기 관리데이터 중, 상기 제 2 비디오의 스트림엔트리를 포함하는 스트림넘버테이블에 포함시켜 기록하도록 제어할 수 있다.
이하, 본 발명은 설명의 편의를 위해 기록매체로서 광 디스크(optical disc) 특히 "블루레이 디스크(BD)"를 예로 하여 설명하고자 하나, 본 발명의 기술사상은 HD-DVD 등 다른 기록매체에도 동일하게 적용가능함은 자명하다 할 것이다.
관련하여, 본 발명에서 "스토리지(Storage)"라 함은, 광기록재생장치(10) 내에 구비된 일종의 저장수단으로서, 필요한 정보 및 데이터를 사용자가 임의로 저장하여 활용할 수 있는 요소를 의미한다. 즉, 현재 일반적으로 사용되는 스토리지로는 "하드디스크(hard disk)", "시스템 메모리(system memory)", "플래쉬 메모리(flash memory)"등이 있을 수 있으나, 본 발명이 반드시 이에 한정되는 것은 아니다.
특히, 본 발명과 관련하여, 상기 "스토리지(Storage)"는 기록매체(예를 들어, 블루레이 디스크)와 연관된 데이터를 저장하는 수단으로도 활용되며, 상기 기 록매체와 연관되어 스토리지 내에 저장되는 데이터는 외부로부터 다운로드(download) 받은 데이터가 일반적이다.
관련하여, 기록매체로부터 일부 허용된 데이터를 직접 독출하거나, 또는 기록매체의 기록재생과 관련된 시스템데이터(예를 들어, 메타데이터(metadata) 등)를 생성하여, 스토리지 내에 저장하는 것도 가능함은 자명하다.
관련하여, 본 발명에서는 설명의 편의를 위해, 상기 기록매체 내에 기록된 데이터를 "오리지널 데이터(original data)"로 명명하고, 상기 스토리지 내에 저장된 데이터 중 기록매체와 관련된 데이터를 "어디셔널 데이터(additional data)"로 명명하고자 한다.
또한, 본 발명에서 "타이틀(Title)"이라 함은, 사용자와의 인터페이스를 이루는 재생단위를 말한다. 각각의 타이틀은 특정의 오브젝트(Object)와 링크(link)되어 있다. 상기 오브젝트(Object) 내의 커맨드(command) 혹은 프로그램에 따라 디스크 내 기록된 해당 타이틀에 관련된 스트림이 재생된다. 특히, 본 발명에서는 설명의 편의를 위해 디스크 내에 기록된 타이틀 중 엠펙(MPEG) 압축방식에 의한 고화질의 동영상 정보가 기록된 타이틀을 특히 "HDMV 타이틀(Title)"이라 명한다. 또한, 기록매체 내 타이틀의 업데이트 또는 네트워크와의 연결성을 지원하여 높은 인터액티버티를 가능하게 하는 Java 프로그램 정보가 기록된 타이틀을 "BD-J 타이틀(BD-J Title)"이라 명할 것이다.
도 1은 본 발명의 광기록재생장치와 주변기간의 통합적 사용의 일 실시예를 도시한 것이다.
관련하여, 본 발명의 "광기록재생장치(10)"는 여러 가지 규격의 광 디스크를 기록하거나 재생 가능한 기기이다. 설계에 따라서는 특정규격(예를 들면, BD)의 광 디스크만을 기록재생 가능하게 할 수도 있으며, 또한 기록은 제외하고 재생만 하는 것도 가능하다. 그러나, 특히 본 발명에서 해결하고자 하는 블루레이 디스크(BD)와 주변기기와의 연계성을 고려하여 이하 블루레이 디스크(BD)를 재생하는 플레이어(BD-Player) 또는 블루레이 디스크(BD)를 기록재생하는 리코더(BD-Recorder)를 예로 하여 설명한다. 관련하여, 본 발명의 "광기록재생장치(10)"는 컴퓨터 등에 내장가능한 "드라이브(drive)"가 될 수 있음은 이미 널리 알려진 자명한 사실이다.
본 발명의 광기록재생장치(10)는 광 디스크(30)를 기록재생하는 기능 이외에도, 외부입력신호를 수신받아 이를 신호처리한 후 또 다른 외부 디스플레이어(20)를 통해 사용자에게 화면으로 전달하는 기능을 가지게 된다. 이 경우 입력가능한 외부신호에 대해서는 특별한 제한은 없으나, 디지털 방송(Digital multimedia broadcasting) 및 인터넷(Internet) 등이 대표적인 외부입력신호가 될 것이다. 특히, 인터넷(Internet)의 경우 현재 누구나 손쉽게 접근할 수 있는 매체로서 광기록재생장치(10)를 통해 인터넷(Internet)상의 특정 데이터를 다운로드(download) 받아 활용할 수 있게 된다.
관련하여, 외부입력 소스(external source)로서 콘텐츠(content)를 제공하는 자를 총칭하여 "콘텐츠 제공자(CP:content provider)"로 명명한다.
또한, 본 발명에서 콘텐츠(content)라 함은 타이틀을 구성하는 내용으로서 기록매체의 제작자(author)에 의해 제공되는 데이터(data)를 의미한다.
오리지널 데이터와 어디셔널 데이터에 대해 구체적으로 설명하면 다음과 같다. 예를 들어 광 디스크 내에 기록된 오리지널 데이터로는 특정 타이틀용의 멀티플렉싱된(multiplexed) AV스트림을 기록해두고, 인터넷상의 어디셔널 데이터로는 상기 오리지널 데이터의 오디오 스트림(예를 들어, 한국어)과 상이한 오디오 스트림(예를 들어, 영어)을 제공될 수 있다. 사용자에 따라서는 인터넷상의 어디셔널 데이터인 오디오 스트림(예를 들어, 영어)을 다운로드 받아, 오리지널 테이터인 AV스트림과 함께 재생하거나, 또는 어디셔널 데이터만 재생하고자 하는 요구가 존재할 것이다. 이를 가능케 하기 위해서는 상기 오리지널 데이터와 어디셔널 데이터 간의 연관성을 규정하고, 이들 데이터들을 사용자의 요구에 따라 관리/재생하는 체계화된 방법이 필요하게 된다.
상기에서 설명의 편의를 위해 디스크 내에 기록된 신호를 오리지널 데이터로 하고, 디스크 외부에 존재하는 신호를 어디셔널 데이터라고 명명하였다. 그러나, 이는 각각의 데이터를 취득하는 방법에 따라 구분될 따름이지 오리지널 데이터와 어디셔널 데이터가 반드시 특정의 데이터로 한정되는 것은 아니라 할 것이다. 따라서, 광 디스크 외부에 존재하면서, 오리지널 데이터와 연관된 어떠한 속성의 데이터도 어디셔널 데이터로 가능하게 된다.
관련하여, 상기 사용자의 요구를 실현 가능케 하기 위하여는 오리지널 데이터와 어디셔널 데이터 상호 간에 연관된 파일구조를 가짐이 필수적이라 할 것인바, 이하 도 2 ~ 도 3을 통해 블루레이 디스크(BD)에서 사용가능한 파일구조 및 데이터 기록구조에 대해 상세히 설명하면 다음과 같다.
먼저, 도 2는 디스크 내에 기록된 오리지널 데이터를 재생관리 하기 위한 파일구조를 나타낸 것이다.
즉, 본 발명의 파일구조는, 하나의 루트 디렉토리(root directory) 아래에 적어도 하나 이상의 BDMV 디렉토리(BDMV)가 존재한다. 상기 BDMV디렉토리(BDMV)에는 사용자와의 인터액티브티(interactivity)를 보장하기 위한 일반파일(상위파일) 정보로서 인덱스 파일("index")과 오브젝트 파일("MovieObjet")을 존재한다. 아울러, 실제 디스크 내에 기록된 데이터에 대한 정보와 이를 재생하는 방법 등에 대한 정보를 가지는 디렉토리로서, 플레이리스트 디렉토리(PLAYLIST), 클립인포 디렉토리(CLIPINF), 스트림 디렉토리(STREAM), 보조 디렉토리(AUXDATA), BD-J 오브젝트 디렉토리(BDJO), 메타데이터 디렉토리(META) 및 백업 디렉토리(BACKUP)가 구비되어 있다. 이하 상기 디렉토리 및 디렉토리 내에 포함되는 파일에 대해 상세히 설명하면 다음과 같다.
메타데이터 디렉토리(META)는 데이터에 대한 데이터(data about a data)인 메타데이터(metadata) 파일을 포함한다. 상기 메타데이터 파일로는 서치(Search)파일, 디스크 라이브러리(Disc Library)를 위한 메타데이터 파일 등이 있으며, 데이터의 기록재생시, 데이터의 효율적 서치 또는 관리에 이용되게 된다.
BD-J 오브젝트 디렉토리(BDJO)는 BD-J 타이틀을 재생하기 위한 BD-J 오브젝트 파일을 포함한다.
보조 디렉토리(AUXDATA)는, 디스크 재생에 필요한 부가적인 데이터 파일을 포함한다. 예를 들어, 인터액티브 그래픽(interactive graphic)의 실행시에 사운드 를 제공하는 "Sound.bdmv" 파일, 디스크 재생시 폰트(font) 정보를 제공하는 "11111.otf"파일등이 있다.
스트림 디렉토리(STREAM)는, 디스크 내에 특정 포맷으로 기록된 AV 스트림에 대한 파일들이 존재한다. 각각의 스트림은 현재 널리 알려진 MPEG-2 방식의 트랜스포트(Transport) 패킷(packet)으로 기록되는 경우가 가장 일반적이다. 스트림 파일 (01000.m2ts, 02000.m2ts)의 확장명으로 "*.m2ts" 로 사용한다. 특히, 상기 스트림 중에 비디오/오디오/그래픽 정보가 멀티플렉싱된(multiplexed) 스트림을 AV스트림이라 한다. 적어도 하나 이상의 AV스트림 파일들로서 타이틀(Title)을 구성하게 된다.
클립인포 디렉토리(CLIPINF)는 상기 각각의 스트림 파일("*.m2ts")과 일대일 대응하는 클립인포 파일(01000.clpi, 02000.clpi)들로 구성된다. 특히, 클립인포 파일("*.clpi")은 대응하는 스트림 파일("*.m2ts")의 속성정보 및 타임정보 (timing information)등을 기록하게 된다. 관련하여, 스트림 파일("*.m2ts")과 스트림 파일("*.m2ts")에 일대일 대응하는 클립인포 파일("*.clpi")을 묶어 이를 "클립(clip)"이라고 명명한다. 즉, "클립(clip)"은 스트림 파일("*.m2ts")과 이에 클립인포파일("*.clpi")을 모두 포함한 데이터가 된다.
플레이리스트 디렉토리(PLAYLIST)는 플레이리스트 파일("*.mpls")들을 포함한다. 플레이리스트는 클립(clips)이 재생되는 시간(playing interval)의 조합을 말한다. 상기 재생되는 시간을 플레이아이템(PlayItem)이라고 한다. 각각의 플레이리스트 파일("*.mpls")은 적어도 하나 이상의 플레이아이템 및 서브플레이아이 템(SubPlayItem)을 포함하고 있다. 플레이아이템 및 서브플레이아이템은 재생을 원하는 특정 클립(clip)의 재생 시작시간(IN-Time)과 재생 종료시간(OUT-Time)에 대한 정보를 가지고 있다. 따라서, 플레이리스트는 플레이아이템들의 조합이라고 할 수 있다.
관련하여, 플레이리스트 파일 내에서 상기 적어도 하나 이상의 플레이아이템에 의해 재생되는 과정을 "메인패스(main path)"라 하고, 각각의 서브플레이아이템에 의해 재생되는 과정을 "서브패스(sub path)"라 정의한다. 메인패스는 플레이리스트의 마스터 재생(master presentation)을 제공하고, 서브패스는 상기 마스터 재생과 관련된 보조적인 재생(auxiliary presentations)을 제공한다. 플레이리스트 파일 내에서 상기 메인패스(main path)는 존재하여야 하며, 상기 서브패스(sub path)는 서브플레이아이템 존재에 따라 적어도 하나 이상 필요에 따라 존재하게 된다. 결국, 플레이리스트 파일은 적어도 하나 이상의 플레이아이템의 조합에 의해 원하는 클립의 재생을 수행하는 전체 재생관리 파일구조 내의 기본적 재생관리 파일단위가 된다.
본 발명에서는 메인패스에 의해 재생되는 비디오 데이터를 제 1 비디오(primary video)라 하고 서브패스에 의해 재생되는 비디오 데이터를 제 2 비디오(scondary video)라 명명한다. 광기록재생장치가 제 1 비디오와 제 2 비디오를 함께 재생하는 기능을 "PiP(Picture In Picture)"라고도 한다. 관련하여, 서브패스는 제 1 비디오 또는 제 2 비디오와 관련된 오디오 데이터를 재생할 수 있다. 본 발명과 관련된 서브패스에 대해서는 도 13a ~ 도 13c에서 구체적으로 설명한다.
백업 디렉토리(BACKUP)는, 상기 파일구조상의 데이터 중 특히 디스크 재생과 관련된 정보가 기록되는 인덱스파일("index"), 오브젝트 파일(Movie Object, BD-J Object), 플레이리스트 디렉토리 (PLAYLIST)내의 모든 플레이리스트 파일("*.mpls") 및 클립인포 디렉토리(CLIPINF) 내의 모든 클립인포 파일("*.clpi")에 대한 복사본(copy) 파일을 저장하게 된다. 이는 상기 파일들의 손실시 디스크 재생에 치명적임을 고려하여 미리 백업(backup)용으로 별도 저장하기 위해서이다.
관련하여, 본 발명의 파일 구조가 상기 설명한 명칭 및 위치에 제한되는 것은 아님은 자명하다 할 것이다. 즉, 상기 디렉토리 및 파일들은 명칭 및 위치가 아닌 그 의미로서 파악되어야 할 것이다.
도 3은 본 발명에 의해 광디스크에 기록되는 데이터 기록구조를 도시한 것으로서, 상기 전술한 파일구조에 관련된 정보들이 디스크 내에 기록되는 형태를 보여준다. 디스크의 내주로부터 보면, 전체 파일을 관리하기 위한 시스템 정보로서 파일시스템 정보 영역 (File System Information area)과, 기록된 스트림 (*.m2ts)을 재생하기 위한, 인덱스 파일, 오브젝트 파일, 플레이리스트 파일, 클립인포 파일 및 메타데이터 파일이 기록된 영역(이를 "database area"라고도 한다), 및 오디오/비디오/그래픽 등으로 구성된 스트림 또는 JAR 파일이 기록되는 스트림영역(stream area)이 존재함을 알 수 있다.
상기 스트림영역에는 제 1 비디오 및/또는 제 2 비디오를 포함하는 스트림데이터가 저장된다. 상기 제 2 비디오는 상기 제 1 비디오와 같은 스트림에 멀티플렉싱될 수도 있고 다른 스트림에 멀티플렉싱될 수도 있다. 본 발명에서는 상기 제 2 비디오와 관련된 제 2 오디오가 상기 제 1 비디오와 같은 스트림 또는 다른 스트림에 멀티플렉스된다.
상기 스트림영역 내에 포함된 콘텐츠(content)를 재생하기 위한 파일정보 등을 기록하는 영역을 관리영역이라 하고, 상기 파일시스템 정보 영역 (File System Information area) 및 데이터베이스 영역(database area)이 이에 해당된다. 제 2 비디오를 재생하는 서브패스는 상기 제 2 비디오가 멀티플렉싱되는 스트림의 종류와 메인패스와의 동기여부에 따라 도 13a ~ 도 13c에서 상술할 세 가지 서브패스타입으로 나뉠 수 있다. 상기 서브패스타입에 따라 제 2 비디오와 제 2 오디오의 재생방법이 달라지므로, 상기 관리영역은 상기 서브패스타입을 나타내는 정보를 포함하게 된다. 도 3의 각 영역은 하나의 예로 제시한 것으로서, 본 발명이 도 3과 같은 각 영역의 배열구조에 국한되지 않음은 자명할 것이다.
도 4는 본 발명의 제 2 비디오에 관한 개념적 이해를 돕기 위해 도시한 것이다.
본 발명은 제 2 비디오(secondary video) 데이터를 제 1 비디오(primary video)와 함께 재생하는 방법을 제공하는 데 목적이 있다. 즉, 본 발명은 광기록재생장치 구현에 있어서, PiP 어플리케이션을 가능하게 함과 아울러 효율적으로 상기 PiP 어플리케이션을 수행할 수 있도록 한다.
도 4를 참조하면, 제 1 비디오가 재생중에 상기 제 1 비디오(410)와 관련된 다른 비디오 데이터를 같은 디스플레이어에(20) 출력하고자 하는 요구가 있을 수 있다. 예를 들어, 영화 또는 다큐멘터리의 재생 중에, 그 촬영 과정에 대한 감독의 코멘트 또는 에피소드를 함께 사용자에게 제공하는 것이 가능하다. 상기 코멘트 또는 에피소드를 보여주는 비디오가 제 2 비디오(420)가 되며, 상기 제 2 비디오(420)는 제 1 비디오(410)와 처음부터 재생될 수 있다. 제 1 비디오(410)의 재생 중간에 제 2 비디오(420)의 재생이 시작될 수도 있다. 또한, 재생과정에 따라 화면에서 다른 위치 또는 다른 크기로 디스플레이되는 것도 가능하다. 상기 제 2 비디오(420)가 복수로 구성되어 제 1 비디오의 재생에 따라 별개로 재생이 시작되거나 종료되는 것도 가능하다.
관련하여, 상기 제 2 비디오는 대응하는 오디오(420b)와 함께 재생될 수 있으며, 상기 오디오(420b)는 상기 제 1 비디오에 대응하는 오디오(410b)와 믹싱되어 출력될 수 있다. 본 발명은 상기 제 2 비디오를 대응하는 오디오(이하, 제 2 오디오(secondary audio))와 함께 재생하는 방법을 제공한다. 또한, 상기 제 2 오디오를 상기 제 1 비디오에 대응하는 오디오(이하, 제 1 오디오(primary audio))와 믹싱하여 출력하는 방법을 제공한다. 이를 위하여, 본 발명은 함께 재생되는 것이 허용되는 제 2 비디오와 제 2 오디오의 조합정보(이하, 제 2 비디오/제 2 오디오 조합정보)를 상기 제 2 비디오에 대한 관리데이터에 둔다. 또한, 본 발명은 상기 제 2 오디오와의 믹싱이 허용되는 제 1 오디오를 정의하는 정보를 두고, 상기 정보를 이용하여 상기 제 2 오디오를 상기 제 1 오디오와 함께 재생하는 방법을 제공한다. 상기 관리데이터에는 상기 제 2 비디오에 대한 메타데이터, 상기 제 2 비디오의 스트림엔트리를 포함하는 테이블(이하, STN 테이블), 상기 제 2 비디오가 멀티플렉스된 스트림의 클립 인포메이션 파일 등이 있을 수 있다. 이하, 상기 조합정보가 STN 테이블에 존재하는 경우를 도 5를 참조하여 설명한다.
도 5는 본 발명의 제 2 비디오의 스트림엔트리를 포함한 테이블의 일 실시예를 도시한 것이다.
상기 테이블(이하, STN 테이블)은 광기록재생장치가, 현재 플레이아이템과 그것의 서브패스들의 재생 동안 선택할 수 있는 기본 스트림들의 리스트를 정의한다. 메인클립과 서브패스들의 스트림들 중 어떤 스트림이 상기 STN 테이블에 엔트리를 가질 것인지는 디스크 제작자에게 달려 있는 문제이다.
관련하여, 본 발명의 광기록재생장치는 제 1 비디오 및 제 1 오디오, 제 2 비디오 및 제 2 오디오를 처리하는 기능을 보유한다. 따라서, 본 발명의 STN 테이블은 상기 제 1 비디오 및 제 1 오디오, 제 2 비디오 및 제 2 비디오 스트림의 엔트리들을 저장하게 된다.
도 5를 참조하면, 상기 STN 테이블은 'secondary_video_stream_id' 값과 관련된 비디오 스트림 엔트리에 대한 제 2 비디오 스트림 넘버 값을 포함한다. 상기 'secondary_video_stream_id'는 '0'부터 시작하여, 상기 STN 테이블에 정의된 제 2 비디오 스트림들의 수와 같아지기 전까지 '1'씩 증가시켜 얻어진다. 제 2 비디오 스트림 넘버는 상기 'secondary_video_stream_id'에 '1'을 더한 값과 같다.
상기 'secondary_video_stream_id'에 따라 스트림엔트리(stream_entry) 블락이 상기 STN 테이블에 정의되게 된다. 상기 스트림엔트리 블락에는 스트림엔트리에 대한 스트림 넘버(a stream number)에 의해 지정되는(referred to) 기본 스트림(an elementary stream)을 식별하기 위한 데이터베이스(database)가 저장된다. 본 발명 의 스트림엔트리 블락은 제 2 비디오의 재생과 관련된 서브패스를 식별하는 정보와 상기 정보에 의해 지정되는(referred to) 서브패스의 서브플레이아이템에 정의된(defined) 서브클립 엔트리를 식별하는 정보(subclip_entry_id) 값을 포함한다. 따라서, 상기 스트림엔트리 블락은 재생되는 제 2 오디오 스트림의 출처를 표시하는 기능을 하게 된다.
본 발명은 상기 'secondary_video_stream_id'에 해당하는 제 2 비디오/제 2 오디오 조합정보(520)를 상기 STN 테이블에 포함된다. 상기 제 2 비디오/제 2 오디오 조합정보(520)는 상기 제 2 비디오와 함께 재생되는 것이 허용되는 제 2 오디오를 정의한다. 도 5를 참조하면, 상기 제 2 비디오/제 2 오디오 조합정보(520)에는 STN 테이블에 스트림엔트리가 정의된 제 2 오디오 중, 상기 제 2 비디오와 재생되는 것이 허용되는 제 2 오디오 스트림의 개수(520a)와 상기 제 2 오디오 스트림을 식별하는 정보(520a)가 표시된다. 본 발명에 따르면, 상기 제 2 비디오/제 2 오디오 조합정보(520)에 정의된 제 2 오디오 스트림 중 어느 하나가 상기 제 2 비디오와 함께 재생되어 사용자에게 제공된다.
또한, 본 발명은 상기 제 2 오디오와의 믹싱이 허용되는 제 1 오디오를 정의하는 제 1 오디오 정보(510)를 상기 STN 테이블에 둔다. 도 5를 참조하면, 상기 제 1 오디오 정보(510)에는 STN 테이블에 스트림엔트리가 정의된 제 1 오디오 중, 상기 제 1 비디오와 믹싱이 허용되는 제 1 오디오 스트림의 개수(510a)와 상기 제 1 오디오 스트림을 식별하는 정보(510a)가 표시된다. 본 발명에 따르면, 상기 제 1 오디오 정보(510)에 정의된 제 2 오디오 스트림 중 어느 하나가 상기 제 2 비디오 와 믹싱되어 사용자에게 제공된다.
도 6은 본 발명의 제 2 비디오 메타데이터의 일 실시예를 도시한 것으로, 상기 STN 테이블을 포함하는 플레이아이템과 제 2 비디오의 재생과 관련된 스트림은 상기 제 2 비디오 메타데이터로부터 확인될 수 있다.
본 발명에서는 메타데이터를 이용하여 상기 제 2 비디오를 재생을 관리한다. 상기 메타데이터는 재생시기, 재생크기와 위치 등에 관한 정보를 포함하게 된다. 이하, 상기 메타데이터를 PiP메타데이터라 명하여 설명한다.
상기 PiP메타데이터는 재생관리 파일의 일종인 플레이리스트에 존재할 수 있다. 도 6은 제 1 비디오의 재생을 관리하는 플레이리스트의 'ExtensionData' 블락에 PiP메타데터 블락이 존재하는 경우이다. 다만, PiP를 구현하는 제 2 비디오 스트림의 헤더에 상기 정보들이 존재하는 것도 가능하다.
PiP메타데이터에는 PiP메타데이터 블락에 저장된 메타데이터 블락 엔트리에 따라 적어도 하나 이상의, 블락헤더(block_header[k] ; 910) 블락과 블락데이터(block_data[k] ; 920) 블락이 포함될 수 있다. 상기 블락헤더(910)는 관련된 메타데이터 블락의 헤더정보를 포함하고 상기 블락데이터(920)는 관련된 메타데이터 블락의 데이터 정보를 포함한다.
상기 블락헤더(910) 블락은 플레이아이템을 식별하는 정보(이하, 'PlayItem_id[k]')를 가리키는 필드와 제 2 비디오 스트림을 식별하는 정보(이하, ' secondary_video_stream_id[k]')를 가리키는 필드를 포함할 수 있다. 'PlayItem_id[k]'는 'secondary_video_stream_id[k]'에 의해 지정되는(referred to) 'secondary video_stream_id' 엔트리가 리스트된 STN 테이블을 포함하는 플레이아이템에 대한 값이다. 상기 'PlayItem_id[k]' 값은 플레이리스트 파일의 플레이리스트 블락에 주어진다. 상기 'secondary_video_stream_id[k]'는 서브패스와, 관련된 블락데이터(920)가 적용되는 제 2 비디오 스트림을 구분(identify)하는데 사용된다. 따라서, 제 2 비디오는 상기 'PlayItem_id[k]'값에 대응하는 'PlayItem'의 STN 테이블에서, 상기 'secondary_video_stream_id[k]'에 해당하는 스트림을 재생함으로써 사용자에게 제공되게 된다.
본 발명에서는 상기 'secondary_video_stream_id[k]'의 제 2 비디오/제 2 오디오 조합정보에 정의된 제 2 오디오가 상기 제 2 비디오와 재생되게 된다. 또한, 상기 제 2 오디오의 제 2 오디오/제 1 오디오 조합정보에 정의된 제 1 오디오가 상기 제 2 오디오와 믹싱되어 출력된다.
부연하면, 상기 블락헤더(910) 블락은 관련된 PiP메타데이터가 어떤 타임라인을 따르는지를 나타내는 정보(이하, PiP 타임라인타입(pip_timeline_type))를 포함할 수 있다. 상기 PiP 타임라인타입에 따라 제 2 비디오가 사용자에게 제공되는 형태가 달라지게 된다. 상기 PiP 타입라인타입에 의해 정해지는 타입라인을 따라 상기 제 2 비디오에 'pip_composition_metadata'가 적용된다. 상기 'pip_composition_metadata'는 제 2 비디오가 재생위치와 크기를 나타내는 정보이다. 상기 'pip_composition_metadata'에는 제 2 비디오의 위치정보와 크기정보(이하, 'pip_scale[i]')를 포함할 수 있다. 위치정보에는 제 2 비디오의 수평위치(이하, 'pip_horizontal_position[i]')정보와 제 2 비디오의 수직위치(이하, 'pip_vertical_position[i]') 정보가 포함된다. 상기 'pip_horizontal_position[i]'은 화면의 기준점에서 제 2 비디오가 디스플레이되는 수평위치를 나타내고 'pip_vertical_position[i]'는 화면의 기준점에서 제 2 비디오가 디스플레이되는 수직위치를 나타낸다. 상기 크기정보 및 위치정보에 의해 제 2 비디오의 화면상에서 크기 및 재생되는 위치가 결정된다.
도 7은 본 발명의 광기록재생장치(10)의 전체 구성에 관한 일 실시예를 도시한 것으로서, 도 7을 참조하여 본 발명에 따른 데이터의 재생 및 기록을 설명한다.
본 발명의 광기록재생장치(10)에는 광 디스크에 기록된 오리지널 데이터 및 재생관리 파일정보를 포함한 관리정보를 재생하기 위한 픽업(11)과 픽업(11)의 동작을 제어하는 서보(14), 상기 픽업(11)으로부터 수신된 재생신호를 원하는 신호 값으로 복원해내거나, 기록될 신호 예를 들어, 제 1 비디오와 제 2 비디오를 광 디스크에 기록되는 신호로 변조(modulation)하여 전달하는 신호처리부(13)와 상기 동작을 제어하는 마이컴(16)이 기본적으로 구성된다. 픽업(11)과 서보(14), 신호처리부(13), 마이컴(16)를 통틀어 기록재생부라고 불리기도 한다. 본 발명에서 상기 기록재생부는 제어부(12)의 제어에 따라 광 디스크(30) 또는 스토리지(15)로부터 데이터를 읽어 AV 디코더(17b)에 제공한다. 즉, 상기 재생기록부는 재생의 관점에서는 데이터를 읽어오는 판독부(reader unit)의 역할을 한다. 상기 기록재생부는 AV 인코더(18)에 의해 인코딩된 신호를 받아 비디오, 오디오 데이터 등을 광 디스크(30)에 기록할 수도 있다.
제어부(12)는 사용자명령 등에 의해 광 디스크 외에 존재하는 어디셔널 데이 터를 다운로드 받아 이를 스토리지(15)에 저장함과 아울러, 스토리지(15) 내 어디셔널 데이터 및/또는 광 디스크 내 오리지널 데이터를 사용자의 요구에 따라 재생하게 된다.
본 발명에서 상기 제어부(12)는 제 2 비디오와 관련된 제 2 비디오/제 2 오디오 조합정보를 근거로 상기 제 2 비디오와 함께 재생되는 제 2 오디오를 선택하하도록 제어한다. 또한, 상기 제어부(12)는 상기 제 2 오디오와의 믹싱이 허용되는 제 1 오디오 정보를 근거로 상기 제 2 비디오와 믹싱되는 제 1 오디오를 선택하도록 제어한다. 본 발명의 광기록재생장치(10)가 데이터를 기록매체에 기록하는 경우, 상기 제어부는 상기 조합정보를 포함하는 관리데이터를 생성하여 상기 관리데이터가 광 디스크(30)에 기록되도록 제어하게 된다.
재생시스템(17)은 상기 제어부(12)의 제어에 따라 데이터를 최종적으로 디코딩하여 사용자에게 제공하게 된다. 재생시스템(17)은 특히 AV신호를 디코딩하는 AV 디코더(17b)와, 전술한 특정 타이틀의 재생과 관련하여 오브젝트 커맨드 혹은 어플리케이션과, 제어부(12)를 통해 입력되는 사용자 명령을 해석하여 재생방향을 결정하는 플레이어 모델(17a)로 구성된다. 실시예에 따라서는 플레이어 모델(17a)이 AV 디코더(17a)를 포함하는 의미로 사용되기도 하며, 이 경우 본 발명의 재생시스템(17)이 곧 플레이어 모델이 된다. AV 디코더(17b)는 신호의 종류에 따라 복수의 디코더를 포함하여 구성될 수 있다.
도 8은 본 발명의 AV 디코더 모델을 개략적으로 도시한 것으로서, 본 발명의 AV 디코더(17b)는 제 1 비디오와 제 2 비디오를 함께 재생하기 위해서 즉, PiP 어 플리케이션의 구현을 위해서 제 2 비디오 디코더(730b)를 포함한다. 상기 제 2 비디오 디코더(730b)는 제 2 비디오를 디코딩하게 된다. 상기 제 2 비디오는 AV 스트림에 포함되어 기록매체(30)에 기록되어 사용자에게 제공되거나 기록매체 외부로부터 다운로드 되어 사용자에게 제공된다. 상기 AV 스트림은 트랜스포트스트림(Transprort Stream : TS)형태로 상기 AV 디코더(17b)에 제공된다.
관련하여, 본 발명에서는 메인패스에 의해 재생되는 AV 스트림을 메인트랜스포트스트림(이하, 메인스트림)이라 명하고, 그 외의 AV 스트림을 서브트랜스포트스트림(이하, 서브스트림)이라 명한다. 본 발명의 제 2 비디오는 제 1 비디오와 같은 스트림에 멀티플렉싱될 수 있다. 이 경우, 제 2 비디오는 메인스트림으로 AV 디코더(17b)에 제공된다. 상기 AV 디코더(17b)에서 메인스트림은 소스디패킷타이저(710a)에서 디패킷화된다. 상기 디패킷화된 AV 스트림에 포함된 데이터는 PID(Packet IDentifier) 필터 1(720a)에서 데이터 패킷 종류에 따라 분리되어 대응하는 디코더(730a ~ 730g)에 제공된다. 즉, 상기 메인스트림에 제 2 비디오가 포함된 경우, 상기 제 2 비디오가 PID 필터 1(720a)에 의해 다른 데이터 패킷과 분리되어 제 2 비디오 디코더(730b)에 제공된다.
또한, 본 발명의 제 2 비디오는 제 1 비디오와 다른 스트림에 멀티플렉싱될 수 있다. 이 경우, 제 2 비디오는 서브스트림으로 AV 디코더(17b)에 제공된다. 상기 AV 디코더(17b)에서 서브스트림은 소스디패킷타이저(710b)에서 디패킷화된다. 사기 디패킷화된 AV 스트림에 포함된 데이터는 PID 필터 2(720b)에서 데이터 패킷 종륭 따라 분리되어 대응하는 디코더(730a ~ 730g)에 제공된다. 즉, 서브스트림에 제 2 비디오가 포함된 경우, 상기 제 2 비디오가 PID 필터 2(720b)에 의해 다른 데이터 패킷과 분리되어 제 2 비디오 디코더(730b)에 제공된다.
관련하여, 본 발명의 제 2 오디오는 상기 제 2 비디오와 동일한 스트림에 멀티플렉싱된다. 따라서, 제 2 비디오와 마찬가지로, 메인스트림 또는 서브스트림으로 AV 디코더(17b)에 제공되어 소스디패킷타이저(710a 또는 720b)를 거쳐 PID 필터 1 또는 2에서 분리되어 제 2 오디오 디코더(730f)에 제공된다. 디코딩된 제 2 오디오는 오디오 믹서에 제공되어 제 1 오디오 디코더에서 디코딩된 제 1 오디오와 믹싱되어 출력된다.
도 9은 본 발명의 오디오 믹싱 모델의 전체 구성을 도시한 것이다.
본 발명에서 오디오 믹싱이라 함은 제 2 오디오를 제 1 오디오 및/또는 인터랙티브 오디오와 믹스하는 것을 말한다. 본 발명의 오디오 믹싱 모델은 디코딩과 믹싱을 수행하기 위해, 두 개의 오디오 디코더(730e, 730f)와 두 개의 오디오 믹서(750a, 750b)를 제공한다. 콘텐츠 제공자는 오디오 믹싱 제어 파라미터들(P1, P2, P3, P4)을 이용하여 오디오 믹싱 과정을 제어하게 된다.
관련하여, 제 1 오디오(primary audio)는 제 1 비디오와 관련된 오디오로서 기록매체에 포함된 무비 사운드 트랙인 것이 일반적이다. 그러나, 제 1 오디오가 네트워크로부터 다운로드 되어 스토리지(15)에 저장되는 것도 가능하다. 본 발명의 제 1 오디오는 제 1 비디오와 함께 멀티플렉싱되어 메인스트림으로 AV 디코더(17b)에 제공된다. 상기 메인비디오는 PID 필터 1에 의해, PID에 따라 상기 메인스트림 중 필요한 트랜스포트 스트림(TS)이 분리되어 버퍼(B1)를 거쳐 제 1 오디오 디코 더(primary audio decoder : 730e)에 제공된다.
본 발명에서 제 2 오디오(secondary audio)는 제 2 비디오와 동기화되어 재생되는 오디오이다. 본 발명에서 상기 제 2 오디오는 제 2 비디오/제 2 오디오 조합정보에 정의된다. 상기 제 2 오디오는 제 2 비디오와 함께 멀티플렉싱되어 메인스트림 또는 서브스트림으로 AV 디코더(17b)에 제공된다. 상기 메인스트림 또는 서브스트림으로부터 PID 필터(720a 또는 720b)에 의해 필요한 트랜스포트스트림이 선택되어 제 2 오디오 디코더(secondary audio decoder : 730f)에 제공된다.
관련하여, 인터랙티브 오디오는 어플리케이션(application)에 의해 활성화되는 LPCM 오디오로서, 제 2 오디오 믹서(750b)에 제공되어 제 1 오디오 믹서에서의 믹싱결과와 믹스된다. 인터랙티브 오디오 스트림은 스토리지 또는 기록매체 상에 있을 수 있으며 버튼 사운드와 같은 인터랙티브 어플리케이션과 관련된 동적 사운드를 제공하는데 사용되는 것이 일반적이다.
관련하여, 상기 모델은 LPCM(Linear Pulse Code Modulation) 믹싱에 기초한다. 즉, 모든 오디오 데이터는 LPCM으로 디코드되어 출력에 앞서 믹스된다. 제 1 오디오 디코더(730e)는 제 1 오디오 스트림을 LPCM으로 디코드한다. 상기 제 1 오디오 디코더(730e)는 제 1 오디오 사운드트랙에 존재하는 모든 채널들을 디코드하거나 다운믹스하도록 구성될 수 있다. 제 2 오디오 디코더(730f)는 제 2 오디오 스트림을 LPCM으로 디코드한다. 아울러, 상기 제 2 오디오 스트림에 포함된 믹싱 메타데이터(mixing metadata)를 추출하여 상기 데이터를 믹스 매트릭스 형태로 전환하고 상기 믹스 매트릭스를 제 1 오디오 믹서(M1 : 750a)에 전달한다. 상기 메타데 이터는 믹싱과정을 제어하는데 이용되게 된다. 상기 제 2 오디오 디코더(730f)는 제 2 오디오 사운드트랙에 포함된 모든 채널을 디코드하거나 다운믹스하도록 구성될 수 있다. 제 2 오디오 디코더(730f)로부터 디코드된 각 채널 결과는 제 1 오디오 디코더(730e)로부터의 하나 이상의 채널 출력과 믹스될 수 있다.
관련하여, 믹스 매트릭스는 콘텐츠 제공자(content providers)에 의해 제공되는 믹싱 파리미터(mixing parameters)에 맞추어 만들어진다. 상기 믹스 매트릭스는 믹싱되는 오디오들을 합(summing)하기 전에 각 오디오의 믹싱레벨을 조정에 적용되는 계수를 포함한다.
상기 믹싱 파라미터로는 제 2 오디오 스트림의 패닝 조정에 이용되는 파라미터(이하, P1), 제 1 오디오 스트림과 제 2 오디오 스트림의 믹싱레벨 조정에 이용되는 파라미터(이하, P2)와 인터랙티브 오디오 스트림의 패닝조정에 이용되는 파라미터(이하, P3)와 믹싱레벨 조정에 이용되는 파라미터(이하, P4)가 있다. 상기 파라미터들은 그 명칭에 구애되는 것은 아니며, 기능에 따라 통합적 또는 분리되어 별개의 파라미터가 존재할 수 있음은 자명하다 할 것이다.
본 발명에서는 상기 믹싱 파라미터의 소스로 커맨드 셋(command set)을 이용한다. 즉, 본 발명의 광기록재생장치(10)는 커맨드 셋을 이용하여 제 2 비디오와 함께 재생되는 제 2 오디오와 상기 제 2 오디오와 믹싱되는 제 1 오디오의 믹싱을 조절한다. 커맨드 셋이란 광기록재생기에서 동작하는 응용 프로그램의 기능을 이용하기 위한 일종의 프로그램 모음을 말한다. 상기 커맨드 셋에 의해 광기록재생기 기능과 인터페이스를 이루게 되며, 상기 커맨드 셋에 의해 광기록재생기의 다양한 기능을 이용할 수 있게 된다. 상기 커맨드 셋은 기록매체에 저장되어 광기록재생기에 공급될 수 있으나, 광기록재생기 제작시에 상기 광기록재생기에 구비될 수도 있다. 상기 커맨드 셋의 대표적인 예로 API(Application Programming Interface)가 있다. 관련하여, 상기 믹싱 파라미터의 소스로서 믹싱 메타데이터가 있을 수 있다. 상기 믹싱 메타데이터는 제 2 오디오에 포함되어 제 2 오디오 디코더(730b)에 제공된다. 이하, 커맨드 셋으로 API를 예로 하여 설명한다.
본 발명에서는 API와 같은 커맨드 셋을 이용하여 제 2 오디오를 패닝하고 제 1 오디오 또는 제 2 오디오의 믹싱레벨을 조절한다. 광기록재생장치(10)의 시스템 소프트웨어는 상기 커맨드 셋을 믹스 매트릭스 X1(X1 Mix Matrix)형태로 전환하고 상기 믹스 매트릭스를 제 1 오디오 믹서(750a)에 제공하게 된다. 상기 제 1 오디오 믹서(750a)에서의 믹싱결과는 인터랙티브 오디오와 제 2 오디오 믹서(750b)에서 믹싱될 수 있다. 상기 제 2 오디오 믹서(750b)에서의 믹싱과정도 커맨드 셋에 의하여 제어될 수 있다. 상기 커맨드 셋은 광기록재생장치(10)의 시스템 소프트웨어에 의해 믹스 매트릭스 X2(X2 Mix Matrix)로 전환되어 제 2 오디오 믹서(750b)에 제공된다.
관련하여, 상기 믹스 매트릭스 X1은 믹싱 파라미터인 P1 및 P2 둘 다에 의해 제어된다. 즉, 상기 P1 및 P2가 동시에 믹스 매트릭스 X1에 지시를 내리게 되고, 상기 믹스 매트릭스 X1에 의해 상기 M1이 제어된다. 상기 P1은 API 또는 제 2 비디오 디코더로부터 제공되고 상기 P2는 API로부터 제공된다.
본 발명의 오디오 믹싱 모델에서는 메타데이터 온/오프 API를 이용하여 제 2 오디오에 포함된 오디오 믹싱 메타데이터의 처리를 온/오프 할 수 있다. 믹싱 메타데이터가 온(ON)인 경우, 믹싱 파라미터 P1은 제 2 오디오 디코더(730f)로부터 온다. 오프(OFF)인 경우, 상기 P1은 본 발명에 따른 API로부터 오게 된다. 관련하여, 상기 P2를 통해 제공되는 오디오 믹싱레벨 조절값은 P1에 의해 제공된 믹스 매트릭스의 입력값에 항상 적용되는 것이 바람직하다. 그러므로 메타데이터가 온인 경우에는 메타데이터와 커맨드 셋이 함께 오디오 믹싱 과정을 제어하는 것이 바람직하다.
본 발명의 광기록재생장치(10)는 AV 인코더(18)를 포함한다. AV 인코더(18)는 광 디스크에 신호를 기록하는 기능의 수행을 위해 제어부(12)의 제어에 따라 입력신호를 특정포맷의 신호, 예를 들어 MPEG 트랜스포트 스트림으로 변환하여 신호처리부(13)에 제공하게 된다. 본 발명에서 상기 AV 인코더(18)는 제 2 비디오에 대응하는 제 2 오디오를 같은 스트림으로 인코딩한다. 상기 2 비디오는 제 1 비디오와 같은 스트림으로 인코딩될 수도 있고 다른 스트림으로 인코딩될 수도 있다.
도 10a ~ 도 10b는 본 발명의 데이터 인코딩 방법의 실시예를 도시한 것이다. 도 10a는 제 2 비디오와 제 2 오디오가 제 2 비디오와 같은 스트림으로 인코딩된 경우이다. 이와 같이 제 1 비디오와 같은 스트림, 즉 메인스트림에 데이터가 인코딩되는 경우를 'In-mux'타입이라 한다. 도 10a의 실시예에서, 플레이리스트는 하나의 메인패스와 세 개의 서브패스를 포함한다. 상기 메인패스는 주된 비디오/오디오의 재생경로이며, 상기 서브패스들은 상기 주된 메인패스와 함께 재생되는 부수적인 재생경로가 된다. 메인패스를 구성하는 플레이아이템('PlayItem-1', 'PlayItem-2')들은 재생되는 클립과 상기 클립의 재생시간(playing interval)을 지정한다. 플레이아이템의 STN 테이블에는 상기 플레이아이템의 재생(presentation) 동안 본 발명의 광기록재생장치가 선택할 수 있는 기본 스트림들이 정의되어 있다. 플레이아이템-1(PlayItem-1)과 플레이아이템-2(PlayItem-2)은 클립-0(Clip-0)을 지정한다. 따라서, 상기 플레이아이템-1과 플레이아이템-2의 재생시간(playing interval) 동안 클립-0이 재생되게 된다. 상기 클립-0은 메인패스에 의해 재생되므로 메인스트림으로 AV 디코더(17b)에 제공된다.
상기 메인패스와 관련된 서브패스들(서브패스-1, 2, 3)은 하나의 서브플레이아이템으로 구성되며 상기 서브플레이아이템은 각각 재생되는 클립을 지정한다. 서브패스-1은 클립-0을, 서브패스-2는 클립-1을, 서브패스-3은 클립-2를 지정한다. 즉, 서브패스-1은 클립-0 내의 제 2 비디오와 오디오 스트림을 사용한다. 서브패스-2와 서브패스-3는 각각의 서브플레이아이템이 지정하는 클립의 오디오, PG, IG 스트림을 사용한다.
도 8을 참조하면, 도 10a의 실시예에서는 제 2 비디오 및 제 2 오디오가 메인패스에 의해 재생되는 클립으로 인코딩되어 있으므로 상기 제 2 비디오 및 제 2 오디오는 제 1 비디오와 함께 메인스트림으로 AV 디코더에 제공되어 PID 필터 1(720a)을 거쳐 각각 제 2 비디오 디코더(730b)와 제 2 오디오 디코더(730f)에 제공되어 디코딩되게 된다. 관련하여, 상기 클립-0의 제 1 비디오는 제 1 비디오 디코더(Primary Video Decoder : 730a)에서, 제 1 오디오는 제 1 오디오 디코더(Primary Audio Decoder : 730e)에서, PG는 PG 디코더(730c)에서, IG는 IG 디코 더(730d)에서, 제 2 오디오는 제 2 오디오 디코더(Secondary Audio Decoder : 730f)에서 각각 디코딩된다. 디코딩된 제 1 오디오 중 STN 테이블에 제 2 오디오와 믹싱이 허용되는 것으로 정의된 제 1 오디오는 제 1 오디오 믹서(750a)에 제공되어 믹싱되게 된다. 상기 제 1 오디오 믹서에서의 믹싱과정은 커맨드 셋에 의해 조절될 수 있음은 앞서 설명한 바 있다.
도 10a는 제 2 비디오와 제 2 오디오가 제 2 비디오와 다른 스트림으로 인코딩된 경우이다. 이와 같이 제 1 비디오와 다른 스트림, 즉 서브스트림에 데이터가 인코딩되는 경우를 'Out-of-mux'타입이라 한다. 도 10b의 실시예에서, 플레이리스트는 하나의 메인패스와 두 개의 서브패스(SubPath-1, SubPath-2)로 구성된다. 상기 메인패스를 구성하는 플레이아이템-1과 플레이아이템-2는 클립-0에 포함된 기본 스트림(elementary streams)을 재생한다. 서브패스-1과 서브패스-2는 각각 하나의 서브플레이아이템으로 구성되며, 상기 서브플레이아이템들은 각각 클립-1과 클립-2를 지정한다. 서브패스-1이 메인패스와 함께 재생되는 경우, 상기 서브패스-1에 포함된 제 2 비디오가 메인패스에 포함된 비디오(제 1 비디오)와 함께 재생된다. 반면, 서브패스-2가 메인패스와 함께 재생되는 경우, 상기 메인패스-2에 포함된 제 2 비디오가 메인패스에 포함된 비디오와 함께 재생된다.
도 8을 참조하면, 도 10b의 실시예에서는 제 2 비디오가 메인패스에 재생되는 스트림이 아닌 스트림에 포함되어 있으므로 상기 제 2 비디오가 인코딩된 스트림 즉, 클립-1 또는 클립-2는 서브스트림으로 AV 디코더(17b)에 제공된다. 상기 서브스트림은 소스디패킷타이저(710b)에서 디패킷화된다. 상기 디패킷화된 AV 스트림 에 포함된 데이터는 PID(Packet IDentifier) 필터 2(720b)에서 데이터 패킷 종류에 따라 분리되어 대응하는 디코더(730a ~ 730g)에 제공된다. 즉, 서브패스-1이 메인패스와 함께 재생되는 경우, 클립-1에 포함된 제 2 비디오가 제 2 오디오 패킷과 분리되어 제 2 비디오 디코더(730b)에 제공되어 디코딩된다. 상기 제 2 오디오는 제 2 오디오 디코더(730f)에 제공되어 디코딩될 것이다. 디코딩된 제 2 비디오는 제 1 비디오 디코더(730a)에 의해 디코딩되어 디스플레이되고 있는 제 1 비디오 위에 디스플레이된다. 따라서, 사용자는 디스플레이어(20)에서 제 1 비디오와 제 2 비디오를 함께 볼 수 있게 된다.
도 11은 본 발명의 재생시스템(playback system)을 설명하기 위해 도시한 것이다.
"재생시스템(playback system)"이라 함은, 광기록재생장치 내에 구비되는 프로그램(소프트웨어) 및/또는 하드웨어로 구성되는 집합적 재생처리 수단을 말한다. 광기록재생장치(10) 내에 로딩된 기록매체를 재생함은 물론, 상기 기록매체에 관련되어 스토리지 내에 저장된(예를 들어, 외부로부터 다운로드 받은) 데이터를 함께 재생 및 관리하기 위한 시스템을 의미한다.
특히, 재생시스템(17)은 "User Event Manager(171)", "Module Manager(172)", "HDMV Module(174)", "BD-J Module(175)", "Playback control engine(176)", "Presentation engine(177)" 및 "Virtual File System(40)"으로 구성되며, 이를 상세히 설명하면 다음과 같다.
우선, HDMV 타이틀과 BD-J 타이틀을 재생하기 위한, 별도의 재생 처리 관리 수단으로서, 각각 HDMV 타이틀을 위한 "HDMV Module(174)"과 BD-J 타이틀을 위한 "BD-J Module(175)"이 독립적으로 구성된다. 상기 "HDMV Module(174)" 및 "BD-J Module(175)"은 특히 전술한 오브젝트(Movie Object 또는 BD-J Object) 내의 커맨드(command) 혹은 프로그램을 수신하여, 이를 처리하도록 하는 제어기능을 가진다. "Metadata Manager(173)"는 언제든지 사용자의 제어하에, 타이틀 선택을 수행할 수 있고 사용자에게 기록매체와 타이틀 메타데이터를 제공할 수 있다. 상기 "HDMV Module(174)" 및 "BD-J Module(175)"은 재생시스템의 하드웨어적 구성으로부터 커맨드(command) 혹은 어플리케이션을 분리하여, 상기 커맨드 혹은 어플리케이션의 이동(portability)을 가능하게 한다. 상기 커맨드(command) 혹은 어플리케이션 등을 수신하여 처리하는 수단으로서, "HDMV Module(174)"내에는 "Command processor(174a)"가, "BD-J Module(175)"내에는 "Java VM(175a)" 및 "Application manager(175b)"가 각각 구비되어 있다.
"Java VM(175a)"은 어플리케이션이 실행되는 "Virtual Machine"이다. "Application manager(175b)"는 어플리케이션의 라이프사이클(lifecyle)을 관리하는 어플리케이션 관리 펑션(application management function)을 포함한다.
또한, 상기 "HDMV Module(174)" 및 "BD-J Module(175)"에 사용자 명령을 전달함은 물론, "HDMV Module(174)" 및 "BD-J Module(175)"의 동작을 제어하는 "Module Manager(172)"가 구비된다. 상기 "HDMV Module(174)" 및 "BD-J Module(175)"의 재생명령에 따라 실제 디스크 내에 기록된 플레이리스트 파일 정보를 해석하고 이에 따른 재생기능을 수행하는 "Playback Control Engine(176)"이 구 비된다. 또한, 상기 "Playback Control Engine(176)"에 의해 재생관리되는 특정 스트림을 디코딩하고 화면 내에 디스플레이하기 위한 "Presentation Engine(177)"이 구비된다. 특히, 상기 "Playback Control Engine(176)"은 실제 모든 재생을 관리하는 "Playback Control Functions(176a)"과 플레이어의 재생상태 및 재생환경을 저장하는 "Player Registers(176b)"로 구분된다. 경우에 따라서는 "Playback Control Functions(176a)"이 "Playback Control Engine(176)"을 의미하기도 한다.
관련하여, HDMV 타이틀과 BD-J 타이틀은 각각 별도 방식의 사용자 명령을 수신하며, 상호 간에는 사용자명령을 수행하는 방식이 독립적이다. 사용자 명령을 수신하여 "HDMV Module(174)"과 "BD-J Module(175)"중 어느 하나로 전달하는 수단이 필요한데, 이는 "User Event Manager(171)"가 담당한다. 따라서, 예를 들어, "User Event Manager(171)"는, 수신된 명령이 "User Operation(UO)(171a)"에 의한 사용자 명령이면 이를 "Module Manager(172)" 또는 "UO Controller(171a)"로 전송하여 수행케 하고, 수신된 명령이 "Key Event"에 의한 사용자 명령이면 이를 "BD-J Module(175)"내의 "Java VM(175a)"으로 전송하여 수행케 한다.
또한, 재생시스템(17)은 "Metadata Manager(173)"를 포함할 수 있는데, "Metadata Manager(173)"는 사용자에게 디스크 라이브러리와 인핸스드 서치 메타데이터 어플리케이션(Disc Library and Enhanced Search Metadata application)을 제공한다.
전술한 본 발명의 재생시스템(playback system)에서 상기 "Module Manager(172)", "HDMV Module(174)", "BD-J Module(175)", "Playback Control Engine(176)"은 소프트웨어적인 처리가 가능하다. 실제 하드웨어 구성보다는 소프트웨어로 처리함이 설계에 더욱 유용하다. 단, "Presentation Engine(177)" 및 디코더(17b)와 플레인(Plane)은 하드웨어적으로 설계되는 것이 일반적이다. 특히, 소프트웨어적으로 처리되는 구성요소(예를 들어, 도면부호 172, 174, 175, 176)의 경우는 전술한 제어부(12)의 한 부분으로 구성될 수도 있을 것이다. 본 발명의 구성은 그 의미로서 이해하여야 하며, 하드웨어적 구성인지 소프트웨어적 구성인지에 국한되지 않음을 밝혀두고자 한다.
관련하여, 플레인(Plane)이란 제 1 비디오, 제 2 비디오, PG, IG, 텍스트 서브타이틀의 오버레잉 과정을 설명하기 위한 개념적 모델이다. 본 발명에서 제 2 비디오 플레인(740b)은 제 1 비디오 플레인(740a) 앞에 놓이게 되며, 따라서, 디코딩되어 출력되는 제 2 비디오는 제 2 비디오 플레인 상에 디스플레이된다. 관련하여, 프리젠테이션 그래픽 플레인(740c)에는 프리젠테이션 그래픽 디코더(PG 디코더 ;730c) 및/또는 텍스트 디코더(730g)에 의해 디코딩된 그래픽 데이터가 출력되며, 인터랙티브 그래픽 플레인(740d)에는 인터랙티브 그래픽 디코더(730d)에 의해 디코딩된 그래픽 데이턱 출력된다.
도 12은 본 발명의 광기록재생장치에 구비된 상태 메모리 유닛의 일 실시예를 도시한 것이다.
광기록재생장치(10)는 상기 플레이어의 기록재생 상태 및 기록재생 환경에 관한 정보가 저장되는 일종의 메모리 유닛(memory units)으로서 "Player Registers"(176b)가 구비된다. 상기 "Player Registers"(176b)는 "General Purpose Registers (GPRs)"와 "Player Status Registers (PSRs)"로 구분될 수 있다. 상기 "Player Status Registers (PSRs)"는 재생상태 파라미터(playback status parameters)(예를 들어, 'interactive graphics stream number'와 'primary audio stream number')와 광기록재생장치 구성(configuration) 파라미터(예를 들어, 'player capability for video')를 저장한다. 본 발명과 관련하여, 본 발명은 제 1 비디오 외에 제 2 비디오를 재생하므로, 제 2 비디오의 재생상태를 저장하는 "Player Status Register (PSR)"가 요구된다. 또한, 상기 제 2 비디오에 대응하는 제 2 오디오의 재생상태를 저장하는 "Player Status Register (PSR)"가 요구된다.
"Player Status Registers (PSRs)" 중 하나(예를 들어, PSR14(120))에 제 2 비디오 스트림 넘버가 저장될 수 있다. 또한, 상기 PSR(이하, PSR14)에 상기 제 2 비디오와 관련된 제 2 오디오 스트림 넘버가 저장될 수 있다. 상기 PSR14의 제 2 비디오 스트림 넘버 값은 어떤 제 2 비디오 스트림이 현재 플레이아이템의 STN 테이블 내 제 2 비디오 스트림 엔트리들(secondary video stream entries)로부터 재생되어야 하는지를 지정(specify)하기 위해 사용된다. 마찬가지로, 상기 PSR14(120) 내 제 2 오디오 스트림 넘버 값은 현재 플레이아이템의 STN 테이블 내 제 2 오디오 스트림 엔트리로부터 어떤 제 2 오디오 스트림이 재생되어야 하는지 지정하기 위해 사용된다. 상기 제 2 오디오는 상기 제 2 비디오의 제 2 비디오/제 2 오디오 조합정보에 정의된 것이다.
관련하여, 상기 PSR14(120)에는 'disp_a_flag'가 저장될 수 있다. 상기 'disp_a_flag'는 제 2 오디오의 출력이 불가능 (disable)한지 가능(able)한지를 나 타낸다. 예를 들어, 상기 'disp_a_flag'가 가능(able)으로 설정된 경우, 제 2 오디오가 디코딩되어 오디오 믹서에서, 제 1 오디오 및/또는 인터랙티브 오디오와의 믹싱과정을 거친 후 사용자에게 제공된다. 반대로, 상기 'disp_a_flag'가 불가능(disable)으로 설정된 경우, 제 2 오디오가 디코더에서 디코딩되고 있다고 하더라도 상기 제 2 오디오는 출력되지 않게 된다. 상기 'disp_a_flag'는 사용자 오퍼레이션(UO), 네비게이션 커맨드 또는 커맨드 셋(예를 들어, 어플리케이션 프로그래밍 인터페이스(이하, API)) 등에 의해 변경되는 것이 가능하다.
또한, "Player Status Registers (PSRs)" 중 하나(예를 들어, PSR1(110))에 제 1 오디오 스트림 넘버가 저장될 수 있다. 상기 PSR(이하, PSR1)의 제 1 비디오 스트림 넘버 값은 어떤 제 1 비디오 스트림이 현재 플레이아이템의 STN 테이블 내 제 1 비디오 스트림 엔트리들(secondary video stream entries)로부터 재생되어야 하는지를 지정(specify)하기 위해 사용된다. 상기 PSR1(110)에 저장된 값이 변경되면, 제 1 오디오의 재생은 즉시 제 1 오디오 스트림 넘버가 상기 PSR1에 저장된 값과 동일한 제 1 오디오 스트림으로 변경된다.
관련하여, 상기 PSR1(110)에는 'disp_a_flag'가 저장될 수 있다. 상기 'disp_a_flag'는 제 1 오디오의 출력이 불가능 (disable)한지 가능(able)한지를 나타낸다. 예를 들어, 상기 'disp_a_flag'가 가능(able)으로 설정된 경우, 제 1 오디오가 디코딩되어 오디오 믹서에서, 제 2 오디오 및/또는 인터랙티브 오디오와의 믹싱과정을 거친 후 사용자에게 제공된다. 반대로, 상기 'disp_a_flag'가 불가능(disable)으로 설정된 경우, 제 1 오디오가 디코더에서 디코딩되고 있다고 하더 라도 상기 제 1 오디오는 출력되지 않게 된다. 상기 'disp_a_flag'는 사용자 오퍼레이션(UO), 네비게이션 커맨드 또는 커맨드 셋(예를 들어, 어플리케이션 프로그래밍 인터페이스(이하, API)) 등에 의해 변경되는 것이 가능하다.
도 13a ~ 도 13c은 본 발명에 따른 서브패스타입을 도시한 것이다.
도 10a~ 도 10b에서 전술한 본 발명에 따르면, 제 2 비디오와 제 2 오디오의 인코딩 방법에 따라 제 2 비디오 및 제 2 오디오를 재생하는 서브패스가 달라진다. 따라서, 상기 서브패스가 메인패스와 동기되는지 여부를 고려하면, 본 발명과 관련된 서브패스타입은 크게 세 타입으로 구분될 수 있다. 이하 본 발명에 따른 서브패스타입을 도 13a ~ 도 13c를 참조하여 설명한다.
도 13a는 데이터의 인코딩 타입이 'Out-of-mux'타입이고, 서브패스가 메인패스와 동기되는 경우를 도시한 것이다.
도 13a를 참조하면, 제 1 비디오와 제 2 비디오 및 제 1 오디오와 제 2 오디오의 재생을 관리하는 플레이리스트는 하나의 메인패스와 하나의 서브패스를 포함한다. 상기 메인패스는 네 개의 플레이아이템(PlayItem_id=0, 1, 2, 3)으로 구성되며 상기 서브패스는 복수의 서브플레이아이템으로 구성된다. 상기 서브패스에 의해 재생되는 제 2 비디오와 제 2 오디오는 상기 메인패스와 동기된다. 구체적으로, 상기 서브패스는 서브플레이아이템과 관련된 플레이아이템을 식별하는 정보(예를 들어, 'sync_PlayItem_id')와 상기 서브플레이아이템의 상기 플레이아이템에서의 표현시간지정(presentation time stamp)정보(예를 들어, 'sync_start_PTS_of_PlayITem')를 이용하여 상기 메인패스와 동기된다. 즉, 상기 플레이아이템의 재생지점이 상기 표현시간지정정보에 의해 지정된 값에 도달할 때 상기 서브플레이아이템의 재생이 시작되어, 메인패스의 재생과정 중 지정된 시간에 서브패스의 재생이 시작되게 된다.
관련하여, 상기 플레이아이템과 상기 서브플레이아이템은 서로 다른 클립을 참조(refer to)한다. 상기 플레이아이템이 참조하는 클립은 메인스트림으로 AV 디코더(17b)에 제공되고, 상기 서브플레이아이템이 참조하는(refer to) 클립은 서브스트림으로 AV 디코더(17b)에 제공된다. 상기 메인스트림에 포함된 제 1 비디오와 제 1 오디오는 디패킷타이저(710a)와 PID 필터 1(720a)를 거쳐 각각 제 1 비디오 디코더(730a)와 제 1 오디오 디코더(730e)에서 디코딩되고 상기 서브스트림에 포함된 제 2 비디오와 제 2 오디오는 디패킷타이져(710b)와 PID 필터2(720b)를 거쳐 각각 제 2 비디오 디코더(730b)와 제 2 오디오 디코더(730f)에서 디코딩된다.
도 13b는 데이터의 인코딩 타입이 'Out-of-mux'타입이고, 서브패스가 메인패스와 동기되지 않는 경우를 도시한 것이다. 도 13b의 서브패스타입은 도 13a의 서브패스타입과 마찬가지로 서브패스에 의해 사용되는 제 2 비디오 및/또는 제 2 오디오 스트림이, 관련된 플레이아이템에 의해 사용되는 클립과 분리되어 멀티플렉싱된다. 다만, 상기 서브패스의 재생을 메인패스의 타임라인 상에서 어느 때라도 시작할 수 있다는 점에서, 도 13a의 서브패스타입과는 차이가 있다.
도 13b를 참조하면, 제 1 비디오와 제 2 비디오의 재생을 관리하는 플레이리스트는 하나의 메인패스와 하나의 서브패스를 포함한다. 상기 메인패스는 세 개의 플레이아이템(PlayItem_id=0, 1, 2)으로 구성되며 상기 서브패스는 하나의 서브플 레이아이템으로 구성된다. 상기 서브패스에 의해 재생되는 제 2 비디오 및 제 2 오디오는 상기 메인패스에 의해 재생되는 제 1 비디오 및 제 1 오디오와 동기되지 않는다. 상기 서브플레이아이템이 상기 서브플레이아이템과 관련된 플레이아이템을 식별하는 정보와 상기 서브플레이아이템의 상기 플레이아이템에서의 표현시간지정(presentation time stamp)정보를 포함하고 있다고 하더라도, 상기 정보들은 도 13b의 서브패스타입에서는 유효하지 않게 된다. 즉, 사용자는 메인패스가 재생되는 도중 어느 때라도 서브패스의 재생을 시작할 수 있다.
관련하여, 데이터의 인코딩 타입이 'Out-of-mux'타입이므로, 도 13a에서 설명한 바와 같이, 제 1 비디오는 메인스트림으로 AV 디코더(17b)에 제공되고 상기 제 2 비디오와 제 2 오디오는 서브스트림으로 AV 디코더(17b)에 제공된다.
도 13c는 데이터의 인코딩 타입이 'In-mux'타입이고, 서브패스가 메인패스와 동기되는 경우를 도시한 것이다. 도 13c의 서브패스타입은 제 2 비디오와 제 2 오디오가 제 1 비디오와 같은 AV 스트림에 멀티플렉싱된다는 점에서 도 13a ~ 도 13b의 서브패스타입과 차이가 있다.
도 13c를 참조하면, 제 1 비디오와 제 2 비디오의 재생을 관리하는 플레이리스트는 하나의 메인패스와 하나의 서브패스를 포함한다. 상기 메인패스는 네 개의 플레이아이템(PlayItem_id=0, 1, 2, 3)으로 구성되며 상기 서브패스는 복수의 서브플레이아이템으로 구성된다. 상기 서브패스를 구성하는 서브플레이아이템은, 상기 서브플레이아이템과 관련된 플레이아이템을 식별하는 정보와 상기 서브플레이아이템의 상기 플레이아이템에서의 표현시간지정(presentation time stamp)정보를 포함 하고 있다. 도 139a에서 설명한 바와 같이, 상기 정보들에 의해 상기 서브플레이아이템은 관련된 플레이아이템과 동기되어 결국, 서브패스가 메인패스와 동기되게 된다.
도 13c의 서브패스타입에서 메인패스를 구성하는 플레이아이템과 서브패스를 구성하는 서브플레이아이템은 동일한 클립을 참조(refer to)한다. 즉, 메인패스에 의해 관리되는 클립에 포함된 스트림을 사용하여 서브패스가 표현되게 된다. 상기 클립은 메인패스에 관리되므로, 메인스트림을 통해 AV 디코더(17b)에 제공된다. 상기 메인스트림은 디패킷타이저(710a)에서 패킷화되어 있던 데이터가 디패킷화된다.상기 데이터에는 제 1 비디오, 제 2 비디오, 제 1 오디오, 제 2 오디오가 포함되어 있다. 디패킷화된 제 1 비디오, 제 2 비디오, 제 1 오디오, 제 2 오디오는 PID 필터 1(720a)에서 각각의 패킷을 식별하는 정보에 따라 제 1 비디오 디코더(730a), 제 2 비디오 디코더(730b), 제 1 오디오 디코더(730e), 제 2 오디오 디코더(730f)에 제공되어 디코딩된다.
관련하여, 상기 메인스트림 또는 상기 서브스트림은 기록매체(30) 또는 스토리지(15)로부터 AV 디코더(17b)에 제공될 수 있다. 제 1 비디오와 제 2 비디오가 다른 클립에 저장된 경우, 제 1 비디오는 기록매체(30)에 기록되어 사용자에게 제공되고, 제 2 비디오는 기록매체(30) 외부로부터 스토리지(15)로 다운로드 될 수도 있다. 그 반대의 경우도 가능하다. 제 1 비디오와 제 2 비디오가 모두 기록매체에 기록되거나, 다운로드 되는 경우도 있을 수 있다. 다만, 제 1 비디오와 제 2 비디오가 모두 기록매체에 기록되어 있는 경우, 제 1 비디오와 제 2 비디오를 함께 재 생하기 위해서는 둘 중 하나를 스토리지에 복사한 후 재생을 시작하여야 할 것이다. 제 1 비디오와 제 2 비디오가 같은 클립에 저장된 경우에는 제 1 비디오와 제 2 비디오가 모두 기록매체에 기록되어 제공되거나 모두 기록매체 외부로부터 다운로드 되게 될 것이다.
도 14는 본 발명에 따른 데이터 재생방법의 흐름을 도시한 것이다.
데이터의 재생이 시작되면, 제어부(12)는 기록매체(30) 또는 스토리지(15)로부터 데이터를 독출한다(S1410). 상기 데이터에는 제 1 비디오, 제 1 오디오, 제 2 비디오, 제 2 오디오 데이터는 물론 상기 데이터의 재생을 관리하는 관리데이터가 포함된다. 상기 관리데이터에는 플레이리스트, 플레이아이템, STN 테이블, 클립인포등이 있을 수 있다.
본 발명의 제어부(12)는 상기 관리데이터로부터 제 2 비디오와 함께 재생이 허용되는 제 2 오디오를 확인한다(S1420). 또한, 상기 제어부(12)는 상기 관리데이터로부터 상기 제 2 오디오와 믹싱이 허용되는 제 1 오디오를 확인한다(S1420). 도 5를 참조하면, 본 발명의 STN 테이블에 스트림엔트리가 저장된 제 2 비디오와 함께 재생되는 것이 허용되는 제 2 오디오를 정의하는 'comb_info_Secondary_video_Secondary_audio'(520)가 저장될 수 있다. 또한, 상기 제 2 오디오와의 믹싱이 허용되는 제 1 오디오를 정의하는 'comb_info_Secondary_audio_Primary_audio'(510)가 상기 STN 테이블에 저장될 수 있다. 상기 'comb_info_Secondary_video_Secondary_audio'(520)에 정의된 제 2 오디오 스트림 중 어느 하나가 제 2 오디오 디코더(740f)에서 디코딩되어(S1430) 제 1 오디오 믹서에 제공된다.
상기 디코딩되는 제 2 오디오의 스트림 넘버는 PSR14(120)에 저장된다. 본 발명에서 상기 PSR14(120)는 'disp_a_flag'를 포함할 수 있다. 관련하여, 상기 PSR14(120)의 'disp_a_flag'가 불가능으로 설정된 경우, 상기 제 2 오디오는 출력이 오프된다. 상기 'disp_a_flag'가 UO(User Operation), 네비게이션 커맨드 또는 API에 의해 변경될 수 있음은 도 12에서 설명한 바 있다. 즉, 상기 제 2 오디오의 출력은 UO(User Operation), 네비게이션 커맨드 또는 API 등에 의해 온/오프될 수 있다.
상기 제 2 오디오 디코더(730f)에서 디코딩된 제 2 오디오는 상기 'comb_info_Secondary_audio_Primary_audio'(510)에 정의된 제 1 오디오와 제 1 오디오 믹서(750a)에서 믹싱된다(S1440). 상기 믹싱되는 제 1 오디오는 제 1 오디오 디코더(730e)에서 믹싱되어 상기 제 1 오디오 믹서(750a)에 제공된다.
상기 디코딩되는 제 1 오디오의 스트림 넘버가 PSR1(110)에 저장된다. 본 발명에서 상기 PSR1(110)은 'disp_a_flag'를 포함할 수 있다. 관련하여, 상기 PSR1(110)의 'disp_a_flag'가 불가능으로 설정된 경우, 상기 제 1 비디오는 출력이 오프된다. 상기 'disp_a_flag'가 UO(User Operation), 네비게이션 커맨드 또는 API에 의해 변경될 수 있음은 도 12에서 설명한 바 있다. 즉, 상기 제 1 오디오의 출력은 UO(User Operation), 네비게이션 커맨드 또는 API 등에 의해 온/오프될 수 있다.
상기 본 발명에 따르면 제 2 비디오를 제 2 오디오와 함께 재생하는 것이 가 능해진다. 또한, 콘텐츠 제공자가 커맨드 셋을 이용하여 오디오의 믹싱을 제어하거나 출력을 온/오프하는 것이 가능해진다.
본 발명을 상술한 실시예에 한정되지 않으며, 첨부된 청구범위에서 알 수 있는 바와 같이 본 발명이 속한 분야의 통상의 지식을 가진 자에 의해 변형이 가능하고 이러한 변형은 본 발명의 범위에 속한다.
상기 본 발명에 따른 데이터 재생방법 및 재생장치, 기록매체와 데이터 기록방법 및 기록장치에 따르면, 제 1 비디오와 제 2 비디오를 함께 재생하는 것이 가능하게 된다. 또한, 사용자나 콘텐츠 제공자가 오디오의 믹싱을 제어하거나 오디오을 출력을 제어할 수 있게 된다. 따라서, 콘텐츠 제공자는 보다 다양한 콘텐츠를 구성할 수 있게 되고 사용자는 더욱 다양한 콘텐츠를 경험할 수 있게 되는 장점이 있다. 또한, 콘텐츠 제공자는 본 발명에 의해, 사용자에게 제공되는 오디오를 제어할 수 있게 되는 장점이 있다.

Claims (30)

  1. 제 1 비디오와 제 2 비디오 및 제 1 오디오와 제 2 오디오를 함께 재생함에 있어서,
    기록매체 및/또는 스토리지로부터 관리데이터를 독출하는 단계;
    상기 관리데이터에 포함된, 함께 재생되는 것이 허용되는 제 2 비디오/제 2 오디오 조합정보를 확인하는 단계;
    상기 조합정보에 정의된 제 2 오디오 중 어느 하나를 디코딩하는 단계를 포함하는 것을 특징으로 하는 데이터 재생방법.
  2. 제 1 항에 있어서,
    상기 확인하는 단계에서, 상기 조합정보에 정의된 제 2 오디오와의 믹싱이 허용되는 제 1 오디오 정보를 더 확인하는 것을 특징으로 하는 데이터 재생방법.
  3. 제 2 항에 있어서,
    상기 제 1 오디오와 상기 제 2 오디오는 커맨드 셋에 의해 믹싱레벨이 조절되는 것을 특징으로 하는 데이터 재생방법.
  4. 제 1 항에 있어서,
    상기 제 1 오디오은 커맨드 셋에 의해 출력이 온/오프되는 것을 특징으로 하 는 데이터 재생방법.
  5. 제 1 항에 있어서,
    상기 제 2 오디오는 커맨드 셋에 의해 출력이 온/오프되는 것을 특징으로 하는 데이터 재생방법.
  6. 제 1 항에 있어서,
    상기 조합정보는 상기 관리데이터 중, 상기 제 2 비디오의 스트림엔트리를 포함하는 스트림넘버테이블에 포함된 것을 특징으로 하는 데이터 재생방법.
  7. 제 1 비디오와 제 2 비디오 및 제 1 오디오와 제 2 오디오를 함께 재생함에 있어서,
    상기 제 1 비디오를 디코딩하는 제 1 비디오 디코더와 상기 제 2 비디오를 디코딩하는 제 2 비디오 디코더;
    상기 제 1 오디오를 디코딩하는 제 1 오디오 디코더와 상기 제 2 오디오를 디코딩하는 제 2 오디오 디코더;
    상기 제 1 오디오와 상기 제 2 오디오를 믹싱하는 믹서;
    기록매체 및/또는 스토리지로부터 관리데이터를 독출하고, 상기 관리데이터에 포함된 함께 재생되는 것이 허용되는 제 2 비디오/제 2 오디오 조합정보를 확인하고, 상기 조합정보에 정의된 제 2 오디오 중 어느 하나를 디코딩하도록 제어하는 제어부를 포함하는 것을 특징으로 하는 데이터 재생장치.
  8. 제 7 항에 있어서,
    상기 제어부는 상기 관리데이터에 포함된, 상기 조합정보에 정의된 제 2 오디오와의 믹싱이 허용되는 제 1 오디오 정보를 더 확인하는 것을 특징으로 하는 데이터 재생장치.
  9. 제 7 항에 있어서,
    상기 제어부는 커맨드 셋을 이용하여 상기 제 1 오디오와 상기 제 2 오디오의 믹싱레벨을 조절하는 것을 특징으로 하는 데이터 재생장치.
  10. 제 7 항에 있어서,
    상기 제어부는 커맨드 셋을 이용하여, 상기 제 1 오디오의 출력을 온/오프하는 것을 특징으로 하는 데이터 재생장치.
  11. 제 7 항에 있어서,
    상기 제어부는 커맨드 셋을 이용하여, 상기 제 2 오디오의 출력을 온/오프하는 것을 특징으로 하는 데이터 재생장치.
  12. 제 7 항에 있어서,
    상기 제어부는 상기 조합정보를 상기 관리데이터 중, 상기 제 2 비디오의 스트림엔트리를 포함하는 스트림넘버테이블로부터 확인하는 것을 특징으로 하는 데이터 재생장치.
  13. 제 1 비디오와 제 2 비디오 및 제 1 오디오와 제 2 오디오가 저장된 스트림영역과 관리파일이 저장된 관리영역을 구비하되,
    상기 관리영역에는 함께 재생되는 것이 허용되는 제 2 비디오/제 2 오디오 조합정보를 포함하는 관리데이터가 저장되고,
    상기 조합정보에 정의된 제 2 오디오가 상기 스트림영역에 저장된 것을 특징으로 하는 기록매체.
  14. 제 13 항에 있어서,
    상기 관리데이터는 상기 조합정보에 정의된 제 2 오디오와 믹싱이 허용되는 제 1 오디오 정보를 더 포함하는 것을 특징으로 하는 기록매체.
  15. 제 13 항에 있어서,
    상기 기록매체는 상기 제 1 오디오와 상기 제 2 오디오의 믹싱레벨을 조절하는 커맨드 셋을 포함하는 것을 특징으로 하는 기록매체.
  16. 제 13 항에 있어서,
    상기 기록매체는 상기 제 1 오디오의 출력을 온/오프하는 커맨드 셋을 포함하는 것을 특징으로 하는 기록매체.
  17. 제 13 항에 있어서,
    상기 기록매체는 상기 제 2 오디오의 출력을 온/오프하는 커맨드 셋을 포함하는 것을 특징으로 하는 기록매체.
  18. 제 13 항에 있어서,
    상기 조합정보는 상기 관리데이터 중, 상기 제 2 비디오의 스트림엔트리를 포함하는 스트림넘버테이블에 포함된 것을 특징으로 하는 기록매체.
  19. 제 1 비디오와 제 2 비디오 및 제 1 오디오와 제 2 오디오를 기록매체에 기록함에 있어서,
    함께 재생되는 것이 허용되는 제 2 비디오/제 2 오디오 조합정보를 포함하는 관리데이터를 생성하여 상기 기록매체에 기록하고,
    상기 조합정보에 정의된 제 2 오디오를 상기 제 1 비디오 및 제 2 비디오와 함께 상기 기록매체에 기록하는 것을 특징으로 하는 데이터 기록방법.
  20. 제 19 항에 있어서,
    상기 관리데이터는 상기 조합정보에 정의된 제 2 오디오와 믹싱이 허용되는 제 1 오디오 정보를 더 포함하는 것을 특징으로 하는 데이터 기록방법.
  21. 제 19 항에 있어서,
    상기 제 1 오디오와 상기 제 2 오디오의 믹싱과정에서의 믹싱레벨을 조절하는 커맨드 셋을 상기 기록매체에 더 기록하는 것을 특징으로 하는 데이터 기록방법.
  22. 제 19 항에 있어서,
    상기 제 1 오디오의 출력을 온/오프하는 커맨드 셋을 상기 기록매체에 더 기록하는 것을 특징으로 하는 데이터 기록방법.
  23. 제 19 항에 있어서,
    상기 제 2 오디오를 온/오프하는 커맨드 셋을 상기 기록매체에 기록하는 것을 특징으로 하는 데이터 기록방법.
  24. 제 19 항에 있어서,
    상기 조합정보를 상기 관리데이터 중, 상기 제 2 비디오의 스트림엔트리를 포함하는 스트림넘버테이블에 포함시켜 기록하는 것을 특징으로 하는 데이터 기록방법.
  25. 제 1 비디오와 제 2 비디오 및 제 1 오디오와 제 2 오디오를 기록매체에 기록함에 있어서,
    상기 기록매체에 데이터를 기록하는 기록부;
    함께 재생되는 것이 허용되는 제 2 비디오/제 2 오디오 조합정보를 포함하는 관리데이터를 생성하고, 상기 관리데이터를 상기 조합정보에 정의된 제 2 오디오와 함께 상기 기록매체에 기록하도록 제어하는 제어부를 포함하는 것을 특징으로 하는 데이터 기록장치.
  26. 제 25 항에 있어서,
    상기 제어부는 상기 조합정보에 정의된 제 2 오디오와 믹싱이 허용되는 제 1 오디오 정보를 상기 관리데이터에 포함시켜 상기 기록매체에 기록하도록 제어하는 것을 특징으로 하는 데이터 기록장치.
  27. 제 25 항에 있어서,
    상기 제어부는 상기 제 1 오디오와 상기 제 2 오디오의 믹싱과정에서의 믹싱레벨을 조절하는 커맨드 셋을 상기 기록매체에 기록하도록 제어하는 것을 특징으로 하는 데이터 기록장치.
  28. 제 25 항에 있어서,
    상기 제어부는 상기 제 1 오디오의 출력을 온/오프하는 커맨드 셋을 상기 기 록매체에 기록하도록 제어하는 것을 특징으로 하는 데이터 기록장치.
  29. 제 25 항에 있어서,
    상기 제어부는 상기 제 2 오디오를 온/오프하는 커맨드 셋을 상기 기록매체에 기록하도록 제어하는 것을 특징으로 하는 데이터 기록장치.
  30. 제 25 항에 있어서,
    상기 제어부는 상기 조합정보를 상기 관리데이터 중, 상기 제 2 비디오의 스트림엔트리를 포함하는 스트림넘버테이블에 포함시켜 기록하도록 제어하는 것을 특징으로 하는 데이터 기록장치.
KR1020060034477A 2005-08-22 2006-04-17 데이터 재생방법 및 재생장치, 기록매체와 데이터 기록방법및 기록장치 KR20070022580A (ko)

Priority Applications (9)

Application Number Priority Date Filing Date Title
KR1020060034477A KR20070022580A (ko) 2005-08-22 2006-04-17 데이터 재생방법 및 재생장치, 기록매체와 데이터 기록방법및 기록장치
BRPI0615070A BRPI0615070A2 (pt) 2005-08-22 2006-08-21 método e aparelho para gerenciar reprodução de áudio para pelo menos um caminho de apresentação picture-in-picture, meio de gravação, método e aparelho para gravar estrutura de dados
EP06769353A EP1924993A4 (en) 2005-08-22 2006-08-21 METHOD AND DEVICE FOR REPRODUCING DATA, RECORDING MEDIUM, AND METHOD AND DEVICE FOR RECORDING DATA
US11/506,897 US20070041712A1 (en) 2005-08-22 2006-08-21 Method and apparatus for reproducing data, recording medium, and method and apparatus for recording data
PCT/KR2006/003276 WO2007024076A2 (en) 2005-08-22 2006-08-21 Method and apparatus for reproducing data, recording medium, and method and apparatus for recording data
US11/506,882 US20070041279A1 (en) 2005-08-22 2006-08-21 Method and apparatus for reproducing data, recording medium, and method and apparatus for recording data
JP2008527840A JP2009505325A (ja) 2005-08-22 2006-08-21 データ再生方法及び再生装置、記録媒体並びにデータ記録方法及び記録装置
TW095130880A TW200735048A (en) 2005-08-22 2006-08-22 Method and apparatus for reproducing data, recording medium, and method and apparatus for reocrding data
US11/978,646 US20080063369A1 (en) 2006-04-17 2007-10-30 Method and apparatus for reproducing data, recording medium, and method and apparatus for recording data

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US60/709,807 2005-08-22
US60/737,412 2005-11-17
KR1020060034477A KR20070022580A (ko) 2005-08-22 2006-04-17 데이터 재생방법 및 재생장치, 기록매체와 데이터 기록방법및 기록장치

Publications (1)

Publication Number Publication Date
KR20070022580A true KR20070022580A (ko) 2007-02-27

Family

ID=43654235

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020060034477A KR20070022580A (ko) 2005-08-22 2006-04-17 데이터 재생방법 및 재생장치, 기록매체와 데이터 기록방법및 기록장치

Country Status (2)

Country Link
US (1) US20080063369A1 (ko)
KR (1) KR20070022580A (ko)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4850605B2 (ja) * 2006-07-18 2012-01-11 株式会社日立製作所 映像記録方法
JP5351763B2 (ja) * 2007-10-19 2013-11-27 パナソニック株式会社 オーディオミキシング装置
DK2230844T3 (en) * 2008-01-17 2018-01-02 Panasonic Ip Man Co Ltd REGISTRATION MEDIUM, WHICH 3D VIDEO IS REGISTERED, REGISTRATION MEDIUM FOR REGISTERING 3D VIDEO AND REPLACEMENT DEVICE AND METHOD OF REPRESENTING 3D VIDEO
US9185328B2 (en) * 2009-06-08 2015-11-10 Lg Electronics Inc. Device and method for displaying a three-dimensional PIP image
US9092436B2 (en) * 2009-09-08 2015-07-28 Apple Inc. Programming interface for use by media bundles to provide media presentations
US8862761B1 (en) * 2009-09-14 2014-10-14 The Directv Group, Inc. Method and system for forming an audio overlay for streaming content of a content distribution system
JP5652642B2 (ja) * 2010-08-02 2015-01-14 ソニー株式会社 データ生成装置およびデータ生成方法、データ処理装置およびデータ処理方法
US10067955B1 (en) 2014-12-08 2018-09-04 Conviva Inc. Custom video metrics management platform
US10536743B2 (en) * 2015-06-03 2020-01-14 Autodesk, Inc. Preloading and switching streaming videos

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4882721A (en) * 1984-02-08 1989-11-21 Laser Magnetic Storage International Company Offset for protection against amorphous pips
TW335241U (en) * 1992-11-30 1998-06-21 Thomson Consumer Electronics A video display system
JP3256619B2 (ja) * 1993-12-24 2002-02-12 株式会社東芝 文字情報表示装置
US5657093A (en) * 1995-06-30 1997-08-12 Samsung Electronics Co., Ltd. Vertical filter circuit for PIP function
KR100511250B1 (ko) * 1998-04-09 2005-11-03 엘지전자 주식회사 디지탈오디오/비디오(a/v)시스템
US6678227B1 (en) * 1998-10-06 2004-01-13 Matsushita Electric Industrial Co., Ltd. Simultaneous recording and reproduction apparatus and simultaneous multi-channel reproduction apparatus
KR100313901B1 (ko) * 1999-02-08 2001-11-17 구자홍 텔레비젼 수신기에서의 부화면 처리 장치
JP2001231016A (ja) * 2000-02-15 2001-08-24 Matsushita Electric Ind Co Ltd 映像信号再生装置
US7099567B2 (en) * 2000-04-21 2006-08-29 Matsushita Electric Industrial Co., Ltd. Video processing method and video processing apparatus
TW522379B (en) * 2000-05-26 2003-03-01 Cyberlink Corp DVD playback system for displaying two types of captions and the playback method
JP4409150B2 (ja) * 2001-06-11 2010-02-03 三星電子株式会社 多国語マークアップ文書支援情報が記録された情報貯蔵媒体、その再生装置及び再生方法
JP2003228921A (ja) * 2002-01-31 2003-08-15 Toshiba Corp 情報記録媒体、情報記録装置及び情報再生装置
JP2003249057A (ja) * 2002-02-26 2003-09-05 Toshiba Corp デジタル情報媒体を用いるエンハンスド・ナビゲーション・システム
US7665110B2 (en) * 2002-05-14 2010-02-16 Lg Electronics Inc. System and method for synchronous reproduction of local and remote content in a communication network
KR100930354B1 (ko) * 2002-06-18 2009-12-08 엘지전자 주식회사 대화형 광디스크 장치에서의 콘텐츠 정보 재생방법과,콘텐츠 제공서버에서의 콘텐츠 정보 제공방법
US7865058B2 (en) * 2002-09-26 2011-01-04 Koninklijke Philips Electronics N.V. Apparatus for receiving a digital information signal comprising a first video signal producing images of a first size, and a second video signal producing images of a second size smaller than the first size
TWI261821B (en) * 2002-12-27 2006-09-11 Toshiba Corp Information playback apparatus and information playback method
KR100565060B1 (ko) * 2003-03-14 2006-03-30 삼성전자주식회사 언어 정보에 따라 적응적으로 재생가능한 데이터 구조로기록된 정보저장매체, 그 재생 방법 및 장치
KR100512611B1 (ko) * 2003-04-11 2005-09-05 엘지전자 주식회사 영상표시기기의 pip 처리장치 및 방법
JP4138614B2 (ja) * 2003-09-05 2008-08-27 株式会社東芝 情報記憶媒体、情報再生装置、情報再生方法
JP2005114614A (ja) * 2003-10-09 2005-04-28 Ricoh Co Ltd 検査信号モニタ機能付き検査装置とリモート検査システム。
BRPI0407057A (pt) * 2003-11-28 2006-01-17 Sony Corp Aparelho de reprodução, método de reprodução, programa de reprodução, e, meio de gravação
KR100716970B1 (ko) * 2003-12-08 2007-05-10 삼성전자주식회사 디지털 저장 미디어의 트릭 재생 방법 및 그에 적합한디지털 저장 미디어 구동기
TWI398858B (zh) * 2005-08-09 2013-06-11 Panasonic Corp 記錄媒體及播放裝置

Also Published As

Publication number Publication date
US20080063369A1 (en) 2008-03-13

Similar Documents

Publication Publication Date Title
KR20060081330A (ko) 로컬 스토리지를 이용한 기록매체 재생방법 및 재생장치
KR20070049164A (ko) 로컬 스토리지를 사용하여 기록 매체로부터 데이터를재생하는 방법 및 장치
KR20070022580A (ko) 데이터 재생방법 및 재생장치, 기록매체와 데이터 기록방법및 기록장치
US20070041712A1 (en) Method and apparatus for reproducing data, recording medium, and method and apparatus for recording data
KR20070014945A (ko) 기록매체, 데이터 재생방법 및 재생장치와 데이터 기록방법및 기록장치
US20080056676A1 (en) Apparatus for reproducing data, method thereof, apparatus for recording the same, method thereof and recording medium
KR20070014944A (ko) 데이터 재생방법 및 재생장치, 기록매체와 데이터 기록방법및 기록장치
US20070025699A1 (en) Recording medium, method and apparatus for reproducing data, and method and apparatus for recording data
KR20070014948A (ko) 기록매체, 데이터 재생방법 및 재생장치와 데이터 기록방법및 기록장치
KR20080038221A (ko) 기록매체, 데이터 재생방법 및 재생장치와 데이터 기록방법및 기록장치
JP2009505324A (ja) データを再生するための装置及びその方法、データを記録するための装置及びその方法並びに記録媒体
KR20070014968A (ko) 데이터 재생방법 및 재생장치, 기록매체와 데이터 기록방법및 기록장치
JP2009505312A (ja) 記録媒体、データ再生方法及び再生装置、並びにデータ記録方法及び記録装置
KR20080033433A (ko) 데이터 재생을 위한 방법 그리고 장치, 기록 매체, 그리고데이터 기록을 위한 방법 그리고 장치
KR20070057821A (ko) 로컬 스토리지를 이용하여 기록매체로부터 데이터를재생하는 재생방법 및 재생장치
KR20070022578A (ko) 기록매체, 데이터 재생방법 및 재생장치와 데이터 기록방법및 기록장치
KR20080034178A (ko) 기록매체, 데이터 재생방법 및 재생장치와 데이터 기록방법및 기록장치
KR20080033404A (ko) 기록매체, 데이터 재생방법/장치 및 데이터 기록방법/장치
KR20080036126A (ko) 기록매체, 데이터 재생방법 및 재생장치와 데이터 기록방법및 기록장치
KR20070031218A (ko) 데이터 재생방법 및 재생장치 그리고 기록방법, 기록장치및 기록매체
EP1924992A2 (en) Apparatus for reproducing data, method thereof, apparatus for recording the same, method thereof and recording medium
US20080056679A1 (en) Recording medium, method and apparatus for reproducing data, and method and apparatus for recording data
KR20070120003A (ko) 데이터 재생방법 및 재생장치 그리고 기록방법, 기록장치및 기록매체
KR20070014947A (ko) 데이터 재생방법 및 재생장치 그리고 기록방법, 기록장치및 기록매체
WO2007024077A2 (en) Apparatus for reproducing data, method thereof, apparatus for recording the same, method thereof and recording medium

Legal Events

Date Code Title Description
WITN Application deemed withdrawn, e.g. because no request for examination was filed or no examination fee was paid