KR20080089721A - 오디오/비디오 동기화 방법 - Google Patents

오디오/비디오 동기화 방법 Download PDF

Info

Publication number
KR20080089721A
KR20080089721A KR1020070032239A KR20070032239A KR20080089721A KR 20080089721 A KR20080089721 A KR 20080089721A KR 1020070032239 A KR1020070032239 A KR 1020070032239A KR 20070032239 A KR20070032239 A KR 20070032239A KR 20080089721 A KR20080089721 A KR 20080089721A
Authority
KR
South Korea
Prior art keywords
audio
video
cts
frame
stc
Prior art date
Application number
KR1020070032239A
Other languages
English (en)
Other versions
KR100864009B1 (ko
Inventor
윤형준
Original Assignee
주식회사 대우일렉트로닉스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 대우일렉트로닉스 filed Critical 주식회사 대우일렉트로닉스
Priority to KR1020070032239A priority Critical patent/KR100864009B1/ko
Publication of KR20080089721A publication Critical patent/KR20080089721A/ko
Application granted granted Critical
Publication of KR100864009B1 publication Critical patent/KR100864009B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/4302Content synchronisation processes, e.g. decoder synchronisation
    • H04N21/4305Synchronising client clock from received content stream, e.g. locking decoder clock with encoder clock, extraction of the PCR packets
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/439Processing of audio elementary streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • H04N21/8547Content authoring involving timestamps for synchronizing content
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H2201/00Aspects of broadcast communication
    • H04H2201/10Aspects of broadcast communication characterised by the type of broadcast system
    • H04H2201/11Aspects of broadcast communication characterised by the type of broadcast system digital multimedia broadcasting [DMB]

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Security & Cryptography (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Synchronisation In Digital Transmission Systems (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

본 발명은 오디오/비디오 동기화 방법에 관한 것으로, 지상파 DMB에서 오디오/비디오 기본 스트림을 디코딩할 때에 오디오 콤포지션 타임 스탬프(CTS)와 현재 시각 시스템 타임 클록(STC)의 비교 결과에 따라 오디오의 재생 속도를 파악한 후에 오디오의 재생시간에 따라 비디오 프레임의 재생속도를 조절함으로써, 오디오 음질에 영향을 주지 않으면서, 즉 오디오의 끊김 또는 반복 없이 오디오와 비디오를 동기화하여 높은 오디오 음질을 보장하며, 동기화를 위한 버퍼 용량을 줄일 수 있는 이점이 있다.
디코딩, 동기화, 립 싱크로나이즈

Description

오디오/비디오 동기화 방법{LIP-SYNCHRONIZE METHOD}
도 1은 오디오/비디오 동기화를 위한 기준 클록과 타임 스탬프의 관계 그래프,
도 2는 본 발명의 일 실시 예에 따른 오디오/비디오 동기화 방법을 수행할 수 있는 오디오/비디오 복호기의 블록 구성도,
도 3은 본 발명의 일 실시 예에 따른 오디오/비디오 동기화 방법을 설명하기 위한 흐름도.
<도면의 주요 부분에 대한 부호의 설명>
110 : 시스템 디코더 122, 124 : 디코딩 버퍼
132 : 비디오 디코더 134 : 오디오 디코더
142, 144 : 콤포지션 메모리 152 : 비디오 출력 제어기
154 : 오디오 출력 제어기
본 발명은 오디오/비디오 동기화 방법에 관한 것으로, 더욱 상세하게는 지상파 디지털 멀티미디어 방송(Digital Multimedia Broadcasting, 이하 "DMB"라 함)에 서 오디오/비디오 기본 스트림(ES: Elementary Stream)을 디코딩할 때에 오디오와 비디오를 동기화하는 방법에 관한 것이다.
지상파 DMB에서 사용되는 MPEG-4 및 MPEG-2 시스템에서는 기본 스트림에 의해 전송되는 오디오/비디오(AV) 데이터를 동기시키고 타이밍정보를 전송하기 위해 기준 클록(clock reference)과 타임 스탬프(time stamp)들을 사용한다.
MPEG-4에서의 타임 스탬프들은 수신 단말이 디코딩 버퍼에 있는 접근단위(access unit)들의 디코딩 시점을 정의하기 위해 디코딩 타임 스탬프(Decording Time Stamp, 이하 "DTS"라 함)를 사용하며, 콤포지션 단위(Composition Unit)들의 콤포지션(composition) 시점을 정확히 나타내기 위해 콤포지션 타임 스탬프(Composition Time Stamp, 이하 "CTS"라 함)를 사용한다.
오브젝트 기준 클록(Object Clock Reference, 이하 "OCR"이라 함)은 주어진 스트림에 대한 시간 표기를 ES 디코더로 전송하기 위해 사용된다. OCR 값은 송신단말이 OCR 타임 스탬프를 발생시키는 시간에서의 오브젝트 타임 베이스(Object Time Base, 이하 "OTB"라 함)값에 대응되며, OCR 값들은 SL 패킷 헤더에 포함되어 전송된다.
MPEG-2에서는 인코더의 시스템 타임 클록(System Time Clock, 이하 "STC"라 함) 정보를 42비트로 구성된 프로그램기준시간정보인 PCR(Program Clock Reference, 이하 "PCR"이라 함)에 실어 전송함으로써, 디코더의 STC를 인코더의 STC와 동기시킨다.
또한, 접근단위가 수신기에 의해 재생되는 시간을 나타내기 위해서는 프로그 램 타임 스탬프(Program Time Stamp, 이하 "PTS"라 함)를 사용한다. 이 PTS는 임의의 접근 단위가 인코더로 입력되는 순간에 PCR의 하위 33비트 계수기의 값에 해당하며, 패킷 기본 스트림(Packet Elementary Stream, 이하 "PES"라 함)의 헤더에 PTS 필드값으로 부호화된다.
디코더에서는 전송된 PCR과 동기화된 디코더 STC의 33비트 계수기 값이 전송된 PTS와 일치할 때, 비디오와 오디오를 재현함으로써 재생 시간을 맞춘다.
국내 지상파 DMB 방송에서는 MPEG-4 및 MPEG-2를 동시에 사용하고 있다. 여기서, 오디오 및 비디오의 타이밍정보를 전송하고 동기화하기 위하여, MPEG-2의 경우에는 PCR, PTS를 이용하고, MPEG-4의 경우에는 OCR, CTS, DTS 정보를 이용한다. 또한, MPEG-4와 MPEG-2의 동기화를 위해서 MPEG-4의 SL 패킷이 MPEG-2의 PES 패킷으로 매핑될 때 1:1이 되게 하고, MPEG-2의 PTS는 MPEG-4의 SL 패킷 헤더에 OCR이 포함되어 올 경우에만 PES 헤더에 포함되고, 그렇지 않을 경우에는 PTS를 사용하지 않는다. 또한 MPEG-4 데이터 스트림에 대한 시간 표기를 정의하는 OTB는 MPEG-2의 STC와 맞물리게 한다.
결국, MPEG-4의 OTB는 SL 패킷 헤더에 코딩된 OCR에 의해 전달되고, 이 OCR은 MPEG-2 PTS와 동기화되게 함으로써 MPEG-2 TS를 통해 MPEG-4의 데이터가 전송될 때 동기화가 이루어진다.
결과적으로, AV 인코더에서 출력되는 스트림에서 PTS는 비디오와 오디오의 타이밍정보의 기준이 되며, 이 PTS를 이용하면 DMB AV 스트림과 부가적인 데이터와의 동기화를 이룰 수 있다. 또한, PTS는 AV의 실제 재생시간에 해당하는 CTS와 선 형적인 관계를 이루고 있으며, 동기화를 위해 CTS를 직접 이용할 수도 있다.
한편, DMB 오디오를 디코딩할 때도 다른 방송규격과 마찬가지로 오디오와 비디오의 동기화, 즉 립 싱크로나이즈(Lip-Synchronize)를 고려해야 한다.
도 1은 오디오/비디오 동기화를 위한 기준 클록과 타임 스탬프의 관계 그래프이다. 도 1을 참조하여 종래 기술에 따른 오디오/비디오 동기화 과정을 살펴보면 다음과 같다.
먼저, TS 스트림을 입력받아 이를 비디오 ES와 오디오 ES로 분리하여 각각 저장한 후, 각각 디코딩을 수행하여 STC와 각 CTS를 비교하여 비디오와 오디오의 출력을 동기화한다.
동기화 과정을 살펴보면, 각 프레임의 디코딩이 완료되면 그 CTS와 현재 시각 STC를 구하며, CTS와 STC의 차이값과 기 설정값(k)을 비교한다. 여기서, k는 시청자가 청각 또는 시각적으로 그 차이를 느끼지 못하는 임계값이다.
현재 프레임의 CTS와 STC 간의 차이가 도 1의 (b)와 같이 기 설정값(k) 이내이면, 즉
Figure 112007025382933-PAT00001
이면 오디오와 비디오의 재생속도가 기준시간에 맞는 것으로 간주하고 현재 프레임을 출력한다.
도 1의 (a)와 같이
Figure 112007025382933-PAT00002
이면 현재 프레임의 재생속도가 느린 것으로 간주하고 현재 프레임을 스킵하여 다음 프레임을 출력한다.
도 1의 (c)와 같이
Figure 112007025382933-PAT00003
이면 현재 프레임의 재생속도가 빠른 것으로 간주하고 이전 프레임을 반복하여 출력한다.
이와 같은 동기화는 오디오와 비디오 각각에 대해서 적용되어 각 프레임의 재생속도를 CTS에 기술된 속도로 조절한다.
그러나, 전술한 바와 같은 종래 기술은 오디오와 비디오 모두를 각각의 CTS에 따라 개별적으로 동기화함으로써, 비디오에 비해 상대적으로 더 민감한 오디오는 잦은 반복 또는 스킵에 의해서 음질의 저하가 심해지는 문제점이 있었다.
본 발명은 이와 같은 종래의 문제점을 해결하기 위하여 제안한 것으로, 지상파 DMB에서 오디오/비디오 ES를 디코딩할 때에 오디오의 재생시간에 따라 비디오 프레임의 재생속도를 조절함으로써, 오디오 음질에 영향을 주지 않으면서 오디오와 비디오를 동기화하는데 그 목적이 있다.
이와 같은 목적을 실현하기 위한 본 발명에 따른 오디오/비디오 동기화 방법은, 디코딩이 완료된 오디오 프레임과 비디오 프레임의 오디오 CTS 및 비디오 CTS와 현재 시각 STC를 구하는 단계와, 디코딩을 통해 복원된 오디오 신호를 복원 순서에 순응하여 정상 출력하는 단계와, 이전 단계를 통해 출력 중인 오디오 프레임의 오디오 CTS와 비교할 때에 값 차이가 최소가 되는 비디오 CTS를 추출하여 추출된 비디오 CTS에 해당하는 비디오 프레임을 해당 오디오 CTS와 대응시키는 단계와, 오디오 CTS와 STC의 차이값을 계산한 후 계산된 차이값과 기 설정값(k)을 비교하여 그 비교 결과에 따라 이전 단계에서 대응시킨 비디오 프레임, 그 이전 비디오 프레임 또는 그 다음 비디오 프레임 중에서 하나의 비디오 프레임을 출력하는 단계를 포함한다.
이하, 본 발명의 바람직한 실시 예를 첨부된 도면들을 참조하여 상세히 설명한다. 아울러 본 발명을 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략한다.
도 2는 본 발명의 일 실시 예에 따른 오디오/비디오 동기화 방법을 수행할 수 있는 오디오/비디오 복호기의 블록 구성도이다.
먼저, 시스템 디코더(110)에서 TS 스트림을 입력받아 이를 비디오 ES와 오디오 ES로 분리하여 각각 디코딩 버퍼(122, 124)에 저장하며, 비디오 CTS와 오디오 CTS를 구하여 각각 비디오 출력 제어기(152)와 오디오 출력 제어기(154)로 제공한다.
비디오 디코더(132)와 오디오 디코더(134)에서는 비디오 ES와 오디오 ES에 대해 각각 디코딩을 수행하며, 복원된 비디오 신호와 오디오 신호를 각각 콤포지션 메모리(142, 144)에 저장한다.
그러면, 비디오 출력 제어기(152)와 오디오 출력 제어기(154)는 STC와 CTS를 비교하여 비디오와 오디오의 출력을 동기화하는데, 오디오 출력 제어기(154)는 복원된 오디오 신호를 복원 순서에 순응하여 정상 출력하며, 비디오 출력 제어기(152)는 STC와 오디오 CTS의 비교 결과값에 의거하여 대응하는 비디오 프레임, 이전 프레임 또는 다음 프레임을 출력한다. 즉 비디오를 오디오 재생속도에 종속시켜 출력하는 것이다.
이와 같은 오디오/비디오 동기화 과정을 도 3을 참조하여 보다 상세히 살펴 보기로 한다.
먼저, 현재 디코딩이 완료된 오디오 프레임과 비디오 프레임의 CTS를 각각 구하고(S201), 현재 시각 STC를 구한 후(S203)에 오디오 CTS와 STC의 차이값을 계산한다(S205).
아울러, 복원된 오디오 신호를 복원 순서에 순응하여 정상 출력하며(S207), 현재 출력 중인 오디오 CTS와의 값 차이가 최소가 되는 비디오 CTS를 추출한다(S209). 그리고 추출된 비디오 CTS에 대응하는 비디오 프레임을 해당 오디오 CTS와 대응시킨다.
다음으로, 오디오 CTS와 STC의 차이값과 기 설정값(k)을 비교한다(S211). 여기서, k는 시청자가 청각 또는 시각적으로 그 차이를 느끼지 못하는 임계값이다.
현재 프레임의 CTS와 STC 간의 차이가 도 1의 (b)와 같이 기 설정값(k) 이내이면, 즉
Figure 112007025382933-PAT00004
이면 오디오와 비디오의 재생속도가 기준시간에 맞는 정상범위로 간주하고 오디오 CTS에 대응하는 비디오 프레임을 출력한다(S213).
도 1의 (a)와 같이
Figure 112007025382933-PAT00005
이면 오디오의 재생속도가 느린 것으로 간주하고 오디오 CTS에 대응하는 비디오 프레임이 아닌 이전 비디오 프레임을 반복하여 출력한다. 종래에는 오디오 프레임을 스킵하였으나 이럴 경우에 오디오 음질에 영향을 끼치게 되므로 비디오 재생속도를 느리게 조절하는 것이다(S215).
도 1의 (c)와 같이
Figure 112007025382933-PAT00006
이면 오디오의 재생속도가 빠른 것으로 간주하고 오디오 CTS에 대응하는 비디오 프레임을 스킵하여 다음 비디오 프레임을 출력한다. 종래에는 오디오 프레임을 반복 재생하였으나 이 경우에도 오디오 음질에 영향을 끼치므로 비디오 재생속도를 빠르게 조절하여 동기를 맞추는 것이다(S217).
이와 같이, 본 발명에서는 비디오와 오디오 각각의 CTS를 STC와 비교하여 각 프레임을 스킵하거나 반복하지 않고 오디오만 비교하여 오디오는 정상적으로 재생하고, 오디오의 재생속도에 맞추어 비디오의 재생속도를 조절하여 동기를 맞춘다.
지금까지 본 발명의 일 실시 예에 국한하여 설명하였으나 본 발명의 기술이 당업자에 의하여 용이하게 변형 실시될 가능성이 자명하다. 이러한 변형된 실시 예들은 본 발명의 특허청구범위에 기재된 기술사상에 포함된다고 하여야 할 것이다.
전술한 바와 같이 본 발명은 지상파 DMB에서 오디오/비디오 ES를 디코딩할 때에 오디오의 재생시간에 따라 비디오 프레임의 재생속도를 조절함으로써, 오디오 음질에 영향을 주지 않으면서, 즉 오디오의 끊김 또는 반복 없이 오디오와 비디오를 동기화하여 높은 오디오 음질을 보장하며, 동기화를 위한 버퍼 용량을 줄일 수 있는 효과가 있다.

Claims (5)

  1. (a) 디코딩이 완료된 오디오 프레임과 비디오 프레임의 오디오 콤포지션 타임 스탬프(CTS) 및 비디오 CTS와 현재 시각 시스템 타임 클록(STC)을 구하는 단계와,
    (b) 상기 디코딩을 통해 복원된 오디오 신호를 복원 순서에 순응하여 정상 출력하는 단계와,
    (c) 상기 (b) 단계를 통해 출력 중인 오디오 프레임의 상기 오디오 CTS와 비교할 때에 값 차이가 최소가 되는 비디오 CTS를 추출하여 추출된 비디오 CTS에 해당하는 상기 비디오 프레임을 해당 오디오 CTS와 대응시키는 단계와,
    (d) 상기 오디오 CTS와 상기 STC의 차이값을 계산한 후 계산된 차이값과 기 설정값(k)을 비교하여 그 비교 결과에 따라 상기 (c) 단계에서 대응시킨 상기 비디오 프레임, 그 이전 비디오 프레임 또는 그 다음 비디오 프레임 중에서 하나의 비디오 프레임을 출력하는 단계
    를 포함하는 오디오/비디오 동기화 방법.
  2. 제 1 항에 있어서,
    상기 (d) 단계는, (d1) 상기 비교 결과에 의거하여 오디오와 비디오의 재생속도가 기준시간에 맞는 정상범위로 간주되면 상기 (c) 단계에서 대응시킨 상기 비디오 프레임을 출력하는 단계와,
    (d2) 상기 비교 결과에 의거하여 오디오의 재생속도가 느린 것으로 간주되면 상기 (c) 단계에서 대응시킨 상기 비디오 프레임의 이전 비디오 프레임을 반복하여 출력하는 단계와,
    (d3) 상기 비교 결과에 의거하여 오디오의 재생속도가 빠른 것으로 간주되면 상기 (c) 단계에서 대응시킨 상기 비디오 프레임을 스킵하여 다음 비디오 프레임을 출력하는 단계
    를 포함하는 오디오/비디오 동기화 방법.
  3. 제 2 항에 있어서,
    상기 (d1) 단계는,
    Figure 112007025382933-PAT00007
    이면 상기 정상범위로 간주하는
    오디오/비디오 동기화 방법.
  4. 제 2 항에 있어서,
    상기 (d2) 단계는,
    Figure 112007025382933-PAT00008
    이면 상기 오디오의 재생속도가 느린 것으로 간주하는
    오디오/비디오 동기화 방법.
  5. 제 2 항에 있어서,
    상기 (d3) 단계는,
    Figure 112007025382933-PAT00009
    이면 상기 오디오의 재생속도가 빠른 것으로 간주하는
    오디오/비디오 동기화 방법.
KR1020070032239A 2007-04-02 2007-04-02 오디오/비디오 동기화 방법 KR100864009B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020070032239A KR100864009B1 (ko) 2007-04-02 2007-04-02 오디오/비디오 동기화 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020070032239A KR100864009B1 (ko) 2007-04-02 2007-04-02 오디오/비디오 동기화 방법

Publications (2)

Publication Number Publication Date
KR20080089721A true KR20080089721A (ko) 2008-10-08
KR100864009B1 KR100864009B1 (ko) 2008-10-16

Family

ID=40151166

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020070032239A KR100864009B1 (ko) 2007-04-02 2007-04-02 오디오/비디오 동기화 방법

Country Status (1)

Country Link
KR (1) KR100864009B1 (ko)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100978506B1 (ko) * 2008-11-25 2010-08-27 한국과학기술원 디지털 방송 시청 단말기 및 그 단말기의 버퍼제어 방법
KR101048302B1 (ko) * 2008-11-14 2011-07-13 주식회사 코아로직 임베디드 멀티미디어 시스템에서의 시간 동기화 장치와 방법, 및 그 동기화 장치를 포함한 멀티미디어 재생기
CN112562719A (zh) * 2020-11-30 2021-03-26 清华珠三角研究院 合成语音与原始视频匹配方法、***、装置及存储介质

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100998449B1 (ko) 2008-11-25 2010-12-06 한국과학기술원 Dmb 수신장치 및 그 버퍼제어 방법

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10271482A (ja) 1997-03-27 1998-10-09 Nippon Telegr & Teleph Corp <Ntt> 符号化映像の同期再生制御方法およびシステム
JP3063841B2 (ja) 1997-11-26 2000-07-12 日本電気株式会社 オーディオ・ビデオ同期再生装置
KR100617221B1 (ko) * 1999-02-10 2006-08-31 엘지전자 주식회사 디지털 방송 수신기의 오디오/비디오 신호 동기화 방법
JP4235780B2 (ja) 1999-09-29 2009-03-11 ソニー株式会社 信号再生方法および信号再生装置
JP4313522B2 (ja) 2001-07-30 2009-08-12 日本放送協会 リップシンク制御装置

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101048302B1 (ko) * 2008-11-14 2011-07-13 주식회사 코아로직 임베디드 멀티미디어 시스템에서의 시간 동기화 장치와 방법, 및 그 동기화 장치를 포함한 멀티미디어 재생기
KR100978506B1 (ko) * 2008-11-25 2010-08-27 한국과학기술원 디지털 방송 시청 단말기 및 그 단말기의 버퍼제어 방법
CN112562719A (zh) * 2020-11-30 2021-03-26 清华珠三角研究院 合成语音与原始视频匹配方法、***、装置及存储介质
CN112562719B (zh) * 2020-11-30 2024-03-19 清华珠三角研究院 合成语音与原始视频匹配方法、***、装置及存储介质

Also Published As

Publication number Publication date
KR100864009B1 (ko) 2008-10-16

Similar Documents

Publication Publication Date Title
JP4570462B2 (ja) パーソナルビデオレコーディングの応用におけるmpegデコーダでの音声画像同期を達成する安定した方法
KR100968928B1 (ko) 오디오 스트림 및 비디오 스트림의 동기화 장치 및 방법
JP4990762B2 (ja) インターネットプロトコルに用いるストリーミングオーディオとストリーミングビデオとの同期保持
US6404818B1 (en) Video transmission device and its method
EP2752023B1 (en) Method to match input and output timestamps in a video encoder and advertisement inserter
KR101967818B1 (ko) 수신 장치 및 그 수신 방법
US10129587B2 (en) Fast switching of synchronized media using time-stamp management
KR100308704B1 (ko) 다중화 데이터 생성 장치, 부호화 데이터 재생 장치, 클럭 변환 장치, 다중화 데이터 생성 방법, 부호화 데이터 재생 방법 및 클럭 변환 방법
KR100619007B1 (ko) 비디오 트랜스포트 스트림 동기화 제어 장치 및 방법
JP5972616B2 (ja) 受信装置、クロック復元方法及びプログラム
KR101741747B1 (ko) 실시간 광고 삽입이 가능한 영상 광고 처리 장치 및 방법
KR100864009B1 (ko) 오디오/비디오 동기화 방법
KR20060065436A (ko) 디지털 멀티미디어 방송 수신 장치에서의 오디오 및 비디오동기화 방법 및 장치
US8228999B2 (en) Method and apparatus for reproduction of image frame in image receiving system
JP2010081141A (ja) 字幕放送システム及び字幕放送方法
CN108702533B (zh) 发送装置、发送方法、接收装置和接收方法
JP2010141498A (ja) 映像受信装置及び映像送信装置
JP2005130065A (ja) トランスポートストリーム多重化装置
JP3705231B2 (ja) トランスポートストリーム・スプライサー
KR100539731B1 (ko) 전송스트림저장장치및방법
JP2001069467A (ja) データ再生装置
JP6684433B2 (ja) 送信装置、送信方法、並びに、プログラム
JP2022064531A (ja) 送信装置および受信装置
KR20100058844A (ko) Dmb 수신장치 및 그 버퍼제어 방법
KR20070054269A (ko) 영상 재생장치에서 영상 프레임의 재생 방법 및 장치

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20111004

Year of fee payment: 4

LAPS Lapse due to unpaid annual fee