KR102251148B1 - Audio-Video Synchronization Processing Method - Google Patents

Audio-Video Synchronization Processing Method Download PDF

Info

Publication number
KR102251148B1
KR102251148B1 KR1020200053957A KR20200053957A KR102251148B1 KR 102251148 B1 KR102251148 B1 KR 102251148B1 KR 1020200053957 A KR1020200053957 A KR 1020200053957A KR 20200053957 A KR20200053957 A KR 20200053957A KR 102251148 B1 KR102251148 B1 KR 102251148B1
Authority
KR
South Korea
Prior art keywords
time
media
media data
receiver
data
Prior art date
Application number
KR1020200053957A
Other languages
Korean (ko)
Other versions
KR102251148B9 (en
Inventor
김민수
Original Assignee
(주)유브릿지
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)유브릿지 filed Critical (주)유브릿지
Priority to KR1020200053957A priority Critical patent/KR102251148B1/en
Application granted granted Critical
Publication of KR102251148B1 publication Critical patent/KR102251148B1/en
Publication of KR102251148B9 publication Critical patent/KR102251148B9/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/4302Content synchronisation processes, e.g. decoder synchronisation
    • H04N21/4307Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/845Structuring of content, e.g. decomposing content into time segments
    • H04N21/8456Structuring of content, e.g. decomposing content into time segments by decomposing the content in the time domain, e.g. in time segments
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • H04N21/8547Content authoring involving timestamps for synchronizing content

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Security & Cryptography (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Synchronisation In Digital Transmission Systems (AREA)

Abstract

The present invention relates to a reception delay processing and synchronization processing method of a separately transmitted audio-video stream. According to the present invention, it is possible to minimize the complexity of development and the manipulation and control of a transmission/reception device, and to easily perform media synchronization. The method includes the steps of: allowing a media receiver to send a time synchronization request to a plurality of media transmitters; allowing the media receiver to receive a time synchronization response; calculating a presentation reference time (TR); generating and storing presentation data; and rendering the raw media data of the presentation data and outputting the raw media data from the media receiver.

Description

오디오-비디오 동기화 처리 방법{Audio-Video Synchronization Processing Method}Audio-Video Synchronization Processing Method

본 발명은 오디오-비디오 동기화 처리 방법에 관한 것으로, 보다 자세하게는 분리되어 전송되는 오디오-비디오 스트림의 수신 지연 처리 및 동기화 처리 방법에 관한 것이다. The present invention relates to an audio-video synchronization processing method, and more particularly, to a reception delay processing and synchronization processing method of a separately transmitted audio-video stream.

정보통신 기술의 발전과 더불어 화면 및 소리 출력 장치들이 다양하게 존재하고 있다. 원격에 위치한 소형 디바이스 보다 큰 화면의 장치 또는 타 기기에서 미디어 콘텐츠를 재생하기 위한 필요성이 대두되어 왔다.With the development of information and communication technology, various screen and sound output devices exist. There has been a need to play media content in a device with a larger screen than a small device located remotely or in another device.

이러한 필요성에 따라 단일 컨텐츠의 미디어 또는 이종 기기간 네트워크 스트리밍 기술(RTP/RTCP/VoIP 등)은 다양하게 개발되고 발전되어 왔다. 하지만, 이러한 기술들은 개발난이도가 높고 적용에 많은 시간이 소요되며 유지보수에 어려움이 따른다. 또한, 마이크로 프로세서와 같은 가벼운 임베디드 시스템에서 개발하고 구동하기에는 어려움이 따른다.In accordance with this need, media of single content or network streaming technologies (RTP/RTCP/VoIP, etc.) between different devices have been developed and developed in various ways. However, these technologies are difficult to develop, take a lot of time to apply, and are difficult to maintain. In addition, it is difficult to develop and run in a lightweight embedded system such as a microprocessor.

한국공개특허 복수의0-2009-0095643호에는 입력 오디오 스트림 및 입력 비디오 스트림을 동기화하는 방법, 복수의 컴퓨팅 장치에 걸쳐서 전송되고 있는 미디어 스트림들을 동기화하기 위한 시스템, 및 컴퓨터 판독가능 매체에 관한 내용이 개시되어 있다.Korean Patent Publication No. 0-2009-0095643 discloses a method for synchronizing an input audio stream and an input video stream, a system for synchronizing media streams transmitted across a plurality of computing devices, and a computer-readable medium. It is disclosed.

한국공개특허 복수의0-2009-0095643호에서 각 기기와 RTCP 패킷방식으로 통신하며 NTP를 통해 미디어 스트림 지연을 계산하고 오디오/비디오를 동기화한다. 오디오 스트림의 지연을 기준으로 비디오 스트림을 동기화한다.In Korean Patent Laid-Open No. 0-2009-0095643, each device communicates with each device in RTCP packet method, calculates media stream delay through NTP, and synchronizes audio/video. Synchronize the video stream based on the delay of the audio stream.

그런데 한국공개특허 복수의0-2009-0095643호에 의하면, 각 제어 장치에 별도의 세션 제어기가 필요하며, 미디어 동기화를 위해 RTCP, NTP 등과 같은 프로토콜이 필요하여 개발난이도가 높고 복잡도가 높아진다.However, according to Korean Patent Laid-Open No. 0-2009-0095643, a separate session controller is required for each control device, and protocols such as RTCP and NTP are required for media synchronization, resulting in high development difficulty and high complexity.

한국공개특허 복수의0-2009-0095643호(공개일자: 2009년 9월 9일)Korean Patent Publication No. 0-2009-0095643 (Publication date: September 9, 2009)

따라서 본 발명이 해결하고자 하는 기술적 과제는 분리되어 전송되는 오디오-비디오 스트림의 수신 지연 처리 및 동기화 처리할 수 있는 시스템 및 방법을 제공하는 것이다.Accordingly, a technical problem to be solved by the present invention is to provide a system and method capable of processing delayed reception and synchronization of audio-video streams transmitted separately.

상기한 기술적 과제를 해결하기 위한 본 발명에 따른 방법은 미디어 수신기에서 타임 동기 요청을 복수의 미디어 송신기에 전송하는 단계-상기 타임 동기 요청은 상기 타임 동기 요청을 전송한 시점의 상기 미디어 수신기의 현재 시스템 시간(T1)을 포함함-; 상기 타임 동기 요청에 대응하여 상기 복수의 미디어 송신기에서 전송되는 타임 동기 응답을 상기 미디어 수신기에서 수신하는 단계-상기 타임 동기 응답은 상기 시간(T1)과 상기 복수의 미디어 송신기의 현재 시스템 시간(T2)을 포함함-; 상기 타임 동기 응답을 수신한 시점의 상기 미디어 수신기의 현재 시스템 시간(T3)에서 상기 시간(T2)을 뺀 프리젠테이션 기준 시간(TR)을 계산하는 단계; 상기 복수의 미디어 송신기에서 전송되는 미디어 데이터 패킷을 상기 미디어 수신기에서 수신하는 단계-상기 미디어 데이터 패킷은 원시 미디어 데이터가 인코딩된 미디어 데이터와 인코딩 시점에 대응하는 상기 복수의 미디어 송신기의 현재 시스템 시간(T4)을 포함함-; 상기 미디어 수신기에서 프리젠테이션 시간(T5)을 계산하는 단계-상기 프리젠테이션 시간(T5)은 상기 시간(T4), 상기 시간(TR) 및 미리 정해진 버퍼링 시간(TB)의 합으로 계산됨-; 상기 미디어 수신기에서 상기 인코딩된 미디어 데이터를 디코딩해서 획득한 원시 미디어 데이터와 상기 시간(T5)을 포함하는 프리젠테이션 데이터를 생성하여 저장하는 단계; 그리고 상기 미디어 수신기의 현재 시스템 시간이 상기 시간(T5)이 되면, 상기 시간(T5)에 대응하는 상기 프리젠테이션 데이터의 원시 미디어 데이터를 렌더링하여 상기 미디어 수신기에서 출력하는 단계; 를 포함한다.The method according to the present invention for solving the above technical problem is the step of transmitting a time synchronization request from a media receiver to a plurality of media transmitters-The time synchronization request is a current system of the media receiver at the time when the time synchronization request is transmitted. Including time (T 1 ) -; Receiving at the media receiver a time synchronization response transmitted from the plurality of media transmitters in response to the time synchronization request-The time synchronization response includes the time (T 1 ) and the current system time (T) of the plurality of media transmitters. Including 2 ) -; Calculating a presentation reference time (T R ) obtained by subtracting the time (T 2 ) from the current system time (T 3 ) of the media receiver at a time when the time synchronization response is received; Receiving a media data packet transmitted from the plurality of media transmitters at the media receiver-The media data packet includes the media data encoded with the original media data and the current system times of the plurality of media transmitters (T Including 4 ) -; Calculating a presentation time (T 5) from the media receiver - the presentation time (T 5) is the sum of the time (T 4), the time (T R) and a predetermined buffer time (T B) Calculated -; Generating and storing presentation data including raw media data obtained by decoding the encoded media data by the media receiver and the time (T 5 ); And when the current system time of the media receiver reaches the time (T 5 ), rendering raw media data of the presentation data corresponding to the time (T 5) and outputting the original media data from the media receiver; Includes.

상기 복수의 미디어 송신기는 오디오 미디어 송신기와 비디오 미디어 송신기를 포함할 수 있다.The plurality of media transmitters may include an audio media transmitter and a video media transmitter.

상기 오디오 미디어 송신기는 오디오 원시 미디어 데이터가 인코딩된 미디어 데이터를 포함하는 미디어 데이터 패킷을 상기 미디어 수신기로 전송할 수 있다.The audio media transmitter may transmit a media data packet including media data encoded with audio source media data to the media receiver.

상기 비디오 미디어 송신기는 비디오 원시 미디어 데이터가 인코딩된 미디어 데이터를 포함하는 미디어 데이터 패킷을 상기 미디어 송신기로 전송할 수 있다.The video media transmitter may transmit a media data packet including media data encoded with the video source media data to the media transmitter.

상기 미디어 수신기는, 상기 시간(T5)이 동일한 상기 오디오 미디어 송신기에서 전송된 오디오 원시 미디어 데이터와 상기 비디오 미디어 송신기에서 전송된 비디오 원시 미디어 데이터를 함께 렌더링하여 출력할 수 있다.The media receiver may render and output audio original media data transmitted from the audio media transmitter with the same time T 5 and video original media data transmitted from the video media transmitter together.

현재 시점을 기준으로 미리 정해진 기간 앞에 계산된 네트워크 지연 시간 중에서 최대값을 최대 네트워크 지연 시간으로 정할 수 있다.The maximum value of the network delay time calculated before a predetermined period based on the current point in time may be determined as the maximum network delay time.

상기 버퍼링 시간(TB)은 미리 정해진 값으로 하되 미리 정해진 값보다 최대 네트워크 지연 시간이 크면, 상기 버퍼링 시간(TB)은 최대 네트워크 지연 시간 이상으로 미리 정해진 범위 내에서 정해질 수 있다. The buffering time T B is set to a predetermined value, but if the maximum network delay time is greater than the predetermined value, the buffering time T B may be determined within a predetermined range equal to or greater than the maximum network delay time.

상기 네트워크 지연 시간은 상기 시간(T1)과 상기 시간(T3)의 차로 계산될 수 있다.The network delay time may be calculated as a difference between the time T 1 and the time T 3.

컴퓨터에 상기 방법을 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체를 포함할 수 있다.It may include a computer-readable recording medium in which a program for executing the method is recorded in a computer.

본 발명에 의하면 개발의 복잡도와 송/수신장치의 조작 및 제어를 최소화하고, 손쉽게 미디어 동기화를 수행할 수 있다. 또한 본 발명에 의하면 기존 네트워크 품질 확인에 사용되는 핑(Ping) 기술을 응용하여 유/무선 네트워크 환경의 지연에 대비하고, 송/수신 시스템의 시스템시간을 이용하여 오디오/비디오 데이터를 동기화할 수 있다.According to the present invention, it is possible to minimize the complexity of development and operation and control of a transmission/reception device, and easily perform media synchronization. In addition, according to the present invention, it is possible to prepare for delay in a wired/wireless network environment by applying a ping technology used to check the existing network quality, and to synchronize audio/video data using the system time of the transmission/reception system. .

도 1은 본 발명에 따른 오디오-비디오 동기화 처리 시스템의 구성도이다.
도 2는 본 발명에 따른 오디오-비디오 동기화 처리 시스템에서 타임 동기 사이클 동작을 설명하는 흐름도이다.
도 3은 본 발명에 따른 오디오-비디오 동기화 처리 시스템에서 오디오-비디오 동기화 처리 출력 동작을 설명하는 흐름도이다.
1 is a block diagram of an audio-video synchronization processing system according to the present invention.
2 is a flowchart illustrating a time synchronization cycle operation in the audio-video synchronization processing system according to the present invention.
3 is a flowchart illustrating an audio-video synchronization processing output operation in the audio-video synchronization processing system according to the present invention.

그러면 첨부한 도면을 참고로 하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings so that those of ordinary skill in the art may easily implement the present invention.

도 1은 본 발명에 따른 오디오-비디오 동기화 처리 시스템의 구성도이다.1 is a block diagram of an audio-video synchronization processing system according to the present invention.

도 1을 참고하면, 본 발명에 따른 시스템은 복수의 미디어 송신기(100a, 100b)와 미디어 수신기(200)를 포함할 수 있다.Referring to FIG. 1, the system according to the present invention may include a plurality of media transmitters 100a and 100b and a media receiver 200.

도 1에서 편의 상 복수의 미디어 송신기(100a, 100b)를 2개인 경우로 예시하였으나 실시예에 따라 2개 이상일 수 있다.In FIG. 1, for convenience, two media transmitters 100a and 100b are exemplified, but there may be two or more according to embodiments.

미디어 송신기(100a, 100b)는 스마트폰(Smart Phone), 태블릿(Tablet) PC, 데스크탑 컴퓨터, 노트북 PC 등과 같이 메모리 수단을 구비하고 마이크로 프로세서를 탑재하여 연산 능력을 갖춘 단말기일 수 있다.The media transmitters 100a and 100b may be terminals equipped with a memory unit such as a smart phone, a tablet PC, a desktop computer, a notebook PC, and the like and equipped with a microprocessor to have arithmetic capabilities.

미디어 송신기(100a, 100b)는 재생 중인 미디어 콘텐츠를 캡처한 원시 미디어 데이터를 인코딩할 수 있다. 그리고 미디어 송신기(100a, 100b)는 원시 미디어 데이터가 인코딩된 미디어 데이터를 포함하는 미디어 데이터 패킷을 생성하여 미디어 수신기(200)로 전송할 수 있다.The media transmitters 100a and 100b may encode raw media data that captures media content being played. In addition, the media transmitters 100a and 100b may generate a media data packet including media data encoded with the original media data and transmit the generated media data packet to the media receiver 200.

미디어 데이터 패킷은 미디어 송신기(100a, 100b)에서 미디어 수신기(200)로 스트리밍될 수 있다.Media data packets may be streamed from the media transmitters 100a and 100b to the media receiver 200.

미디어 송신기(100a, 100b)는 오디오 미디어 송신기와 비디오 미디어 송신기로 구분할 수 있다. 실시예에 따라 오디오 미디어 송신기와 비디오 미디어 송신기가 하나의 단말기 내에 소프트웨어적으로 분리되어 있을 수 있다. 물론 오디오 미디어 송신기와 비디오 미디어 송신기가 별도의 단말기들에 나누어져 있을 수도 있다.The media transmitters 100a and 100b may be classified into an audio media transmitter and a video media transmitter. Depending on the embodiment, the audio media transmitter and the video media transmitter may be separated by software in one terminal. Of course, the audio media transmitter and the video media transmitter may be divided into separate terminals.

복수의 미디어 송신기(100a, 100b)와 미디어 수신기(200)는 통신망(10)을 통해 각종 정보 및 데이터를 교환할 수 있다. 통신망(10)은 구내 정보 통신망(Local Area Network, LAN), 도시권 통신망(Metropolitan Area Network, MAN), 광역 통신망(Wide Area Network, WAN), 인터넷(internet), 3G(generation), 4G(generation) 이동통신망, 와이파이(Wi-Fi), WIBRO(Wireless Broadband Internet) 또는 LTE(Long Term Evolution) 등을 포함하는 각종 데이터 통신망을 포함할 수 있고, 유선과 무선을 가리지 않으며 어떠한 통신 방식을 사용하더라도 상관없다.The plurality of media transmitters 100a and 100b and the media receiver 200 may exchange various types of information and data through the communication network 10. Communication network 10 is a local area network (LAN), metropolitan area network (MAN), wide area network (WAN), internet, 3G (generation), 4G (generation). It can include various data communication networks including mobile communication networks, Wi-Fi, Wireless Broadband Internet (WIBRO), or Long Term Evolution (LTE), and does not matter whether wired or wireless, and any communication method is used. .

이하에서 미디어 송신기(100a)는 오디오 미디어 송신기이고 미디어 송신기(100b)는 비디오 미디어 송신기인 것으로 가정하고 설명한다.Hereinafter, it is assumed that the media transmitter 100a is an audio media transmitter and the media transmitter 100b is a video media transmitter.

미디어 송신기(100a)는 재생 중인 미디어 콘텐츠를 캡처한 오디오 원시 미디어 데이터를 인코딩하고, 인코딩된 미디어 데이터를 포함하는 미디어 데이터 패킷을 생성하여 미디어 수신기(200)로 스트리밍 전송할 수 있다.The media transmitter 100a may encode raw audio media data from which media content being played is captured, generate a media data packet including the encoded media data, and transmit the stream to the media receiver 200.

한편 미디어 송신기(100b)는 재생 중인 미디어 콘텐츠를 캡처한 비디오 원시 미디어 데이터를 인코딩하고, 인코딩된 미디어 데이터를 포함하는 미디어 데이터 패킷을 생성하여 미디어 수신기(200)로 전송할 수 있다.Meanwhile, the media transmitter 100b may encode raw video media data from which media content being played is captured, generate a media data packet including the encoded media data, and transmit it to the media receiver 200.

미디어 수신기(200)는 미디어 송신기(100a, 100b)에서 각각 별도로 스트리밍되는 미디어 데이터 패킷을 수신한 후 동기화하여 출력할 수 있다.The media receiver 200 may receive media data packets streamed separately from the media transmitters 100a and 100b, respectively, and then synchronize and output them.

도 2는 본 발명에 따른 오디오-비디오 동기화 처리 시스템에서 타임 동기 사이클 동작을 설명하는 흐름도이다.2 is a flowchart illustrating a time synchronization cycle operation in the audio-video synchronization processing system according to the present invention.

도 2를 참고하면, 먼저 미디어 수신기(200)는 타임 동기(Time sync) 요청을 복수의 미디어 송신기(100a, 100b)에 전송할 수 있다(S210). 여기서 타임 동기 요청은 타임 동기 요청을 전송한 시점의 미디어 수신기(200)의 현재 시스템 시간(T1)에 대응하는 정보를 포함한다. 이하에서는 간결하게 기재하기 위해서 시간(T1)에 대응하는 정보를 포함하는 것을 시간(T1)을 포함하는 것으로 기술한다.Referring to FIG. 2, first, the media receiver 200 may transmit a time sync request to the plurality of media transmitters 100a and 100b (S210). Here, the time synchronization request includes information corresponding to the current system time T 1 of the media receiver 200 at the time when the time synchronization request is transmitted. In order to succinctly described hereinafter will be described as including the time (T 1) comprises the information corresponding to the time (T 1).

그러면 복수의 미디어 송신기(100a, 100b)는 타임 동기 요청에 대응하여 타임 동기 응답을 미디어 수신기(200)에 각각 전송할 수 있다(S220). 여기서 타임 동기 응답은 시간(T1)과 미디어 송신기(100a, 100b)의 현재 시스템 시간(T2)을 포함한다.Then, the plurality of media transmitters 100a and 100b may respectively transmit a time synchronization response to the media receiver 200 in response to the time synchronization request (S220). Here, the time synchronization response includes a time T 1 and a current system time T 2 of the media transmitters 100a and 100b.

이후 미디어 수신기(200)는 타임 동기 응답을 수신할 수 있다(S230). 미디어 수신기(200)는 타임 동기 응답을 수신한 시점에 대응하는 미디어 수신기(200)의 현재 시스템 시간(T3)에서 시간(T2)을 뺀 프리젠테이션 기준 시간(TR)을 계산할 수 있다. 한편 단계(S230)에서 미디어 수신기(200)는 시간(T1)과 시간(T3)의 차로 구해지는 네트워크 지연 시간(T1-T3)도 계산할 수 있다.Thereafter, the media receiver 200 may receive a time synchronization response (S230). The media receiver 200 may calculate a presentation reference time T R obtained by subtracting the time T 2 from the current system time T 3 of the media receiver 200 corresponding to a time point at which the time synchronization response is received. Meanwhile, in step S230, the media receiver 200 may also calculate a network delay time (T 1 -T 3 ) obtained by a difference between a time T 1 and a time T 3.

단계(S210) 내지 단계(S230)로 이루어진 타임 동기 사이클(TSC1, TSC2, …, TSCn)을 미리 정해진 주기마다 반복 수행할 수 있다. 단계(S210) 내지 단계(S230)를 반복하면서 미디어 수신기(200)는 프리젠테이션 기준 시간(TR)을 계속적으로 업데이트할 수 있다. 프리젠테이션 기준 시간(TR)은 미디어 송신기(100a, 100b) 각각에 대해서 계산될 수 있다.The time synchronization cycles TSC1, TSC2, ..., TSCn consisting of steps S210 to S230 may be repeatedly performed at predetermined periods. While repeating steps S210 to S230, the media receiver 200 may continuously update the presentation reference time T R. The presentation reference time T R may be calculated for each of the media transmitters 100a and 100b.

한편 미디어 수신기(200)는 단계(S210) 내지 단계(S230)를 반복하면서 계산된 네트워크 지연 시간(T1-T3)을 네트워크 지연 시간 테이블에 기록하여 저장할 수 있다. 그리고 미디어 수신기(200)는 현재 시점을 기준으로 미리 정해진 기간 앞에 계산된 네트워크 지연 시간 중에서 최대값을 최대 네트워크 지연 시간으로 정할 수 있고, 이를 기초로 버퍼링 시간(TB)을 정할 수 있다.Meanwhile, the media receiver 200 may record and store the network delay times T 1 -T 3 calculated while repeating steps S210 to S230 in the network delay time table. In addition, the media receiver 200 may determine a maximum value of the network delay time calculated before a predetermined period based on the current time point as the maximum network delay time, and may determine the buffering time T B based on this.

표 1은 단계(S210) 내지 단계(S230)로 이루어진 타임 동기 사이클을 반복하면서 구해지는 네트워크 지연 시간, 최대 네트워크 지연 시간 및 버퍼링 시간을 예시적으로 나타낸 것이다. 표 1에서 단위는 밀리 초(milliseconds)이다.Table 1 exemplarily shows the network delay time, the maximum network delay time, and the buffering time obtained by repeating the time synchronization cycle consisting of steps S210 to S230. In Table 1, the unit is milliseconds.

TSCTSC T1T1 T2T2 T3T3 네트워크
지연시간
network
Delay time
최대 네트워크
지연 시간
Max network
Delay time
버퍼링 시간Buffering time
1One 1000010000 5100051000 1005010050 5050 5050 300300 22 2000020000 5200052000 2012020120 120120 120120 300300 33 3000030000 5300053000 3001030010 1010 120120 300300 44 4000040000 5400054000 4003040030 3030 120120 300300 55 5000050000 5500055000 5010050100 100100 120120 300300 66 6000060000 5600056000 6008060080 8080 8080 300300 77 7000070000 5700057000 7015070150 150150 150150 300300 88 8000080000 5800058000 8102081020 10201020 10201020 11001100 99 9000090000 5900059000 9030090300 300300 10201020 11001100 1010 100000100000 6000060000 100010100010 1010 10201020 11001100 1111 110000110000 6100061000 110050110050 5050 10201020 11001100 1212 120000120000 6200062000 120100120 100 100100 300300 300300

표 1에서 TSC는 타임 동기 사이클의 차례를 나타낸다. 표 1에서 최대 네트워크 지연 시간은 현재 시점부터 4 타임 동기 사이클 이전 동안에 계산된 네트워크 지연 시간 중에서 최대값으로 정하는 조건에서 정해진 것이다. 그리고 버퍼링 시간은 기본적으로 미리 정해진 값(예컨대 300 밀리 초)으로 하되, 미리 정해진 값보다 최대 네트워크 지연 시간이 크면 버퍼링 시간을 최대 네트워크 지연 시간 이상으로 미리 정해진 범위 내에서 정할 수 있다. 표 1에서 TSC = 8, 9, 10, 11에서는 최대 네트워크 지연 시간인 1020 보다 80 이 큰 1100으로 버퍼링 시간이 정해진 것을 나타내었다. 버퍼링 시간을 100 단위로 정해진 경우를 나타낸 것이다. 물론 실시예에 따라 최대 네트워크 지연 시간을 그대로 버퍼링 시간으로 정할 수도 있다(이 경우 표 1에서 버퍼링 시간은 1020이 될 수 있음).In Table 1, TSC represents the sequence of time synchronization cycles. In Table 1, the maximum network delay time is determined under a condition that is determined as the maximum value among the network delay times calculated 4 times prior to the synchronization cycle from the current point in time. In addition, the buffering time is basically a predetermined value (for example, 300 milliseconds), but if the maximum network delay time is greater than the predetermined value, the buffering time may be set within a predetermined range equal to or greater than the maximum network delay time. In Table 1, TSC = 8, 9, 10, 11 shows that the buffering time is set to 1100, which is 80, which is greater than 1020, which is the maximum network delay time. This shows the case where the buffering time is set in units of 100. Of course, depending on the embodiment, the maximum network delay time may be set as the buffering time as it is (in this case, the buffering time may be 1020 in Table 1).

한편 이렇게 수집되는 네트워크 지연 시간 관련 데이터를 이용하여 오디오 데이터 패킷과 비디오 데이터 패킷 스트리밍에 이용되는 물리적 네트워크의 문제점 도출 및 개선 활동에 활용할 수도 있다.Meanwhile, the network delay-related data collected in this way can be used to identify and improve problems in physical networks used for streaming audio data packets and video data packets.

도 3은 본 발명에 따른 오디오-비디오 동기화 처리 시스템에서 오디오-비디오 동기화 처리 출력 동작을 설명하는 흐름도이다.3 is a flowchart illustrating an audio-video synchronization processing output operation in the audio-video synchronization processing system according to the present invention.

도 3을 참고하면, 미디어 송신기(100a, 100b)는 재생 중인 미디어 콘텐츠를 캡처하고(S305), 캡처한 원시 미디어 데이터를 인코딩할 수 있다(S310). 가령 미디어 송신기(100a)는 오디오 원시 미디어 데이터를 인코딩할 수 있고, 미디어 송신기(100b)는 비디오 원시 미디어 데이터를 인코딩할 수 있다.Referring to FIG. 3, the media transmitters 100a and 100b may capture media content being played (S305) and encode the captured raw media data (S310). For example, the media transmitter 100a may encode audio raw media data, and the media transmitter 100b may encode video raw media data.

한편 미디어 송신기(100a, 100b)는 캡처한 원시 미디어 데이터를 인코딩한 시점에 대응하는 미디어 송신기의 현재 시스템 시간(T4)을 저장할 수 있다(S315). Meanwhile, the media transmitters 100a and 100b may store the current system time T 4 of the media transmitter corresponding to a time point at which the captured raw media data is encoded (S315).

다음으로 미디어 송신기(100a, 100b)는 단계(S310)에서 인코딩된 미디어 데이터를 포함하는 미디어 데이터 패킷(20)을 생성하여(S320), 미디어 수신기(200)로 전송할 수 있다(S325). 미디어 데이터 패킷(20)은 인코딩된 미디어 데이터와 시간(T4)을 포함한다. Next, the media transmitters 100a and 100b may generate a media data packet 20 including the encoded media data in step S310 (S320) and transmit it to the media receiver 200 (S325). The media data packet 20 includes encoded media data and time T 4 .

단계(S325)에서 전송되는 미디어 데이터 패킷은 오디오 원시 미디어 데이터가 인코딩된 미디어 데이터를 포함하거나, 비디오 원시 미디어 데이터가 인코딩된 미디어 데이터를 포함할 수 있다.The media data packet transmitted in step S325 may include media data encoded with audio source media data, or may include media data encoded with video source media data.

이후 미디어 수신기(200)는 미디어 송신기(100a, 100b)에서 각각 전송된 미디어 데이터 패킷을 수신할 수 있다(S330).Thereafter, the media receiver 200 may receive a media data packet transmitted from each of the media transmitters 100a and 100b (S330).

미디어 수신기(200)는 수신한 미디어 데이터 패킷에서 인코딩된 미디어 데이터와 시간(T4)을 분리할 수 있다(S335).The media receiver 200 may separate the encoded media data and the time T 4 from the received media data packet (S335).

다음으로 미디어 수신기(200)는 미디어 데이터 패킷에서 분리된 시간(T4)을 기초로 프리젠테이션 시간(T5)을 계산할 수 있다(S340).Next, the media receiver 200 may calculate the presentation time T 5 based on the time T 4 separated from the media data packet (S340).

프리젠테이션 시간(T5)은 아래 수학식에 의해서 계산될 수 있다.Presentation time (T 5 ) can be calculated by the following equation.

[수학식 1][Equation 1]

T5 = T4 + TR + TB T 5 = T 4 + T R + T B

시간(T4)는 해당 미디어 데이터 패킷에서 추출할 수 있다. 그리고, 프리젠테이션 기준 시간(TR)과 버퍼링 시간(TB)은 해당 미디어 데이터 패킷을 수신한 타임 동기 사이클에 구해진 값을 이용할 수 있다.The time T 4 can be extracted from the corresponding media data packet. In addition, the presentation reference time T R and the buffering time T B may be values obtained from a time synchronization cycle in which a corresponding media data packet is received.

한편 미디어 수신기(200)는 미디어 데이터 패킷에서 분리된 인코딩된 미디어 데이터를 디코딩하여 오디오 원시 미디어 데이터와 비디오 원시 미디어 데이터를 생성할 수 있다(S345).Meanwhile, the media receiver 200 may generate audio source media data and video source media data by decoding the encoded media data separated from the media data packet (S345).

다음으로 미디어 수신기(200)는 단계(S340)에서 계산된 프리젠테이션 시간(T5)과 단계(S345)에서 생성된 오디오 원시 미디어 데이터를 포함하는 프리젠테이션 데이터와 비디오 원시 데이터를 포함하는 프리젠테이션 데이터(30)를 생성할 수 있다(S350).Next, the media receiver 200 includes presentation data including the presentation time T 5 calculated in step S340 and the audio source media data generated in step S345 and the presentation data including video source data. It is possible to generate (30) (S350).

그리고 미디어 수신기(200)는 단계(S350)에서 생성된 프리젠테이션 데이터를 데이터 버퍼에 저정할 수 있다(S355).In addition, the media receiver 200 may store the presentation data generated in step S350 in the data buffer (S355).

미디어 수신기(200)에서 단계(S330) 내지 단계(S355)는 오디오와 비디오에 대해서 각각 다른 시점에 별도로 이루어질 수 있다.In the media receiver 200, steps S330 to S355 may be performed separately for audio and video at different times.

이후 미디어 수신기(200)는 오디오와 비디오 프리젠테이션 데이터를 미디어 수신기(200)의 시스템 시간이 프리젠테이션 시간(T5)이 될때까지 대기하였다가 렌더링하여 출력할 수 있다(S360). 단계(S360)에서 동일한 프리젠테이션 시간(T5)을 가지는 오디오와 비디오 프리젠테이션 데이터는 함께 렌더링되어 출력될 수 있다.Thereafter, the media receiver 200 may wait until the system time of the media receiver 200 reaches the presentation time T 5 and then render and output the audio and video presentation data (S360). In step S360, audio and video presentation data having the same presentation time T 5 may be rendered together and output.

이상에서 설명된 실시예들은 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 실시예들에서 설명된 장치, 방법 및 구성요소는, 예를 들어 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The embodiments described above may be implemented as a hardware component, a software component, and/or a combination of a hardware component and a software component. The apparatus, methods, and components described in the embodiments include, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable gate array (FPGA), and a PLU ( It may be implemented using one or more general purpose computers or special purpose computers, such as programmable logic units, microprocessors, or any other device capable of executing and responding to instructions. The processing device may execute an operating system (OS) and one or more software applications executed on the operating system. Further, the processing device may access, store, manipulate, process, and generate data in response to the execution of software. For the convenience of understanding, although it is sometimes described that one processing device is used, one of ordinary skill in the art, the processing device is a plurality of processing elements and/or a plurality of types of processing elements. It can be seen that it may include. For example, the processing device may include a plurality of processors or one processor and one controller. In addition, other processing configurations are possible, such as a parallel processor.

소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.The software may include a computer program, code, instructions, or a combination of one or more of these, configuring the processing unit to operate as desired or processed independently or collectively. You can command the device. Software and/or data may be interpreted by a processing device or, to provide instructions or data to a processing device, of any type of machine, component, physical device, virtual equipment, computer storage medium or device. , Or may be permanently or temporarily embodyed in a transmitted signal wave. The software may be distributed over networked computer systems and stored or executed in a distributed manner. Software and data may be stored on one or more computer-readable recording media.

실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to the embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, etc. alone or in combination. The program instructions recorded on the medium may be specially designed and configured for the embodiment, or may be known and usable to those skilled in computer software. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic media such as floptical disks. -A hardware device specially configured to store and execute program instructions such as magneto-optical media, and ROM, RAM, flash memory, and the like. Examples of program instructions include not only machine language codes such as those produced by a compiler, but also high-level language codes that can be executed by a computer using an interpreter or the like. The hardware device described above may be configured to operate as one or more software modules to perform the operation of the embodiment, and vice versa.

이상과 같이 실시예들이 비록 한정된 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기를 기초로 다양한 기술적 수정 및 변형을 적용할 수 있다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.As described above, although the embodiments have been described by the limited drawings, a person of ordinary skill in the art can apply various technical modifications and variations based on the above. For example, the described techniques are performed in a different order from the described method, and/or components such as systems, structures, devices, circuits, etc. described are combined or combined in a form different from the described method, or other components Alternatively, even if substituted or substituted by an equivalent, an appropriate result can be achieved.

Claims (9)

미디어 수신기에서 타임 동기 요청을 복수의 미디어 송신기에 전송하는 단계-상기 타임 동기 요청은 상기 타임 동기 요청을 전송한 시점의 상기 미디어 수신기의 현재 시스템 시간(T1)을 포함함-;
상기 타임 동기 요청에 대응하여 상기 복수의 미디어 송신기에서 전송되는 타임 동기 응답을 상기 미디어 수신기에서 수신하는 단계-상기 타임 동기 응답은 상기 시간(T1)과 상기 복수의 미디어 송신기의 현재 시스템 시간(T2)을 포함함-;
상기 타임 동기 응답을 수신한 시점의 상기 미디어 수신기의 현재 시스템 시간(T3)에서 상기 시간(T2)을 뺀 프리젠테이션 기준 시간(TR)을 계산하는 단계;
상기 복수의 미디어 송신기에서 전송되는 미디어 데이터 패킷을 상기 미디어 수신기에서 수신하는 단계-상기 미디어 데이터 패킷은 원시 미디어 데이터가 인코딩된 미디어 데이터와 인코딩 시점에 대응하는 상기 복수의 미디어 송신기의 현재 시스템 시간(T4)을 포함함-;
상기 미디어 수신기에서 프리젠테이션 시간(T5)을 계산하는 단계-상기 프리젠테이션 시간(T5)은 상기 시간(T4), 상기 시간(TR) 및 미리 정해진 버퍼링 시간(TB)의 합으로 계산됨-;
상기 미디어 수신기에서 상기 인코딩된 미디어 데이터를 디코딩해서 획득한 원시 미디어 데이터와 상기 시간(T5)을 포함하는 프리젠테이션 데이터를 생성하여 저장하는 단계; 그리고
상기 미디어 수신기의 현재 시스템 시간이 상기 시간(T5)이 되면, 상기 시간(T5)에 대응하는 상기 프리젠테이션 데이터의 원시 미디어 데이터를 렌더링하여 상기 미디어 수신기에서 출력하는 단계; 를 포함하는 방법.
Transmitting a time synchronization request from a media receiver to a plurality of media transmitters, the time synchronization request including a current system time (T 1 ) of the media receiver at a time when the time synchronization request is transmitted;
Receiving at the media receiver a time synchronization response transmitted from the plurality of media transmitters in response to the time synchronization request-The time synchronization response includes the time (T 1 ) and the current system time (T) of the plurality of media transmitters. Including 2 ) -;
Calculating a presentation reference time (T R ) obtained by subtracting the time (T 2 ) from the current system time (T 3 ) of the media receiver at a time when the time synchronization response is received;
Receiving a media data packet transmitted from the plurality of media transmitters at the media receiver-The media data packet includes the media data encoded with the original media data and the current system times of the plurality of media transmitters (T Including 4 ) -;
Calculating a presentation time (T 5) from the media receiver - the presentation time (T 5) is the sum of the time (T 4), the time (T R) and a predetermined buffer time (T B) Calculated -;
Generating and storing presentation data including raw media data obtained by decoding the encoded media data by the media receiver and the time (T 5 ); And
When the current system time of the media receiver reaches the time T 5 , rendering raw media data of the presentation data corresponding to the time T 5 and outputting the original media data from the media receiver; How to include.
제 1 항에서,
상기 복수의 미디어 송신기는 오디오 미디어 송신기와 비디오 미디어 송신기를 포함하고,
상기 오디오 미디어 송신기는 오디오 원시 미디어 데이터가 인코딩된 미디어 데이터를 포함하는 미디어 데이터 패킷을 상기 미디어 수신기로 전송하며,
상기 비디오 미디어 송신기는 비디오 원시 미디어 데이터가 인코딩된 미디어 데이터를 포함하는 미디어 데이터 패킷을 상기 미디어 송신기로 전송하는 방법.
In claim 1,
The plurality of media transmitters include an audio media transmitter and a video media transmitter,
The audio media transmitter transmits a media data packet including media data encoded with audio raw media data to the media receiver,
The video media transmitter transmits a media data packet including media data encoded with the video raw media data to the media transmitter.
제 2 항에서,
상기 미디어 수신기는,
상기 시간(T5)이 동일한 상기 오디오 미디어 송신기에서 전송된 오디오 원시 미디어 데이터와 상기 비디오 미디어 송신기에서 전송된 비디오 원시 미디어 데이터를 함께 렌더링하여 출력하는 방법.
In claim 2,
The media receiver,
A method of rendering and outputting audio raw media data transmitted from the audio media transmitter having the same time T 5 and video raw media data transmitted from the video media transmitter together.
제 3 항에서,
현재 시점을 기준으로 미리 정해진 기간 앞에 계산된 네트워크 지연 시간 중에서 최대값을 최대 네트워크 지연 시간으로 정하고,
상기 버퍼링 시간(TB)은 미리 정해진 값으로 하되 미리 정해진 값보다 최대 네트워크 지연 시간이 크면, 상기 버퍼링 시간(TB)은 최대 네트워크 지연 시간 이상으로 미리 정해진 범위 내에서 정해지며,
상기 네트워크 지연 시간은 상기 시간(T1)과 상기 시간(T3)의 차로 계산되는 방법.
In claim 3,
Among the network delay times calculated before a predetermined period from the current point in time, the maximum value is set as the maximum network delay time,
The buffering time (T B ) is set to a predetermined value, but if the maximum network delay time is greater than the predetermined value, the buffering time (T B ) is determined within a predetermined range beyond the maximum network delay time,
The network delay time is calculated as a difference between the time T 1 and the time T 3.
컴퓨터에 상기한 제1항 내지 제4항 중 어느 한 방법을 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체.A computer-readable recording medium in which a program for executing any one of the above methods 1 to 4 is recorded on a computer. 타임 동기 요청을 전송하는 미디어 수신기-상기 타임 동기 요청은 상기 타임 동기 요청을 전송한 시점의 상기 미디어 수신기의 현재 시스템 시간(T1)을 포함함-; 그리고
상기 타임 동기 요청에 대응하여 타임 동기 응답을 상기 미디어 수신기에 전송하는 복수의 미디어 송신기-상기 타임 동기 응답은 상기 시간(T1)과 상기 복수의 미디어 송신기의 현재 시스템 시간(T2)을 포함함-;
를 포함하고,
상기 미디어 수신기는,
상기 타임 동기 응답을 수신한 시점의 상기 미디어 수신기의 현재 시스템 시간(T3)에서 상기 시간(T2)을 뺀 프리젠테이션 기준 시간(TR)을 계산하고, 상기 복수의 미디어 송신기에서 전송되는 미디어 데이터 패킷을 수신하며 - 상기 미디어 데이터 패킷은 원시 미디어 데이터가 인코딩된 미디어 데이터와 인코딩 시점에 대응하는 상기 복수의 미디어 송신기의 현재 시스템 시간(T4)을 포함함 - , 프리젠테이션 시간(T5)을 계산하고 - 상기 프리젠테이션 시간(T5)은 상기 시간(T4), 상기 시간(TR) 및 미리 정해진 버퍼링 시간(TB)의 합으로 계산됨 - , 상기 인코딩된 미디어 데이터를 디코딩해서 획득한 원시 미디어 데이터와 상기 시간(T5)을 포함하는 프리젠테이션 데이터를 생성하여 저장하며, 상기 미디어 수신기의 현재 시스템 시간이 상기 시간(T5)이 되면, 상기 시간(T5)에 대응하는 상기 프리젠테이션 데이터의 원시 미디어 데이터를 렌더링하여 출력하는 시스템.
A media receiver transmitting a time synchronization request-the time synchronization request includes a current system time (T 1 ) of the media receiver at a time when the time synchronization request is transmitted; And
A plurality of media transmitters for transmitting a time synchronization response to the media receiver in response to the time synchronization request-the time synchronization response includes the time (T 1 ) and the current system time (T 2 ) of the plurality of media transmitters -;
Including,
The media receiver,
Calculate a presentation reference time (T R ) obtained by subtracting the time (T 2 ) from the current system time (T 3 ) of the media receiver at the time when the time synchronization response is received, and media transmitted from the plurality of media transmitters Receiving a data packet-The media data packet includes the media data encoded with the original media data and the current system time (T 4 ) of the plurality of media transmitters corresponding to the encoding time-, the presentation time (T 5 ) And-the presentation time (T 5 ) is calculated as the sum of the time (T 4 ), the time (T R ), and a predetermined buffering time (T B )-by decoding the encoded media data and stored to generate the presentation data comprising the time (T 5) and a raw media data acquisition, if the current system time of the media receiver is the time (T 5), corresponding to the time (T 5) A system for rendering and outputting raw media data of the presentation data.
제 6 항에서,
상기 복수의 미디어 송신기는 오디오 미디어 송신기와 비디오 미디어 송신기를 포함하고,
상기 오디오 미디어 송신기는 오디오 원시 미디어 데이터가 인코딩된 미디어 데이터를 포함하는 미디어 데이터 패킷을 상기 미디어 수신기로 전송하며,
상기 비디오 미디어 송신기는 비디오 원시 미디어 데이터가 인코딩된 미디어 데이터를 포함하는 미디어 데이터 패킷을 상기 미디어 송신기로 전송하는 시스템.
In claim 6,
The plurality of media transmitters include an audio media transmitter and a video media transmitter,
The audio media transmitter transmits a media data packet including media data encoded with audio raw media data to the media receiver,
The video media transmitter transmits a media data packet including media data encoded with the video raw media data to the media transmitter.
제 7 항에서,
상기 미디어 수신기는,
상기 시간(T5)이 동일한 상기 오디오 미디어 송신기에서 전송된 오디오 원시 미디어 데이터와 상기 비디오 미디어 송신기에서 전송된 비디오 원시 미디어 데이터를 함께 렌더링하여 출력하는 시스템.
In claim 7,
The media receiver,
A system for rendering and outputting audio raw media data transmitted from the audio media transmitter having the same time T 5 and video raw media data transmitted from the video media transmitter together.
제 8 항에서,
현재 시점을 기준으로 미리 정해진 기간 앞에 계산된 네트워크 지연 시간 중에서 최대값을 최대 네트워크 지연 시간으로 정하고,
상기 버퍼링 시간(TB)은 미리 정해진 값으로 하되 미리 정해진 값보다 최대 네트워크 지연 시간이 크면, 상기 버퍼링 시간(TB)은 최대 네트워크 지연 시간 이상으로 미리 정해진 범위 내에서 정해지며,
상기 네트워크 지연 시간은 상기 시간(T1)과 상기 시간(T3)의 차로 계산되는 시스템.
In claim 8,
Among the network delay times calculated before a predetermined period from the current point in time, the maximum value is set as the maximum network delay time,
The buffering time (T B ) is set to a predetermined value, but if the maximum network delay time is greater than the predetermined value, the buffering time (T B ) is determined within a predetermined range beyond the maximum network delay time,
The network delay time is calculated as a difference between the time T 1 and the time T 3.
KR1020200053957A 2020-05-06 2020-05-06 Audio-Video Synchronization Processing Method KR102251148B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200053957A KR102251148B1 (en) 2020-05-06 2020-05-06 Audio-Video Synchronization Processing Method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200053957A KR102251148B1 (en) 2020-05-06 2020-05-06 Audio-Video Synchronization Processing Method

Publications (2)

Publication Number Publication Date
KR102251148B1 true KR102251148B1 (en) 2021-05-12
KR102251148B9 KR102251148B9 (en) 2022-04-11

Family

ID=75918681

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200053957A KR102251148B1 (en) 2020-05-06 2020-05-06 Audio-Video Synchronization Processing Method

Country Status (1)

Country Link
KR (1) KR102251148B1 (en)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20060127020A (en) * 2004-01-06 2006-12-11 톰슨 라이센싱 Method and apparatus for performing synchronised audio and video presentation
KR20090032306A (en) * 2007-09-27 2009-04-01 한국전자통신연구원 Time synchronization system and method on the network
US20090095643A1 (en) 2006-04-19 2009-04-16 Vesna Svetlicic Amperometric Method And Apparatus For Measurement Of Soft Particles In Liquids By Analyzing The Adhesion Of These Particles To An Electrode
KR20100064532A (en) * 2008-12-05 2010-06-15 삼성전자주식회사 Apparatus and method for audio and video synchronization in wireless communication network
KR20140104969A (en) * 2011-12-26 2014-08-29 소니 주식회사 Apparatus and method for synchronized transmission of multimedia content over an asynchronous network
KR20160082241A (en) * 2014-04-18 2016-07-08 엘지전자 주식회사 Broadcast signal transmitting apparatus, broadcast signal receiving apparatus, broadcast signal transmitting method and broadcast signal receiving method
KR20190106986A (en) * 2016-09-14 2019-09-18 디티에스 엘엘씨 Multimode synchronous rendering of audio and video

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20060127020A (en) * 2004-01-06 2006-12-11 톰슨 라이센싱 Method and apparatus for performing synchronised audio and video presentation
US20090095643A1 (en) 2006-04-19 2009-04-16 Vesna Svetlicic Amperometric Method And Apparatus For Measurement Of Soft Particles In Liquids By Analyzing The Adhesion Of These Particles To An Electrode
KR20090032306A (en) * 2007-09-27 2009-04-01 한국전자통신연구원 Time synchronization system and method on the network
KR20100064532A (en) * 2008-12-05 2010-06-15 삼성전자주식회사 Apparatus and method for audio and video synchronization in wireless communication network
KR20140104969A (en) * 2011-12-26 2014-08-29 소니 주식회사 Apparatus and method for synchronized transmission of multimedia content over an asynchronous network
KR20160082241A (en) * 2014-04-18 2016-07-08 엘지전자 주식회사 Broadcast signal transmitting apparatus, broadcast signal receiving apparatus, broadcast signal transmitting method and broadcast signal receiving method
KR20190106986A (en) * 2016-09-14 2019-09-18 디티에스 엘엘씨 Multimode synchronous rendering of audio and video

Also Published As

Publication number Publication date
KR102251148B9 (en) 2022-04-11

Similar Documents

Publication Publication Date Title
CN113423018B (en) Game data processing method, device and storage medium
CN103200461B (en) A kind of multiple stage playback terminal synchronous playing system and player method
US10034036B2 (en) Media synchronization for real-time streaming
US10856018B2 (en) Clock synchronization techniques including modification of sample rate conversion
JP5854243B2 (en) Method and apparatus for IP video signal synchronization
US9843825B1 (en) Distributed and synchronized media switching
KR20130097336A (en) Method for transmitting stream between electronic devices and electronic device for the method thereof
CN111050185A (en) Live broadcast room wheat-connected video mixing method, storage medium, electronic equipment and system
JP6582100B2 (en) Method and apparatus for providing voice service
US9973290B2 (en) System for media rebroadcasting for synchronized rendering across multiple devices
US10341773B2 (en) Packet based delivery of multi-channel audio over wireless links
CN202759552U (en) Multi-terminal video synchronous playing system based on IP network
US10652625B1 (en) Synchronization of multiple encoders for streaming content
EP3281317B1 (en) Multi-layer timing synchronization framework
JP6116240B2 (en) Transmission device, transmission method, and program
KR20170114219A (en) Method and apparatus for playing media stream on web-browser
US20120169929A1 (en) Method And Apparatus For Processing A Video Signal
KR20230116903A (en) Methods and Heterogeneous Computing Systems for Clock Synchronization
KR102251148B1 (en) Audio-Video Synchronization Processing Method
US9838463B2 (en) System and method for encoding control commands
KR102051985B1 (en) Synchronization of Media Rendering in Heterogeneous Networking Environments
CN112073727B (en) Transcoding method and device, electronic equipment and storage medium
CN116074197A (en) Transmission method and device
US10812558B1 (en) Controller to synchronize encoding of streaming content
WO2021002135A1 (en) Data transmission device, data transmission system, and data transmission method

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
G170 Re-publication after modification of scope of protection [patent]