KR200422852Y1 - Device of processing a plurality of moving picture contents by sharing a hardware resource - Google Patents

Device of processing a plurality of moving picture contents by sharing a hardware resource Download PDF

Info

Publication number
KR200422852Y1
KR200422852Y1 KR2020060013427U KR20060013427U KR200422852Y1 KR 200422852 Y1 KR200422852 Y1 KR 200422852Y1 KR 2020060013427 U KR2020060013427 U KR 2020060013427U KR 20060013427 U KR20060013427 U KR 20060013427U KR 200422852 Y1 KR200422852 Y1 KR 200422852Y1
Authority
KR
South Korea
Prior art keywords
video
processor
priority
contents
multimedia data
Prior art date
Application number
KR2020060013427U
Other languages
Korean (ko)
Inventor
윤영준
이민
Original Assignee
윈포시스(주)
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 윈포시스(주) filed Critical 윈포시스(주)
Priority to KR2020060013427U priority Critical patent/KR200422852Y1/en
Application granted granted Critical
Publication of KR200422852Y1 publication Critical patent/KR200422852Y1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5005Allocation of resources, e.g. of the central processing unit [CPU] to service a request
    • G06F9/5027Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals
    • G06F9/5044Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals considering hardware capabilities
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/42Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/238Interfacing the downstream path of the transmission network, e.g. adapting the transmission rate of a video stream to network bandwidth; Processing of multiplex streams
    • H04N21/2385Channel allocation; Bandwidth allocation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/44004Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving video buffer management, e.g. video decoder buffer or video display buffer

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Software Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

하드웨어 리소스를 공유하여 복수의 동영상 콘텐츠를 처리하는 장치는 중앙처리장치(Central Processing Unit, CPU), 비디오 프로세서 및 상기 데이터 비디오 프로세서를 공유하기 위하여, 복수의 동영상 콘텐츠들을 입력받고, 상기 동영상 콘텐츠들에 대한 비디오 프로세싱의 우선순위를 할당하며, 상기 할당된 우선순위에 따라 상기 동영상 콘텐츠들에 대한 비디오 프로세싱을 위한 채널 대역폭을 할당하고, 상기 할당된 채널 대역폭에 따라, 상기 동영상 콘텐츠들을 상기 비디오 프로세서에 제공하는 멀티미디어 데이터 프로세서를 포함하고, 상기 멀티미디어 데이터 프로세서는 상기 중앙처리장치와 독립적으로 수행한다. 따라서 MPEG 인코더 및 디코더와 같은 하드웨어를 공유하여 적은 비용으로 동영상 콘텐츠를 처리할 수 있다.An apparatus for processing a plurality of video contents by sharing hardware resources receives a plurality of video contents to share a central processing unit (CPU), a video processor, and the data video processor, and inputs the video contents to the video contents. Assigns a priority of video processing to the video processor, allocates a channel bandwidth for video processing for the video contents according to the assigned priority, and provides the video contents to the video processor according to the assigned channel bandwidth. And a multimedia data processor, wherein the multimedia data processor performs independently of the central processing unit. Thus, hardware such as MPEG encoders and decoders can be shared to process video content at low cost.

하드웨어 공유, MPEG 인코더 공유, MPEG 디코더 공유 Hardware Sharing, MPEG Encoder Sharing, MPEG Decoder Sharing

Description

하드웨어 리소스를 공유하여 복수의 멀티미디어 데이터를 처리하는 장치{DEVICE OF PROCESSING A PLURALITY OF MOVING PICTURE CONTENTS BY SHARING A HARDWARE RESOURCE}DEVICE OF PROCESSING A PLURALITY OF MOVING PICTURE CONTENTS BY SHARING A HARDWARE RESOURCE}

도 1은 본 고안의 일 실시예에 따른 멀티미디어 데이터 처리 시스템의 구성을 나타내는 블록도이다.1 is a block diagram showing the configuration of a multimedia data processing system according to an embodiment of the present invention.

도 2는 도 1의 멀티미디어 데이터 프로세서의 구성을 나타내는 블록도이다.FIG. 2 is a block diagram illustrating a configuration of the multimedia data processor of FIG. 1.

도 3은 멀티미디어 데이터 프로세서와 MPEG 인코더 간의 데이터 전송방식을 나타내는 개념도이다.3 is a conceptual diagram illustrating a data transmission method between a multimedia data processor and an MPEG encoder.

<도면의 주요 부분에 대한 부호의 설명><Explanation of symbols for the main parts of the drawings>

110 : 멀티미디어 데이터 프로세서 130 : MPEG 인코더110: multimedia data processor 130: MPEG encoder

140 : MPEG 디코더140: MPEG decoder

본 고안은 복수의 동영상 콘텐츠를 처리하는 방법에 관한 것으로 특히, 하드웨어 리소스를 공유하여 복수의 동영상 콘텐츠를 처리하는 방법에 관한 것이다.The present invention relates to a method for processing a plurality of video content, and more particularly, to a method for processing a plurality of video content by sharing a hardware resource.

오늘날 정지 영상, 동영상, 음악과 같은 멀티미디어 데이터를 저장하고 복원 하는 디지털 장치들은 데이터 용량을 줄이기 위하여 동영상 콘텐츠를 MPEG(Moving Picture Expert Group)과 같은 소정의 방식으로 압축된 후 사용자의 요구에 따라 상기 압축된 동영상 콘텐츠를 복원한다.Today, digital devices for storing and restoring multimedia data such as still images, movies, and music are compressed in a predetermined manner such as a moving picture expert group (MPEG) in order to reduce data capacity, and then the compression is performed according to a user's request. The restored video contents.

예를 들어, DVR(Digital Video Recorder)로 특정한 객체를 녹화할 경우 MPEG과 같은 소정의 방식으로 데이터를 DVR은 MPEG 인코더를 이용하여 압축한 후 플래시 메모리와 같은 데이터 저장 장치에 저장하고, 사용자의 요구에 따라 상기 압축된 데이터를 MPEG 디코더를 이용하여 복원한 후 사용자에게 녹화된 객체를 재생한다. 또한 디지털 TV(Television)의 경우 수신된 MPEG 데이터를 MPEG 디코더를 이용하여 상기 수신된 MPEG 데이터를 복원한 후 사용자에게 수신된 MPEG 데이터를 재생한다.For example, when recording a specific object with a DVR (Digital Video Recorder), the DVR compresses the data by using a MPEG encoder in a predetermined manner such as MPEG, and then stores the data in a data storage device such as a flash memory. In accordance with the present invention, the compressed data is restored using an MPEG decoder, and then the recorded object is played back to the user. In addition, in the case of a digital TV, the received MPEG data is restored using the MPEG decoder to reproduce the received MPEG data to the user.

상기에서 살펴본 바와 같이 종래 동영상 콘텐츠를 압축 및 복원하는 장치(예를 들어 MPEG 인코더 및 MPEG 디코더)들은 각각 MPEG 인코더 및/또는 MPEG 디코더를 구비하여 동영상 콘텐츠를 처리하는 것이 일반적이다. 즉, 네트워크 멀티미디어 데이터 서버, 카메라, DVR 및 디지털 TV 등과 같은 MPEG 데이터를 처리하는 장치들은 멀티미디어 데이터를 처리하기 위하여 모두 각각의 MPEG 인코더 및/또는 MPEG 디코더를 구비한다.As described above, devices (for example, MPEG encoders and MPEG decoders) for compressing and decompressing conventional video contents generally include an MPEG encoder and / or an MPEG decoder to process video contents. That is, devices that process MPEG data, such as network multimedia data servers, cameras, DVRs, and digital TVs, all have respective MPEG encoders and / or MPEG decoders for processing multimedia data.

상기에서 살펴본 바와 같이 각각 독립적인 MPEG 인코더와 MPEG 디코더를 추가하는 것은 비슷한 하드웨어 구성을 복수 설치하여야 하는 한계 때문에 제품의 원가를 상승시키고 제품의 부피의 증가와 소모전력의 증가를 가져오는 문제점이 발생한다.As described above, the addition of independent MPEG encoders and MPEG decoders increases the cost of the product, increases the volume of the product, and increases the power consumption due to the limitation of installing a plurality of similar hardware configurations. .

본 고안의 목적은 상기 종래 기술의 문제점을 해결하기 위하여 하드웨어 리소스를 공유하여 복수의 동영상 콘텐츠를 처리하는 방법을 제공하는데 있다.An object of the present invention is to provide a method for processing a plurality of video content by sharing hardware resources to solve the problems of the prior art.

상기 목적을 달성하기 위하여 본 고안의 하드웨어 리소스를 공유하여 복수의 동영상 콘텐츠를 처리하는 장치는 중앙처리장치(Central Processing Unit, CPU), 비디오 프로세서 및 상기 데이터 비디오 프로세서를 공유하기 위하여, 복수의 동영상 콘텐츠들을 입력받고, 상기 동영상 콘텐츠들에 대한 비디오 프로세싱의 우선순위를 할당하며, 상기 할당된 우선순위에 따라 상기 동영상 콘텐츠들에 대한 비디오 프로세싱을 위한 채널 대역폭을 할당하고, 상기 할당된 채널 대역폭에 따라, 상기 동영상 콘텐츠들을 상기 비디오 프로세서에 제공하는 멀티미디어 데이터 프로세서를 포함하고, 상기 멀티미디어 데이터 프로세서는 상기 중앙처리장치와 독립적으로 수행한다.In order to achieve the above object, a device for processing a plurality of moving picture contents by sharing a hardware resource of the present invention includes a central processing unit (CPU), a video processor, and a plurality of moving picture contents to share the data video processor. Receive video, assign a priority of video processing to the moving picture contents, allocate a channel bandwidth for video processing to the moving picture contents according to the assigned priority, and, according to the allocated channel bandwidth, And a multimedia data processor for providing the moving image contents to the video processor, wherein the multimedia data processor performs independently of the central processing unit.

상기 멀티미디어 데이터 프로세서는 상기 동영상 콘텐츠들을 입력받아 상기 동영상 콘텐츠들을 순차적으로 저장하는 선입선출(First In First Out, FIFO) 버퍼 및 상기 동영상 콘텐츠들에 대하여 상기 비디오 프로세서의 우선순위를 할당하고, 상기 우선순위에 따라 비디오 프로세서에 대한 채널 대역폭을 할당하며, 상기 할당된 채널 대역폭에 따라 상기 동영상 콘텐츠들을 상기 비디오 프로세서에 제공하는 ASIC 컨트롤러를 포함할 수 있다.The multimedia data processor receives the video contents and assigns a priority of the video processor to a first in first out (FIFO) buffer for sequentially storing the video contents and the video contents, and the priority. And an ASIC controller for allocating a channel bandwidth to the video processor and providing the video contents to the video processor according to the allocated channel bandwidth.

상기 우선순위는 초당 전송될 수 있는 최대 프레임들에 대하여 실제로 전송 할 프레임에 비율일 수 있고, 상기 동영상 콘텐츠가 실시간 디스플레이 채널인지, 저장용 채널인지, 전송용 채널인지를 기초로 결정될 수 있다.The priority may be a ratio of a frame to be actually transmitted to the maximum frames that can be transmitted per second, and may be determined based on whether the video content is a real-time display channel, a storage channel, or a transmission channel.

따라서 본 고안에서는 MPEG 인코더 및 디코더와 같은 하드웨어를 공유하여 적은 비용으로 동영상 콘텐츠를 처리할 수 있다.Therefore, in the present invention, hardware such as MPEG encoder and decoder can be shared to process video content at low cost.

본문에 개시되어 있는 본 고안의 실시예들에 대해서, 특정한 구조적 내지 기능적 설명들은 단지 본 고안의 실시예를 설명하기 위한 목적으로 예시된 것으로, 본 고안의 실시예들은 다양한 형태로 실시될 수 있으며 본문에 설명된 실시예들에 한정되는 것으로 해석되어서는 아니 된다.With respect to the embodiments of the present invention disclosed in the text, specific structural to functional descriptions are merely illustrated for the purpose of describing the embodiments of the present invention, embodiments of the present invention can be implemented in various forms and It should not be construed as limited to the embodiments described in.

본 고안은 다양한 변경을 가할 수 있고 여러 가지 형태를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 본문에 상세하게 설명하고자 한다. 그러나, 이는 본 고안을 특정한 개시 형태에 대해 한정하려는 것이 아니며, 본 고안의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. The present invention may be variously modified and have various forms, and specific embodiments will be illustrated in the drawings and described in detail in the text. However, this is not intended to limit the present invention to the specific form disclosed, it should be understood to include all modifications, equivalents, and substitutes included in the spirit and scope of the present invention.

제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 고안의 권리 범위로부터 이탈되지 않은 채 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. Terms such as first and second may be used to describe various components, but the components should not be limited by the terms. The terms are used only for the purpose of distinguishing one component from another. For example, without departing from the scope of the present invention, the first component may be referred to as the second component, and similarly, the second component may also be referred to as the first component.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있 을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. 구성요소들 간의 관계를 설명하는 다른 표현들, 즉 "~사이에"와 "바로 ~사이에" 또는 "~에 이웃하는"과 "~에 직접 이웃하는" 등도 마찬가지로 해석되어야 한다.When a component is said to be "connected" or "connected" to another component, it may be directly connected to or connected to that other component, but other components may be present in the middle. It should be understood. On the other hand, when a component is said to be "directly connected" or "directly connected" to another component, it should be understood that there is no other component in between. Other expressions describing the relationship between components, such as "between" and "immediately between," or "neighboring to," and "directly neighboring to" should be interpreted as well.

본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 고안을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 설시된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terminology used herein is for the purpose of describing particular example embodiments only and is not intended to be limiting of the present invention. Singular expressions include plural expressions unless the context clearly indicates otherwise. In this application, the terms "comprise" or "having" are intended to indicate that there is a feature, number, step, action, component, part, or combination thereof that is described, and that one or more other features or numbers are present. It should be understood that it does not exclude in advance the possibility of the presence or addition of steps, actions, components, parts or combinations thereof.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 고안이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다. Unless defined otherwise, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art. Terms such as those defined in the commonly used dictionaries should be construed as having meanings consistent with the meanings in the context of the related art and shall not be construed in ideal or excessively formal meanings unless expressly defined in this application. Do not.

한편, 어떤 실시예가 달리 구현 가능한 경우에 특정 블록 내에 명기된 기능 또는 동작이 순서도에 명기된 순서와 다르게 일어날 수도 있다. 예를 들어, 연속하는 두 블록이 실제로는 실질적으로 동시에 수행될 수도 있고, 관련된 기능 또는 동작에 따라서는 상기 블록들이 거꾸로 수행될 수도 있다.On the other hand, when an embodiment is otherwise implemented, a function or operation specified in a specific block may occur out of the order specified in the flowchart. For example, two consecutive blocks may actually be performed substantially simultaneously, and the blocks may be performed upside down depending on the function or operation involved.

이하 본 고안의 실시예들을 도면과 함께 설명하고자 한다. Hereinafter, embodiments of the present invention will be described with reference to the accompanying drawings.

도 1은 본 고안의 일 실시예에 따른 멀티미디어 데이터 처리 시스템의 구성을 나타내는 블록도이다.1 is a block diagram showing the configuration of a multimedia data processing system according to an embodiment of the present invention.

도 1을 참조하면, 멀티미디어 데이터 처리 시스템(100)은 멀티미디어 데이터 프로세서(110), 중앙처리장치(Central Processing Unit, CPU) (120), 비디오 프로세서(130), 입력 인터페이스들(142~144), MPEG 디코더(134), 출력 인터페이스들(152~154)을 포함한다.Referring to FIG. 1, the multimedia data processing system 100 includes a multimedia data processor 110, a central processing unit (CPU) 120, a video processor 130, input interfaces 142 ˜ 144, MPEG decoder 134 and output interfaces 152-154.

비디오 프로세서(130)는 MPEG 인코더(132) 및 MPEG 디코더(134)를 포함한다.Video processor 130 includes MPEG encoder 132 and MPEG decoder 134.

MPEG 인코더(132)는 멀티미디어 데이터 프로세서(110)로부터 동영상 콘텐츠를 입력받고, 입력받은 동영상 콘텐츠를 MPEG 방식으로 압축한다. 예를 들어, MPEG 인코더(132)가 멀티미디어 데이터 프로세서(110)로부터 영상 데이터를 입력받은 경우에는 MPEG 인코더(132)는 MPEG 방식으로 입력된 영상 데이터를 압축한다.The MPEG encoder 132 receives video content from the multimedia data processor 110 and compresses the received video content by the MPEG method. For example, when the MPEG encoder 132 receives image data from the multimedia data processor 110, the MPEG encoder 132 compresses the image data input by the MPEG method.

MPEG 디코더(134)는 멀티미디어 데이터 프로세서(110)로부터 MPEG 방식으로 압축된 동영상 콘텐츠를 입력받고, 압축된 동영상 콘텐츠를 복원한다. 예를 들어, MPEG 디코더(134)가 멀티미디어 데이터 프로세서(110)로부터 압축된 영상 데이터를 입력받은 경우에는 MPEG 디코더(130)는 압축된 영상 데이터를 복원한다.The MPEG decoder 134 receives the video content compressed in the MPEG method from the multimedia data processor 110 and restores the compressed video content. For example, when the MPEG decoder 134 receives compressed image data from the multimedia data processor 110, the MPEG decoder 130 restores the compressed image data.

입력 인터페이스들(142~144) 및 출력 인터페이스들(152~154)은 각각 외부 장 치들로부터 동영상 콘텐츠를 전달받거나 외부 장치들에게 동영상 콘텐츠를 전달한다. 예를 들어, 제1 입력 인터페이스(142)는 카메라에 대한 입력 인터페이스를 제공할 수 있으며, 제1 출력 인터페이스(152)는 TV에 대한 출력 인터페이스를 제공할 수 있다.The input interfaces 142-144 and the output interfaces 152-154 respectively receive video content from external devices or deliver video content to external devices. For example, the first input interface 142 may provide an input interface for the camera, and the first output interface 152 may provide an output interface for the TV.

CPU(120)는 멀티미디어 데이터 처리 시스템(100)의 전체적인 동작을 제어한다. 예를 들어 CPU(120)는 멀티미디어 데이터 프로세서(110)와 네트워크(160)간의 데이터 교환 및/또는 멀티미디어 데이터 프로세서(110)와 하드 디스크(170)간의 데이터 교환을 위하여 버스(150)를 제어할 수 있다.The CPU 120 controls the overall operation of the multimedia data processing system 100. For example, the CPU 120 may control the bus 150 for data exchange between the multimedia data processor 110 and the network 160 and / or data exchange between the multimedia data processor 110 and the hard disk 170. have.

우선, 멀티미디어 데이터 프로세서(110)는 입력 인터페이스들(142~144)로부터 출력된 동영상 콘텐츠를 각각 입력받고, 상기 입력된 각각의 동영상 콘텐츠를 MPEG 방식으로 압축하기 위하여 MPEG 인코더(132)에 상기 입력된 각각의 동영상 콘텐츠를 전달한다. 멀티미디어 데이터 프로세서(110)는 상기 입력된 각각의 동영상 콘텐츠에 우선순위를 부여할 수 있고, 상기 우선순위에 따라 멀티미디어 데이터 프로세서(110)와 MPEG 인코더(132)간의 채널 대역폭을 할당할 수 있다.First, the multimedia data processor 110 receives the video content output from the input interfaces 142 ˜ 144, respectively, and inputs the video data to the MPEG encoder 132 to compress the input video content in an MPEG manner. Deliver each video content. The multimedia data processor 110 may give priority to each input video content, and allocate channel bandwidth between the multimedia data processor 110 and the MPEG encoder 132 according to the priority.

우선순위는 초당 전송될 수 있는 최대 프레임들에 대하여 실제로 전송할 프레임에 비율이 될 수 있다. 예를 들어, MPEG 시스템이 국제무선통신자문위원회의 CCIR 601 표준을 따를 경우 MPEG 시스템은 초당 30 프레임을 전송할 수 있는 속도를 지원한다. 따라서 제2 입력 인터페이스(144)와 연결된 외부 장치(예를 들어 DVR)로부터 입력된 데이터가 초당 15 프레임을 전송해야 할 경우라면 멀티미디어 데이터 프로세서(110)는 제2 입력 인터페이스(144)로부터 입력된 동영상 콘텐츠에 대해서는 우선순위를 15로 할당할 수 있다.The priority can be a ratio of the frames actually transmitted to the maximum frames that can be transmitted per second. For example, if the MPEG system complies with the CCIR 601 standard of the International Radiocommunication Advisory Committee, the MPEG system supports a rate of 30 frames per second. Therefore, if data input from an external device (for example, a DVR) connected to the second input interface 144 needs to transmit 15 frames per second, the multimedia data processor 110 may output a video input from the second input interface 144. A priority of 15 may be assigned to the content.

제2 입력 인터페이스(144)로부터 입력된 동영상 콘텐츠의 우선순위는 15 이므로 상기 동영상 콘텐츠에 대한 멀티미디어 데이터 프로세서(110)와 MPEG 인코더(132)간의 채널 대역폭은 전체 채널 대역폭의 1/2이 될 수 있다.Since the priority of the video content input from the second input interface 144 is 15, the channel bandwidth between the multimedia data processor 110 and the MPEG encoder 132 for the video content may be 1/2 of the total channel bandwidth. .

MPEG 인코더(132)에 의하여 압축된 각각의 동영상 콘텐츠는 하드 디스크, 플래시 메모리와 같은 데이터 저장 장치에 저장될 수 있다.Each video content compressed by the MPEG encoder 132 may be stored in a data storage device such as a hard disk or a flash memory.

도 3은 멀티미디어 데이터 프로세서(110)와 MPEG 인코더(132)간의 데이터 전송방식을 나타내는 개념도이다.3 is a conceptual diagram illustrating a data transmission method between the multimedia data processor 110 and the MPEG encoder 132.

도 3의 경우, 멀티미디어 데이터 프로세서(110)는 4개의 외부 장치들(미도시됨)로부터 동영상 콘텐츠를 입력받고 있다. 상기 4개의 외부 장치들로부터 입력된 동영상 콘텐츠의 채널은 각각 제1 내지 제4 채널들(310~340)에 대응한다.In the case of FIG. 3, the multimedia data processor 110 receives video content from four external devices (not shown). Channels of the video content input from the four external devices correspond to the first to fourth channels 310 to 340, respectively.

예를 들어, 멀티미디어 데이터 시스템은 초당 30 프레임들을 전송하는 국제무선통신자문위원회의 CCIR 601 표준을 따르고, 제1 채널(310)은 실시간의 화면을 나타내는 데이터이고, 제2 및 제3 채널들(320~330)은 데이터 저장 장치에 저장하기 위한 데이터이며, 제4 채널(340)은 전송용 데이터라고 가정하면 각 채널들(310~340)이 초당 전송해야 할 최대 프레임들이 각각 15, 7, 7, 1 프레임일 수 있다.For example, the multimedia data system complies with the CCIR 601 standard of the International Radiocommunication Advisory Committee, which transmits 30 frames per second, the first channel 310 is data representing a real-time screen, and the second and third channels 320 to 320. 330 is data for storing in the data storage device, and assuming that the fourth channel 340 is data for transmission, the maximum frames to be transmitted per second by the channels 310 to 340 are 15, 7, 7, and 1, respectively. It may be a frame.

따라서 각 채널들(310~340)에 대한 우선순위는 15, 7, 7, 1 이 될 수 있고 각 채널들(310~340)에 대응하는 멀티미디어 데이터 프로세서(110)와 MPEG 인코더(132)간의 채널 대역폭 역시 15/30, 7/30, 7/30, 1/30 이 될 수 있다.Therefore, the priority of each of the channels 310 to 340 may be 15, 7, 7, 1 and the channel between the multimedia data processor 110 and the MPEG encoder 132 corresponding to the channels 310 to 340. Bandwidth can also be 15/30, 7/30, 7/30, 1/30.

다음으로, 멀티미디어 데이터 프로세서(110)는 하드 디스크, 플래시와 같은 데이터 저장 장치들에 저장된 압축된 동영상 콘텐츠를 읽고, 상기 압축된 동영상 콘텐츠를 복원하기 위하여 MPEG 디코더(134)에 상기 압축된 동영상 콘텐츠를 전달한다. 상기 압축된 동영상 콘텐츠의 수는 출력 인터페이스(142~143)에 연결된 외부 장치들에 의하여 결정될 수 있다.Next, the multimedia data processor 110 reads the compressed video content stored in data storage devices such as a hard disk and flash, and transmits the compressed video content to the MPEG decoder 134 to restore the compressed video content. To pass. The number of compressed video contents may be determined by external devices connected to output interfaces 142 ˜ 143.

멀티미디어 데이터 프로세서(110)는 상기 압축된 각각의 동영상 콘텐츠에 우선순위를 부여할 수 있고, 상기 우선순위에 따라 멀티미디어 데이터 프로세서(110)와 MPEG 디코더(134)간의 채널 대역폭을 할당할 수 있다.The multimedia data processor 110 may give priority to each compressed video content and allocate channel bandwidth between the multimedia data processor 110 and the MPEG decoder 134 according to the priority.

우선순위는 초당 전송될 수 있는 최대 프레임들에 대하여 실제로 전송할 프레임에 비율이 될 수 있다. 예를 들어, MPEG 시스템이 국제무선통신자문위원회의 CCIR 601 표준을 따를 경우 MPEG 시스템은 초당 30 프레임을 전송할 수 있는 속도를 지원한다. 따라서 제2 출력 인터페이스(154)와 연결된 외부 장치(예를 들어 모니터)에 출력해야 할 데이터가 초당 15 프레임이라면 멀티미디어 데이터 프로세서(110)는 제2 출력 인터페이스(154)에 출력할 동영상 콘텐츠에 대해서는 우선순위를 15로 할당할 수 있다.The priority can be a ratio of the frames actually transmitted to the maximum frames that can be transmitted per second. For example, if the MPEG system complies with the CCIR 601 standard of the International Radiocommunication Advisory Committee, the MPEG system supports a rate of 30 frames per second. Therefore, if the data to be output to the external device (for example, the monitor) connected to the second output interface 154 is 15 frames per second, the multimedia data processor 110 may give priority to the video content to be output to the second output interface 154. You can assign a rank of 15.

제2 출력 인터페이스(154)에 출력해야 할 데이터의 우선순위는 15 이므로 상기 동영상 콘텐츠에 대한 멀티미디어 데이터 프로세서(110)와 MPEG 디코더(134)간의 채널 대역폭은 전체 채널 대역폭의 1/2 이 될 수 있다.Since the priority of data to be output to the second output interface 154 is 15, the channel bandwidth between the multimedia data processor 110 and the MPEG decoder 134 for the video content may be 1/2 of the total channel bandwidth. .

도 1의 경우 멀티미디어 데이터 프로세서(110)와 MPEG 인코더(132) 및 MPEG 디코더(134)는 각각 독립적인 모듈로 설명하였으나, 상기 멀티미디어 데이터 프로 세서(110)는 MPEG 인코더(132) 및 MPEG 디코더(134)를 포함할 수 있다.In the case of FIG. 1, the multimedia data processor 110, the MPEG encoder 132, and the MPEG decoder 134 are described as independent modules. However, the multimedia data processor 110 includes the MPEG encoder 132 and the MPEG decoder 134. ) May be included.

도 2는 도 1의 멀티미디어 데이터 프로세서의 구성을 나타내는 블록도이다.FIG. 2 is a block diagram illustrating a configuration of the multimedia data processor of FIG. 1.

도 2를 참조하면, 멀티미디어 데이터 프로세서(110)는 ASIC(Application Specific Integrated Circuit) 컨트롤러(210), 입력 인터페이스(220), 입력 FIFO(230), FIFO 컨트롤러(240), 출력 FIFO(250) 및 출력 인터페이스(260)를 포함한다.Referring to FIG. 2, the multimedia data processor 110 includes an application specific integrated circuit (ASIC) controller 210, an input interface 220, an input FIFO 230, a FIFO controller 240, an output FIFO 250, and an output. Interface 260.

ASIC 컨트롤러(210)는 멀티미디어 데이터 프로세서(110)의 전반적인 동작을 제어한다. 예를 들어, ASIC 컨트롤러(210)는 입출력 동영상 콘텐츠에 대하여 우선순위를 부여할 수 있고, 상기 우선순위에 상응하는 채널 대역폭을 할당할 수 있다.The ASIC controller 210 controls the overall operation of the multimedia data processor 110. For example, the ASIC controller 210 may assign a priority to the input / output video content and allocate a channel bandwidth corresponding to the priority.

내부 인터페이스(220)는 멀티미디어 데이터 프로세서(100)가 멀티미디어 시스템의 내부 장치와 데이터를 교환하기 위한 인터페이스를 제공한다. 예를 들어, ASIC 컨트롤러(210)가 도 1에 도시된 CPU(120), 네트워크(160) 및/또는 하드 디스크(170)와 통신을 하고자 할 경우에는 내부 인터페이스(220)를 통하여 수행한다.The internal interface 220 provides an interface for the multimedia data processor 100 to exchange data with internal devices of the multimedia system. For example, when the ASIC controller 210 wants to communicate with the CPU 120, the network 160, and / or the hard disk 170 shown in FIG. 1, the ASIC controller 210 performs the internal interface 220.

외부 인터페이스(260)는 멀티미디어 데이터 프로세서(100)가 외부 장치들과 데이터를 교환하기 위한 인터페이스를 제공한다. 예를 들어, ASIC 컨트롤러(210)가 DVR 및/또는 TV와 통신을 하고자 할 경우에는 외부 인터페이스(260)를 통하여 수행한다.The external interface 260 provides an interface for the multimedia data processor 100 to exchange data with external devices. For example, when the ASIC controller 210 wants to communicate with the DVR and / or the TV, the ASIC controller 210 performs the external interface 260.

입력 FIFO(230)는 외부 장치들로부터 출력된 각각의 데이터를 순차적으로 저장하는 버퍼이고, 출력 FIFO(250)는 멀티미디어 데이터 시스템 내부 장치들로부터 출력된 각각의 데이터를 순차적으로 저장하기 위한 버퍼이다. FIFO 컨트롤러(240) 는 입력 FIFO(230) 및 출력 FIFO(250)를 제어한다.The input FIFO 230 is a buffer for sequentially storing respective data output from external devices, and the output FIFO 250 is a buffer for sequentially storing each data output from internal devices of the multimedia data system. FIFO controller 240 controls input FIFO 230 and output FIFO 250.

이하, 도 2에 도시된 멀티미디어 데이터 프로세서(110)의 동작을 설명하기로 한다.Hereinafter, the operation of the multimedia data processor 110 shown in FIG. 2 will be described.

우선, 외부장치들로부터 복수의 동영상 콘텐츠가 입력되는 과정을 살펴보기로 한다.First, a process of inputting a plurality of video contents from external devices will be described.

카메라와 DVR은 외부 인터페이스(260)를 통하여 동영상 콘텐츠를 입력받는다. 상기 입력된 동영상 콘텐츠는 각각 입력 FIFO(230)에 순차적으로 저장된다. The camera and the DVR receive video content through the external interface 260. The input video content is sequentially stored in the input FIFO 230, respectively.

상기 입력 FIFO(230)의 저장은 각 외부 장치별로 분류되어 저장될 수 있다. 예를 들어, 카메라와 DVR로부터 출력된 각각의 데이터는 입력 FIFO(230)의 다른 저장 영역에 각각 저장될 수 있다.The storage of the input FIFO 230 may be classified and stored for each external device. For example, each data output from the camera and the DVR may be stored in different storage areas of the input FIFO 230, respectively.

ASIC 컨트롤러(210)는 입력 FIFO(230)에 저장된 각각의 동영상 콘텐츠에 대하여 우선순위를 부여한다. 우선순위는 초당 전송될 수 있는 최대 프레임들에 대하여 실제로 전송할 프레임에 비율이 될 수 있다.The ASIC controller 210 prioritizes each video content stored in the input FIFO 230. The priority can be a ratio of the frames actually transmitted to the maximum frames that can be transmitted per second.

예를 들어, MPEG 시스템이 국제무선통신자문위원회의 CCIR 601 표준을 따를 경우 MPEG 시스템은 초당 30 프레임을 전송할 수 있는 속도를 지원한다. 만일 카메라로부터 출력된 데이터가 초당 10 프레임 전송되어야 하고, DVR로부터 출력된 데이터는 초당 20 프레임 전송되어야 한다면, 카메라로부터 출력된 데이터의 우선순위는 10 이고, DVR로부터 출력된 데이터의 우선순위는 20이 된다.For example, if the MPEG system complies with the CCIR 601 standard of the International Radiocommunication Advisory Committee, the MPEG system supports a rate of 30 frames per second. If the data output from the camera should be transmitted 10 frames per second and the data output from the DVR should be transmitted 20 frames per second, the priority of the data output from the camera is 10 and the priority of the data output from the DVR is 20 do.

멀티미디어 데이터 프로세서(110)와 MPEG 인코더(132) 간의 채널 대역폭은 우선순위에 비례하므로 카메라로부터 출력된 데이터를 MPEG 인코더(132)에 전송하 는 데이터 비율과 DVR로부터 출력된 데이터를 MPEG 인코더(132)에 전송하는 데이터 비율은 1:2가 된다. 즉, 카메라로부터 출력된 데이터를 MPEG 인코더(132)에 1 프레임 전송할 경우 DVR로부터 출력된 데이터를 MPEG 인코더(132)에 2 프레임 전송한다.Since the channel bandwidth between the multimedia data processor 110 and the MPEG encoder 132 is proportional to the priority, the data rate of transmitting the data output from the camera to the MPEG encoder 132 and the data output from the DVR are the MPEG encoder 132. The data rate to be sent is 1: 2. That is, when data output from the camera is transmitted to the MPEG encoder 132 by one frame, data output from the DVR is transmitted to the MPEG encoder 132 by two frames.

MPEG 인코더(132)에 의하여 압축된 데이터는 각각 하드 디스크 및/또는 메모리와 같은 데이터 저장 장치에 저장된다.The data compressed by the MPEG encoder 132 is stored in a data storage device such as a hard disk and / or a memory, respectively.

다음으로, 외부장치들에 복수의 동영상 콘텐츠를 출력하는 과정을 살펴보기로 한다.Next, a process of outputting a plurality of video contents to external devices will be described.

멀티미디어 데이터 프로세서(110)는 메모리 저장 장치에 저장된 압축된 동영상 콘텐츠를 읽는다. 상기 압축된 동영상 콘텐츠는 출력 FIFO(250)에 순차적으로 저장된다.The multimedia data processor 110 reads compressed video content stored in a memory storage device. The compressed video content is sequentially stored in the output FIFO 250.

상기 출력 FIFO(250)의 저장은 각 압축된 동영상 콘텐츠에 따라 분류되어 저장될 수 있다. 예를 들어, TV에 출력할 동영상 콘텐츠와 모니터에 출력할 동영상 콘텐츠는 출력 FIFO(250)의 다른 저장 영역에 각각 저장될 수 있다.The storage of the output FIFO 250 may be classified and stored according to each compressed video content. For example, the video content to be output to the TV and the video content to be output to the monitor may be stored in different storage areas of the output FIFO 250, respectively.

ASIC 컨트롤러(210)는 출력 FIFO(250)에 저장된 각각의 동영상 콘텐츠에 대하여 우선순위를 부여한다. 우선순위는 초당 전송될 수 있는 최대 프레임들에 대하여 실제로 외부장치들에 전송해야 할 프레임의 비율이 될 수 있다.The ASIC controller 210 gives priority to each video content stored in the output FIFO 250. The priority may be the ratio of frames that should actually be transmitted to external devices relative to the maximum frames that can be transmitted per second.

예를 들어, MPEG 시스템이 국제무선통신자문위원회의 CCIR 601 표준을 따를 경우 MPEG 시스템은 초당 30 프레임을 전송할 수 있는 속도를 지원한다. 만일 TV에 전송해야 할 데이터가 초당 17 프레임이고, 모니터에 전송해야 할 데이터가 초당 13 프레임이라면 TV에 전송해야할 데이터의 우선순위는 17이고 모니터에 전송해야 할 데이터의 우선순위는 13이다.For example, if the MPEG system complies with the CCIR 601 standard of the International Radiocommunication Advisory Committee, the MPEG system supports a rate of 30 frames per second. If the data to be transmitted to the TV is 17 frames per second and the data to be transmitted to the monitor is 13 frames per second, the priority of the data to be transmitted to the TV is 17 and the priority of the data to be transmitted to the monitor is 13.

멀티미디어 데이터 프로세서(110)와 MPEG 디코더(150) 간의 채널 대역폭은 우선순위에 비례하므로 TV에 출력해야 할 데이터를 MPEG 디코더(150)에 전송하는 데이터 비율과 모니터에 출력해야 할 데이터를 MPEG 디코더(150)에 전송하는 데이터 비율은 17:13이 된다. 즉, TV에 출력해야 할 데이터를 MPEG 디코더(150)에 17 프레임 전송할 경우 모니터에 출력해야 할 데이터를 MPEG 디코더(150)에 13 프레임 전송한다.Since the channel bandwidth between the multimedia data processor 110 and the MPEG decoder 150 is proportional to the priority, the data rate to transmit the data to be output to the TV to the MPEG decoder 150 and the data to be output to the monitor are output to the MPEG decoder 150. ), The data rate is 17:13. That is, when 17 frames of data to be output to the TV are transmitted to the MPEG decoder 150, 13 frames of data to be output to the monitor are transmitted to the MPEG decoder 150.

MPEG 디코더(150)에 의하여 복원된 데이터는 각각 TV와 모니터와 같은 외부 장치에 출력한다.The data recovered by the MPEG decoder 150 is output to an external device such as a TV and a monitor, respectively.

상기에 있어 MPEG 인코더(132) 및/또는 MPEG 디코더(150)는 내부 인터페이스(220) 및 외부 인터페이스(260) 중 어느 하나와 연결될 수 있으며, 또한 멀티미디어 데이터 프로세서(110)내에 구현될 수 도 있다.In the above, the MPEG encoder 132 and / or the MPEG decoder 150 may be connected to any one of the internal interface 220 and the external interface 260, and may also be implemented in the multimedia data processor 110.

상술한 바와 같이 본 고안에서는 MPEG 인코더 및 디코더와 같은 하드웨어를 공유하여 적은 비용으로 동영상 콘텐츠를 처리할 수 있다.As described above, in the present invention, video content can be processed at low cost by sharing hardware such as an MPEG encoder and a decoder.

상기에서는 본 고안의 바람직한 실시예를 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 하기의 실용신안등록 청구의 범위에 기재된 본 고안의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 고안을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.Although described above with reference to a preferred embodiment of the present invention, those skilled in the art various modifications of the present invention without departing from the spirit and scope of the present invention described in the utility model registration claims below And can be changed.

Claims (4)

중앙처리장치(Central Processing Unit, CPU);A central processing unit (CPU); 비디오 프로세서; 및Video processor; And 상기 데이터 비디오 프로세서를 공유하기 위하여, 복수의 동영상 콘텐츠들을 입력받고, 상기 동영상 콘텐츠들에 대한 비디오 프로세싱의 우선순위를 할당하며, 상기 할당된 우선순위에 따라 상기 동영상 콘텐츠들에 대한 비디오 프로세싱을 위한 채널 대역폭을 할당하고, 상기 할당된 채널 대역폭에 따라, 상기 동영상 콘텐츠들을 상기 비디오 프로세서에 제공하는 멀티미디어 데이터 프로세서;-상기 멀티미디어 데이터 프로세서는 상기 중앙처리장치와 독립적으로 수행-를 포함하는 하드웨어 리소스를 공유하여 복수의 동영상 콘텐츠를 처리하는 장치.In order to share the data video processor, a channel for receiving a plurality of moving picture contents, assigning a priority of video processing to the moving picture contents, and according to the assigned priority, for video processing for the moving picture contents. A multimedia data processor that allocates bandwidth and provides the video content to the video processor in accordance with the allocated channel bandwidth; wherein the multimedia data processor performs independently of the central processing unit; Apparatus for processing a plurality of video content. 제1항에 있어서, 상기 멀티미디어 데이터 프로세서는The method of claim 1, wherein the multimedia data processor 상기 동영상 콘텐츠들을 입력받아 상기 동영상 콘텐츠들을 순차적으로 저장하는 선입선출(First In First Out, FIFO) 버퍼; 및A first in first out (FIFO) buffer for receiving the video contents and sequentially storing the video contents; And 상기 동영상 콘텐츠들에 대하여 상기 비디오 프로세서의 우선순위를 할당하고, 상기 우선순위에 따라 비디오 프로세서에 대한 채널 대역폭을 할당하며, 상기 할당된 채널 대역폭에 따라 상기 동영상 콘텐츠들을 상기 비디오 프로세서에 제공하는 ASIC 컨트롤러를 포함하는 것을 특징으로 하는 하드웨어 리소스를 공유하여 복수의 동영상 콘텐츠를 처리하는 장치.An ASIC controller which assigns a priority of the video processor to the video contents, allocates a channel bandwidth to a video processor according to the priority, and provides the video contents to the video processor according to the assigned channel bandwidth. Apparatus for processing a plurality of video content by sharing a hardware resource comprising a. 제1항 또는 제2항에 있어서, 상기 우선순위는 초당 전송될 수 있는 최대 프레임들에 대하여 실제로 전송할 프레임에 비율인 것을 특징으로 하는 하드웨어 리소스를 공유하여 복수의 동영상 콘텐츠를 처리하기 위한 장치.3. Apparatus according to claim 1 or 2, wherein the priority is a ratio of the frames actually transmitted to the maximum frames that can be transmitted per second. 제1항 또는 제2항에 있어서, 상기 우선순위는 상기 동영상 콘텐츠가 실시간 디스플레이 채널인지, 저장용 채널인지, 전송용 채널인지를 기초로 결정되는 것을 특징으로 하는 하드웨어 리소스를 공유하여 복수의 동영상 콘텐츠를 처리하는 장치.According to claim 1 or claim 2, wherein the priority is a plurality of video content by sharing hardware resources, characterized in that determined based on whether the video content is a real-time display channel, storage channel, or transmission channel Device for processing.
KR2020060013427U 2006-05-19 2006-05-19 Device of processing a plurality of moving picture contents by sharing a hardware resource KR200422852Y1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR2020060013427U KR200422852Y1 (en) 2006-05-19 2006-05-19 Device of processing a plurality of moving picture contents by sharing a hardware resource

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR2020060013427U KR200422852Y1 (en) 2006-05-19 2006-05-19 Device of processing a plurality of moving picture contents by sharing a hardware resource

Publications (1)

Publication Number Publication Date
KR200422852Y1 true KR200422852Y1 (en) 2006-07-31

Family

ID=41771480

Family Applications (1)

Application Number Title Priority Date Filing Date
KR2020060013427U KR200422852Y1 (en) 2006-05-19 2006-05-19 Device of processing a plurality of moving picture contents by sharing a hardware resource

Country Status (1)

Country Link
KR (1) KR200422852Y1 (en)

Similar Documents

Publication Publication Date Title
KR19980042224A (en) MPEG decoder system and method with integrated memory for transport, decryption, system controller functions
US10893276B2 (en) Image encoding device and method
US20180176580A1 (en) Image coding method, image decoding method, image coding apparatus, image decoding apparatus, and image coding and decoding apparatus
JP2006197587A (en) System and method for decoding dual video
CN101681243A (en) Video data transmission via usb interface
US20120033727A1 (en) Efficient video codec implementation
WO2002102049A2 (en) System and method for multi-channel video and audio encoding on a single chip
US9179065B2 (en) Image processing apparatus, image processing method, and program product
KR100623710B1 (en) Method of processing a plurality of moving picture contents by sharing a hardware resource
US20200336776A1 (en) Method and system for processing videos from multiple channels
KR200422852Y1 (en) Device of processing a plurality of moving picture contents by sharing a hardware resource
US10356439B2 (en) Flexible frame referencing for display transport
US10298651B2 (en) Encoding device, decoding device, computer program product, and streaming system
US20190394494A1 (en) Image processing apparatus and method
US11284094B2 (en) Image capturing device, distribution system, distribution method, and recording medium
JPH0662393A (en) Multiplexed dynamic image encoding method and device
JP5506250B2 (en) Stream decoding apparatus and stream decoding method
WO2016152551A1 (en) Transmission device, transmission method, reception device, reception method, transmission system, and program
KR100213056B1 (en) Receiver having analog and digital video mode and receiving method thereof
US10026149B2 (en) Image processing system and image processing method
CN106954073B (en) Video data input and output method, device and system
US6008853A (en) Sub-frame decoder with area dependent update rate for digital camcorder transmission standard
US11438631B1 (en) Slice based pipelined low latency codec system and method
JP2016149770A (en) Minimization system of streaming latency and method of using the same
JP2015519824A (en) A mechanism that facilitates cost-effective and low-latency video stream coding

Legal Events

Date Code Title Description
REGI Registration of establishment
FPAY Annual fee payment

Payment date: 20130725

Year of fee payment: 8

FPAY Annual fee payment

Payment date: 20140530

Year of fee payment: 9

FPAY Annual fee payment

Payment date: 20150727

Year of fee payment: 10

EXPY Expiration of term