KR20140016760A - 영상 처리 장치 및 영상 처리 방법 - Google Patents

영상 처리 장치 및 영상 처리 방법 Download PDF

Info

Publication number
KR20140016760A
KR20140016760A KR1020120084056A KR20120084056A KR20140016760A KR 20140016760 A KR20140016760 A KR 20140016760A KR 1020120084056 A KR1020120084056 A KR 1020120084056A KR 20120084056 A KR20120084056 A KR 20120084056A KR 20140016760 A KR20140016760 A KR 20140016760A
Authority
KR
South Korea
Prior art keywords
frame
frames
resolution
image processing
decoding
Prior art date
Application number
KR1020120084056A
Other languages
English (en)
Inventor
이상민
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020120084056A priority Critical patent/KR20140016760A/ko
Priority to US13/932,496 priority patent/US20140036154A1/en
Priority to EP13178290.6A priority patent/EP2693767A3/en
Priority to CN201310328711.7A priority patent/CN103581746A/zh
Publication of KR20140016760A publication Critical patent/KR20140016760A/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/44004Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving video buffer management, e.g. video decoder buffer or video display buffer
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/44008Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics in the video stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/4402Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display
    • H04N21/440218Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display by transcoding between formats or standards, e.g. from MPEG-2 to MPEG-4

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Television Systems (AREA)
  • Editing Of Facsimile Originals (AREA)

Abstract

영상 처리 장치의 영상 처리 방법이 개시된다. 본 영상 처리 방법은, 스트리밍 영상 데이터를 수신하는 단계, 수신된 스트리밍 영상 데이터를 디코딩하여 연속적인 복수의 프레임으로 생성하는 단계, 생성된 복수의 프레임 중 해상도가 변화된 프레임을 검출하는 단계 및 기설정된 스케일링 팩터를 이용하여 생성된 연속적인 복수의 프레임 각각을 스케일링하는 단계를 포함하고, 여기서 스케일링하는 단계는, 검출된 프레임이 스케일링되기 직전에 기설정된 스케일링 팩터를 검출된 프레임의 해상도에 대응되는 스케일링 팩터로 변경하는 것을 특징으로 한다.

Description

영상 처리 장치 및 영상 처리 방법{Image processing apparatus and image processing method thereof}
본 발명은 영상처리장치 및 그 영상처리방법에 관한 것으로, 더욱 상세하게는 스트리밍 영상 데이터를 처리하는 영상처리장치 및 그 영상처리방법에 관한 것이다.
종래에는 기록매체로서 대용량의 데이터를 기록할 수 있는 광 디스크가 널리 사용되고 있었다. 다만, 고화질의 영상 데이터나 고음질의 음향 데이터에 대한 수요가 증가함에 따라 더욱 큰 데이터 저장 용량을 갖는 새로운 고밀도 기록매체에 대한 연구가 진행되었다. 예를 들어 HDTV급의 영화 한편에 해당하는 영상 데이터를 MPEG2의 화질로 디스크에 저장한다면 20GByte 이상의 데이터저장용량을 갖는 새로운 고밀도 기록매체가 필요하므로 이에 대한 요구에 따라 많은 연구가 진행되었다.
이러한 요구에 따라 블루레이 디스크(BD: Blu-ray Disc)와 고밀도 디지털 비디오 디스크(HD-DVD: High Definition Digital Versatile Disc) 등이 차세대 기록매체로 개발되고 있다. 또한, 고밀도 기록매체 규격을 응용한 광 기록 및 재생장치의 개발도 이루어지고 있는 추세이다.
한편, 광 기록 및 재생장치들의 개발 추세에 따라 스트리밍 데이터의 재생 기능도 추가되고 있다. 여기서, 스트리밍 데이터란 일반적으로 CD 나 HDD 같은 스토리지 미디어가 아닌 유/무선 네트워크를 이용한 방송 환경에서 멀티미디어 컨텐츠를 전송하고, 동시에 재생가능한 데이터 형태를 의미한다.
이러한 스트리밍 데이터의 제공과 관련된 서비스로 DTV(digital television) 또는 A/V player 제품 분야에 VOD(Video On Demand)서비스가 보편화되고 있으며, 중요한 서비스가 되고 있다. VOD 서비스는 VOD 서비스 제공자로부터 스트리밍 데이터를 전송받음으로써, 사용자가 필요로 하는 데이터를 원하는 시간에 제공해주는 맞춤형 영상정보 서비스이다.
최근에는 Netflix 나 MLB 같은 VOD 서비스 제공자는 시청자의 편의를 위하여 네트워크 속도에 따라 영상의 해상도를 조절하여 전송하는 서비스를 시행하고 있다.
다만, 종래에는 VOD 서비스 제공자가 영상의 해상도를 조절하여 전송하는 경우에, 수신측의 디스플레이부에 표시되는 화면이 찢어지거나 비정상적 출력이 되는 것을 막기 위하여 도 1과 같이 Mute 처리를 수행하였다.
다만, 이 경우에는 네트워크 속도의 불안정으로 해상도가 자주 변경되는 경우, Mute 구간이 자주 발생하여, 깜빡임으로 시청에 불편함을 주는 문제점이 있었다.
본 발명은 상술한 문제점을 해결하기 위해 안출된 것으로, 본 발명의 목적은 기설정된 스케일링 팩터를 프레임의 변화된 해상도에 대응되는 스케일링 팩터로 변경하는 영상 처리 장치 및 영상 처리 방법을 제공함에 있다.
상술한 문제점을 해결하기 위한 본 발명의 일 실시 예에 따른 영상 처리 장치의 영상 처리 방법은, 스트리밍 영상 데이터를 수신하는 단계, 상기 수신된 스트리밍 영상 데이터를 디코딩하여 연속적인 복수의 프레임으로 생성하는 단계, 상기 생성된 복수의 프레임 중 해상도가 변화된 프레임을 검출하는 단계 및 기설정된 스케일링 팩터를 이용하여 상기 생성된 연속적인 복수의 프레임 각각을 스케일링하는 단계를 포함하고, 상기 스케일링하는 단계는, 상기 검출된 프레임이 스케일링되기 직전에 상기 기설정된 스케일링 팩터를 상기 검출된 프레임의 해상도에 대응되는 스케일링 팩터로 변경할 수 있다.
그리고, 상기 복수의 프레임으로 생성하는 단계는, 상기 수신된 스트리밍 영상 데이터를 디코딩하여 복수의 프레임을 생성하고, 상기 생성된 복수의 프레임을 복수의 디코딩 버퍼에 저장하는 단계 및 상기 저장된 복수의 프레임을 프레임 순서에 따라 순차적으로 복수의 프레임 버퍼에 저장하는 단계를 포함할 수 있다.
또한, 상기 복수의 프레임으로 생성하는 단계는, 상기 복수의 디코딩 버퍼에 저장된 복수의 프레임에 대해서 화질 개선을 위한 이미지 처리를 수행하는 단계를 더 포함하고, 상기 복수의 프레임 버퍼에 저장하는 단계는, 상기 이미지 처리된 복수의 프레임 각각을 순차적으로 상기 복수의 프레임 버퍼에 저장할 수 있다.
그리고, 상기 해상도가 변화된 프레임을 검출하는 단계는, 상기 수신된 스트리밍 영상 데이터를 디코딩하는 과정에서, 상기 복수의 프레임의 해상도를 감지하고, 해상도가 변화되는 프레임을 검출할 수 있다.
또한, 상기 스케일링하는 단계는, 상기 해상도가 변화되는 프레임이 저장되는 프레임 버퍼의 정보를 이용하여, 상기 해상도가 변화되는 프레임이 저장된 프레임 버퍼에 대한 스케일링을 수행하기 직전에 상기 검출된 프레임의 해상도에 대응되는 스케일링 팩터로 변경할 수 있다.
그리고, 상기 프레임 버퍼의 정보는 프레임 버퍼의 포인터 정보일 수 있다.
또한, 상기 스트리밍 영상 데이터는, 네트워크 속도에 따라 해상도가 변화되는 스트리밍 영상 데이터일 수 있다.
그리고, 상기 스케일링된 복수의 프레임을 연속적으로 표시하는 단계;를 더 포함할 수 있다.
한편, 상술한 목적을 달성하기 위한 본 발명의 일 실시 예에 따른 영상 처리 장치는, 스트리밍 영상 데이터를 수신하는 통신 인터페이스부, 상기 수신된 스트리밍 영상 데이터를 디코딩하여 연속적인 복수의 프레임으로 생성하고, 상기 생성된 복수의 프레임 중 해상도가 변화된 프레임을 검출하는 디코딩부 및 기설정된 스케일링 팩터를 이용하여 상기 생성된 연속적인 복수의 프레임 각각을 스케일링하는 스케일링부; 및 상기 검출된 프레임이 스케일링되기 직전에 상기 기설정된 스케일링 팩터를 상기 검출된 프레임의 해상도에 대응되는 스케일링 팩터로 변경하는 제어부를 포함한다.
그리고, 상기 디코딩부에서 생성된 복수의 프레임을 저장하는 복수의 프레임 버퍼를 더 포함하고, 상기 디코딩부는, 상기 수신된 스트리밍 영상 데이터를 디코딩하여 연속적인 복수의 프레임으로 생성하고, 상기 생성된 복수의 프레임을 저장하는 복수의 디코딩 버퍼를 포함하며, 상기 복수의 디코딩 버퍼에 저장된 복수의 프레임의 순서에 따라 상기 복수의 프레임 버퍼에 저장할 수 있다.
또한, 상기 복수의 디코딩 버퍼에 저장된 복수의 프레임에 대해서 화질 개선을 위한 이미지 처리를 수행하는 이미지 처리부를 더 포함하고, 상기 이미지 처리부는, 상기 이미지 처리된 복수의 프레임 각각을 순차적으로 상기 복수의 프레임 버퍼에 저장할 수 있다.
그리고, 상기 디코딩부는, 상기 생성된 복수의 프레임 각각의 해상도를 감지하여, 해상도가 변화되는 프레임을 검출할 수 있다.
또한, 상기 제어부는, 상기 해상도가 변환되는 프레임이 저장되는 프레임 버퍼의 정보를 이용하여, 상기 해상도가 변환되는 프레임이 저장된 프레임 버퍼에 대한 스케일링을 수행하기 직전에 상기 검출된 프레임의 해상도에 대응되는 스케일링 팩터로 변경할 수 있다.
그리고, 상기 프레임 버퍼의 정보는 프레임 버퍼의 포인터 정보일 수 있다.
또한, 상기 스트리밍 영상 데이터는, 네트워크 속도에 따라 해상도가 변화되는 스트리밍 영상 데이터일 수 있다.
상술한 본 발명의 다양한 실시 예에 따르면, 수신된 스트리밍 영상 데이터의 해상도 변화시, 디스플레이 화면에 Mute 구간이 없게 되어, 끊김없이 자연스러운 영상을 디스플레이할 수 있다.
도 1은 스트리밍 콘텐츠 제공자가 영상의 해상도를 변경하여 전송하는 경우, 종래의 해결 방법을 나타내는 도면,
도 2는 본 발명의 일 실시 예에 따른 스트리밍 서비스 제공 환경을 설명하기 위한 도면,
도 3은 본 발명의 일 실시 예에 따른 영상 처리 장치를 나타내는 블록도,
도 4는 도 3에 따른 영상 처리 장치를 구체적으로 나타내는 블록도,
도 5는 본 발명의 일 실시 예에 따른 영상 처리 방법을 설명하기 위한 도면,
도 6은 본 발명의 일 실시 예에 따른 영상 처리 방법을 설명하기 위한 흐름도,
도 7은 본 발명의 일 실시 예에 따른 영상 처리 방법의 효과를 나타내는 도면이다.
이하, 첨부된 도면을 참조하여 구체적으로 설명하기로 한다.
도 2는 본 발명의 일 실시 예에 따른 스트리밍 형태의 서비스 제공 환경을 설명하기 위한 도면이다. 도 2를 참조하면, 스트리밍 서비스는 양방향 서비스나, 방송과 같은 단방향 서비스 모두에서 가능하다.
네트워크 또는 공중파(10) 환경 하에서 스트리밍 서비스를 제공하는 경우 스트리밍 서버(20)는 스트리밍 데이터를 적절한 포맷으로 인코딩한 후, 압축된 비트 스트림을 패킷화하여 영상 처리 장치(100)로 전송할 수 있다. 여기서 스트리밍 서버(20)는 VOD 스트리밍 컨텐츠를 지원하는 콘텐츠 제공자 또는 스트리밍 데이터 서비스를 지원하는 방송사 등이 될 수 있다.
영상 처리 장치(100)에서는 스트리밍 서버(20)의 처리 역순으로 패킷을 처리하여 스트리밍 데이터의 복호화를 수행한다. 특히 영상 처리 장치는 수신된 스트리밍 데이터에서 스트리밍 영상 데이터를 디코딩하여 연속적인 복수의 프레임으로 생성하고, 생성된 복수의 프레임 중 해상도가 변화된 프레임을 검출할 수 있다. 그리고 영상 처리 장치(100)는 기설정된 스케일링 팩터를 이용하여 생성된 연속적인 복수의 프레임 각각의 스케일링할 수 있다. 또한 영상 처리 장치(100)는 스케일링 과정에서, 검출된 프레임이 스케일링되기 직전에 기설정된 스케일링 팩터를 검출된 프레임의 해상도에 대응되는 스케일링 팩터로 변경하여 스케일링할 수 있다.
여기서, 영상 처리 장치(100)는 블루레이 디스크 플레이어(BD(Blu-ray Disc) Player), 고밀도 디지털 비디오 디스크 플레이어(HD-DVD(Hihg Definition Digital Versatile Disc) Player)와 같은 고밀도 광디스크 플레이어, 디지털 TV, 셋탑 박스, 스마트폰 등으로 구현될 수 있다.
도 3은 본 발명의 일 실시 예에 따른 영상 처리 장치를 나타내는 블록도이다. 도 4는 도 3에 따른 영상 처리 장치를 구체적으로 나타내는 블록도이다. 도 3 내지 4를 참조하면, 영상 처리 장치(100)는 통신 인터페이스부(110), 디코딩부(120), 디코딩 버퍼(121), 스케일링부(130), 제어부(140), 이미지 처리부(150), 프레임 버퍼(160), 디스플레이부(170)의 전부 또는 일부를 포함한다.
본 영상처리장치(100)는 스트리밍 콘텐츠 제공자로부터 스트리밍 데이터를 스트림 방식으로 전송받으며, 수신과 동시에 스트리밍 데이터를 재생 또는 방송하도록 구현될 수 있다. 이러한 기능은 보통 라이브 스트리밍이라 일컬어지며, VOD 서비스라 통칭될 수 있다.
이에 따라 영상처리장치(100)는 VOD 스트리밍 데이터와 같은 스트리밍 데이터를 재생하는 콘텐츠 재생 장치, 또는 스트리밍 데이터를 표시하는 디지털 TV, 스마트 폰, 세탑 박스 등으로 구현될 수 있다. 여기서, 콘텐츠 재생 장치는 튜너를 구비하는 형태로 구현되는 것도 가능하다. 특히, 콘텐츠 재생 장치의 경우 블루레이 디스크 플레이어(BD(Blu-ray Disc) Player), 고밀도 디지털 비디오 디스크 플레이어(HD-DVD(Hihg Definition Digital Versatile Disc) Player)와 같은 고밀도 광디스크 플레이어로 구현될 수 있다.
통신 인터페이스부(110)는 스트리밍 데이터를 수신한다. 구체적으로 통신 인터페이스부(110)는 음성 및 영상 데이터를 포함하는 스트리밍 데이터를 수신할 수 있다. 여기서 통신 인터페이스부(110)는 네트워크(Network) 또는 공중파(Air)를 통해 VOD 스트리밍 콘텐츠 제공자 또는 방송사로부터 스트리밍 콘텐츠를 수신할 수 있다. 또한 수신된 스트리밍 데이터는 신호 분리부(미도시)를 통하여 스트리밍 영상 데이터, 스트리밍 음성 데이터로 분리될 수 있다. 그리고 신호 분리부(미도시)는 스트리밍 영상 데이터를 디코딩부(120)로 전송할 수 있다.
디코딩부(120) 수신된 스트리밍 영상 데이터를 디코딩한다. 구체적으로 디코딩부(120)는 수신된 스트리밍 영상 데이터를 디코딩하여 연속적인 복수의 프레임으로 생성할 수 있다. 여기서 디코딩부(120)는 스트리밍 데이터 제공자 각각에 대응되는 codec 정보를 이용하여, 수신된 스트리밍 영상 데이터를 디코딩할 수 있다. 예를 들어, 스트리밍 데이터 제공자가 Netflix인 경우, Netflix는 스트리밍 영상 데이터 인코딩시에 H.264 Codec을 사용하는 바, 디코딩부(120)는 H.264 Codec을 이용하여 수신된 스트리밍 영상 데이터를 디코딩할 수 있다. 이러한 콘텐츠 제공자에 대응되는 codec 정보는 수신된 스트리밍 데이터에 포함되어 있을 수 있다. 또한, 콘텐츠 제공자에 대응되는 codec 정보는 저장부(미도시)에 기 저장되어 있을 수 있다. 이에 따라 디코딩부(120)는 수신된 스트리밍 영상 데이터를 디코딩하여 연속적인 복수의 프레임으로 생성할 수 있다. 여기서 디코딩부(120)에서 생성된 복수의 프레임은 화질 개선을 위한 이미지 처리가 수행되지 않은 로우(RAW) 데이터 형식의 프레임일 수 있다.
여기서 디코딩부(120)는 생성된 복수의 프레임을 복수의 디코딩 버퍼(121)에 저장할 수 있다. 이에 따라 디코딩 버퍼(121)에는 생성된 복수의 프레임이 프레임 별로 저장될 수 있다.
디코딩 버퍼(121)에 저장된 복수의 프레임은 제어부(140)에서 제공된 제1 동기화 신호(Decoding Sync)에 기초하여 프레임 버퍼(160)로 프레임 순서에 따라 제공될 수 있다.
또한 디코딩부(120)는 생성된 복수의 프레임 중 해상도가 변화된 프레임을 검출할 수 있다. 구체적으로 디코딩부(120)는 생성된 프레임 각각의 해상도를 감지하여, 해상도가 변화되는 프레임을 검출할 수 있다.
예를 들어, Netflix 같은 VOD 서비스 제공자는 시청자의 편의를 위하여 네트워크 속도에 따라 영상의 해상도를 조절하여 전송하는 서비스를 시행하고 있다. 이에 따라 수신되는 스트리밍 영상 데이터의 해상도는 변화될 수 있다. 예를 들어, 수신되는 스트리밍 영상 데이터의 해상도는 HD(High Definition)에서 SD(Standard Definition)로, HD에서 HD로, SD에서 HD로 또는 SD에서 SD로 변화될 수 있다.
여기서 HD는 1920*1080 또는 1280*720 등과 같은 해상도를 의미하며, SD는 720*480과 같은 해상도를 의미한다. 다만, 이는 설명의 편의를 위한 것이지, 그 수치는 해상도 규격에 따라 달라질 수 있다. 또한 HD에서 HD 또는 SD에서 SD로의 변화는 서로 다른 해상도를 갖는 HD에서 HD로, 또는 SD에서 SD로의 변화를 의미한다.
이 경우 디코딩부(120)는 생성된 복수의 프레임 각각의 해상도를 감지하여, 해상도가 변화되는 프레임을 검출할 수 있다.
또한 디코딩부(120)는 복수의 디코딩 버퍼(121)에 저장된 복수의 프레임의 순서에 따라 복수의 프레임 버퍼(160)에 복수의 프레임을 저장할 수 있다. 여기서 복수의 프레임 버퍼(160)에 저장된 복수의 프레임은 제어부(140)에서 제공된 제2 동기화 신호(Scaling Sync)에 기초하여 스케일링부(130)에 제공될 수 있다.
스케일링부(130)는 생성된 연속적인 복수의 프레임 각각을 기설정된 스케일링 팩터를 이용하여 스케일링한다. 구체적으로 스케일링부(130)는 복수의 프레임 버퍼(160)에 저장된 연속적인 복수의 프레임 각각을 기설정된 스케일링 팩터를 이용하여 스케일링할 수 있다.
여기서 기 설정된 스케일링 팩터는 연속적인 복수의 프레임 각각을 디스플레이 화면에 맞게 스케일링하기 위한 기 설정된 값을 의미한다. 만약 영상 처리 장치(100)가 DTV, 스마트폰으로 구현되는 경우, 기 설정된 스케일링 팩터는 연속적인 복수의 프레임 각각을 디스플레이 화면에 맞게 스케일링하기 위한 값을 의미할 수 있다. 또한 만약 영상 처리 장치(100)가 콘텐츠 재생 장치 또는 셋탑박스로 구현되는 경우, 기 설정된 스케일링 팩터는 연속적인 복수의 프레임 각각을 영상 처리 장치와 연결된 디스플레이 장치의 디스플레이 화면에 맞게 스케일링하기 위한 값을 의미할 수 있다.
예를 들어, 수신된 스트리밍 영상 데이터의 해상도가 HD급(1920*1080)인 경우, 스케일링 팩터는 HD급(1920*1080)의 해상도를 디스플레이 화면에 맞게 스케일링하기 위한 제1 값일 수 있다.
만약, 수신된 스트리밍 영상 데이터의 해상도가 SD급(720*480)인 경우, 스케일링 팩터는 SD급(720*480)의 해상도를 디스플레이 화면에 맞게 스케일링하기 위한 제2 값일 수 있다.
이에 따라 스케일링부(130)는 생성된 연속적인 복수의 프레임 각각을 기설정된 스케일링 팩터를 이용하여 스케일링할 수 있다.
제어부(140)는 영상 처리 장치(100)의 전반적인 동작을 제어한다. 구체적으로 제어부(140)는 통신 인터페이스부(110), 디코딩부(120), 스케일링부(130), 이미지 처리부(150), 프레임 버퍼(160), 디스플레이부(170)의 전부 또는 일부를 제어할 수 있다.
특히 제어부(140)는 디코딩 버퍼(121)에 저장된 프레임을 프레임 버퍼에 순차적으로 제공하기 위한 제1 동기화 신호를 디코딩부(110)에 제공할 수 있다.
또한 제어부(140)는 프레임 버퍼(160)에 저장된 프레임을 스케일링부(130)에 순차적으로 제공하기 위한 제2 동기화 신호를 프레임 버퍼(160)에 제공할 수 있다.
또한 제어부(140)는 검출된 해상도가 변화된 프레임이 스케일링되기 직전에 기설정된 스케일링 팩터를 검출된 프레임의 해상도에 대응되는 스케일링 팩터로 변경할 수 있다. 즉 제어부(140)는 해상도가 변환되는 프레임이 저장되는 프레임 버퍼의 정보를 이용하여, 해상도가 변환되는 프레임이 저장된 프레임 버퍼에 대한 스케일링을 수행하기 직전에 검출된 프레임의 해상도에 대응되는 스케일링 팩터로 변경할 수 있다. 여기서 프레임 버퍼의 정보는 프레임 버퍼의 포인터 정보일 수 있다. 포인터 정보는 복수개의 프레임 버퍼 각각을 식별하기 위하여 각각의 프레임 버퍼에 부여된 인덱스 번호일 수 있다.
구체적으로 제1 동기화 신호에 기초하여, 디코딩 버퍼(121)에 저장된 해상도가 변화된 프레임이 프레임 버퍼(160)에 저장되면, 제어부(140)는 해상도가 변화된 프레임이 저장된 프레임 버퍼(160)의 포인터 정보를 검출할 수 있다. 그리고 제2 동기화 신호에 기초하여, 검출된 포인터 정보에 대응하는 프레임 버퍼에 저장된 프레임이 스케일리부(160)에 출력되기 직전에, 제어부(140)는 스케일링부(160)의 스케일링 팩터를 검출된 프레임의 해상도에 대응되는 스케일링 팩터로 변경할 수 있다.
디스플레이부(170)는 스케일링된 복수의 프레임을 연속적으로 표시한다. 이에 따라 디스플레이부(170)에는 콘텐츠 제공자 또는 스트리밍 데이터 서비스를 지원하는 방송사 등이 제공하는 콘텐츠가 표시될 수 있다.
여기서, 디스플레이부(110)는 액정 디스플레이(liquid crystal display), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display), 유기 발광 다이오드(organic light-emitting diode), 플렉시블 디스플레이(flexible display), 3차원 디스플레이(3D display), 투명 중에서 적어도 하나로 구현될 수 있다.
다만, 영상 처리 장치(100)의 구현 형태에 따라서는 디스플레이부(170)는 출력부로 대체될 수 있다. 예를 들어, 영상 처리 장치(100)가 스마트 폰, 또는 DTV로 구현되는 경우, 디스플레이부(170)를 포함할 수 있다. 다만, 영상 처리 장치(100)가 블루레이 디스크 플레이어(BD(Blu-ray Disc) Player)와 같은 콘텐츠 재생 장치 또는 셋탑 박스로 구현되는 경우, 영상 처리 장치와 연결된 디스플레이 장치에 스케일링된 신호를 제공하기 위한 출력부로 구현될 수 있다. 여기서 출력부는 예를 들어 커넥터 또는 잭(jack)의 형태로 형성될 수 있는데, 이를 통해 DTV등과 같은 에 연결될 수 있다.
또한 영상 처리 장치(100)는 이미지 처리부(150)를 더 포함할 수 있다. 여기서 이미지 처리부(150)는 디코딩 버퍼에 저장된 복수의 프레임에 대해서 화질 개선을 위한 이미지 처리를 수행할 수 있다. 이 경우 프레임 버퍼(160)에는 이미지 처리된 복수의 프레임이 저장될 수 있다. 다만 여기서 이미지 처리부(150)는 경우에 따라서는 생략될 수 있다.
상술한 본 발명의 일 실시 예에 따른 영상 처리 장치에 따르면, 수신된 스트리밍 영상 데이터의 해상도 변화시, 디스플레이 화면에 Mute 구간이 없게 되어, 끊김없이 자연스러운 영상을 디스플레이할 수 있다.
도 5는 본 발명의 일 실시 예에 따른 영상 처리 방법을 설명하기 위한 도면이다.
도 5와 같이, 디코딩 버퍼(121)는 3개의 버퍼로 구성될 수 있다. 또한 프레임 버퍼(160)는 4개의 버퍼로 구성될 수 있다. 다만, 이는 설명의 편의를 위한 것이지, 그 개수에 한정되는 것은 아니다. 따라서 영상 처리 장치(100)의 구현에 따라서 그 개수는 변경될 수 있다.
먼저 ①과 같이 제1 동기화 신호(Decoding Vsync)에 따라 디코딩 버퍼(121)에 저장된 HD해상도의 #3 프레임이 프레임 버퍼(160)에 제공될 수 있다. 이 경우 HD해상도의 #3 프레임은 포인터 정보가 Ptr_#0인, 프레임 버퍼에 저장될 수 있다. 또한 포인터 정보가 Ptr_#1, 2, 3인 프레임 버퍼에는 이전에 디코딩 버퍼(121)에서 프레임 순으로 순차적으로 제공된 프레임이 저장되어 있을 수 있다. 그리고 포인터 정보가 Ptr_#1인 프레임 버퍼에 저장된 HD해상도의 #0 프레임은 제2 동기화 신호(Scaling Sync)에 따라 스케일링부(160)에 제공될 수 있다. 이 경우 스케일링부(160)는 HD해상도에 대응되는 스케일링 팩터를 이용하여 HD해상도의 #0 프레임을 스케일링할 수 있다. 이에 따라 스케일링부(130)는 스케일링된 Frame #0를 출력할 수 있다.
그리고 ②와 같이 제1 동기화 신호(Decoding Vsync)에 따라 디코딩 버퍼(121)에 저장된 HD해상도의 #4 프레임이 프레임 버퍼(160)에 제공될 수 있다. 이 경우 HD해상도의 #4 프레임은 포인터 정보가 Ptr_#3인, 프레임 버퍼에 저장될 수 있다. 또한 포인터 정보가 Ptr_#0, 1, 2인 프레임 버퍼에는 이전에 디코딩 버퍼(121)에서 프레임 순으로 순차적으로 제공된 프레임이 저장되어 있을 수 있다. 그리고 포인터 정보가 Ptr_#2인 프레임 버퍼에 저장된 HD해상도의 #1 프레임은 제2 동기화 신호(Scaling Sync)에 따라 스케일링부(160)에 제공될 수 있다. 이 경우 스케일링부(160)는 HD해상도에 대응되는 스케일링 팩터를 이용하여 HD해상도의 #1 프레임을 스케일링할 수 있다. 이에 따라 스케일링부(130)는 스케일링된 Frame #1을 출력할 수 있다.
그리고 ③과 같이 제1 동기화 신호(Decoding Vsync)에 따라 디코딩 버퍼(121)에 저장된 SD해상도의 #0 프레임이 프레임 버퍼(160)에 제공될 수 있다. 이 경우 SD해상도의 #0 프레임은 포인터 정보가 Ptr_#2인, 프레임 버퍼에 저장될 수 있다. 이 경우 제어부(160)는 해상도가 변화된 프레임을 저장하는 프레임 버퍼의 포인터 정보가 Ptr_#2를 인식할 수 있다. 또한 포인터 정보가 Ptr_#3, 0, 1인 프레임 버퍼에는 이전에 디코딩 버퍼(121)에서 프레임 순으로 순차적으로 제공된 프레임이 저장되어 있을 수 있다. 그리고 포인터 정보가 Ptr_#1인 프레임 버퍼에 저장된 HD해상도의 #2 프레임은 제2 동기화 신호(Scaling Sync)에 따라 스케일링부(160)에 제공될 수 있다. 이 경우 스케일링부(160)는 HD해상도에 대응되는 스케일링 팩터를 이용하여 HD해상도의 #2 프레임을 스케일링할 수 있다. 이에 따라 스케일링부(130)는 스케일링된 Frame #2를 출력할 수 있다.
그리고 ④와 같이 제1 동기화 신호(Decoding Vsync)에 따라 디코딩 버퍼(121)에 저장된 SD해상도의 #1 프레임이 프레임 버퍼(160)에 제공될 수 있다. 이 경우 SD해상도의 #1 프레임은 포인터 정보가 Ptr_#1인, 프레임 버퍼에 저장될 수 있다. 또한 포인터 정보가 Ptr_#2, 3, 0인 프레임 버퍼에는 이전에 디코딩 버퍼(121)에서 프레임 순으로 순차적으로 제공된 프레임이 저장되어 있을 수 있다. 그리고 포인터 정보가 Ptr_#0인 프레임 버퍼에 저장된 HD해상도의 #3 프레임은 제2 동기화 신호(Scaling Sync)에 따라 스케일링부(160)에 제공될 수 있다. 이 경우 스케일링부(160)는 HD해상도에 대응되는 스케일링 팩터를 이용하여 HD해상도의 #3 프레임을 스케일링할 수 있다. 이에 따라 스케일링부(130)는 스케일링된 Frame #3을 출력할 수 있다.
그리고 ⑤와 같이 제1 동기화 신호(Decoding Vsync)에 따라 디코딩 버퍼(121)에 저장된 SD해상도의 #2 프레임이 프레임 버퍼(160)에 제공될 수 있다. 이 경우 SD해상도의 #2 프레임은 포인터 정보가 Ptr_#0인, 프레임 버퍼에 저장될 수 있다. 또한 포인터 정보가 Ptr_#1, 2, 3인 프레임 버퍼에는 이전에 디코딩 버퍼(121)에서 프레임 순으로 순차적으로 제공된 프레임이 저장되어 있을 수 있다. 그리고 포인터 정보가 Ptr_#3인 프레임 버퍼에 저장된 HD해상도의 #4 프레임은 제2 동기화 신호(Scaling Sync)에 따라 스케일링부(160)에 제공될 수 있다. 이 경우 스케일링부(160)는 HD해상도에 대응되는 스케일링 팩터를 이용하여 HD해상도의 #4 프레임을 스케일링할 수 있다. 이에 따라 스케일링부(130)는 스케일링된 Frame #4를 출력할 수 있다.
그리고 ⑥과 같이 제1 동기화 신호(Decoding Vsync)에 따라 디코딩 버퍼(121)에 저장된 SD해상도의 #3 프레임이 프레임 버퍼(160)에 제공될 수 있다. 이 경우 SD해상도의 #3 프레임은 포인터 정보가 Ptr_#3인, 프레임 버퍼에 저장될 수 있다. 포인터 정보가 Ptr_#0, 1, 3인 프레임 버퍼에는 이전에 디코딩 버퍼(121)에서 프레임 순으로 순차적으로 제공된 프레임이 저장되어 있을 수 있다.
여기서 제어부(160)는 인식된 포인터 정보 Ptr_#2를 이용하여 스케일링부(160)의 스케일링 팩터 변경 시점을 산출할 수 있다. 구체적으로 제어부(160)는 이전 프레임 버퍼인 포인터 정보 Ptr_#3을 갖는 프레임 버퍼에 저장된 프레임 HD해상도의 #4가 스케일링부(160)에 제공된 후부터, 제2 동기화 신호에 기초하여 인식된 포인터 정보 Ptr_#2를 갖는 프레임 버퍼에 저장된 SD해상도의 #0이 스케일링부(160)에 제공되기 전까지의 시점에, 스케일링부(160)의 스케일링 팩터를 SD 해상도에 대응되는 스케일링 팩터로 변경할 수 있다.
그리고, 포인터 정보가 Ptr_#2인 프레임 버퍼에 저장된 SD해상도의 #0 프레임은 제2 동기화 신호(Scaling Sync)에 따라 스케일링부(160)에 제공될 수 있다. 이 경우 스케일링부(160)는 SD해상도에 대응되는 스케일링 팩터를 이용하여 SD해상도의 #0 프레임을 스케일링할 수 있다. 이에 따라 스케일링부(130)는 스케일링된 Frame #5을 출력할 수 있다.
그리고 ⑦과 같이 제1 동기화 신호(Decoding Vsync)에 따라 디코딩 버퍼(121)에 저장된 SD해상도의 #4 프레임이 프레임 버퍼(160)에 제공될 수 있다. 이 경우 SD해상도의 #4 프레임은 포인터 정보가 Ptr_#2인, 프레임 버퍼에 저장될 수 있다. 또한 포인터 정보가 Ptr_#3, 0, 1인 프레임 버퍼에는 이전에 디코딩 버퍼(121)에서 프레임 순으로 순차적으로 제공된 프레임이 저장되어 있을 수 있다. 그리고 포인터 정보가 Ptr_#1인 프레임 버퍼에 저장된 SD해상도의 #1 프레임은 제2 동기화 신호(Scaling Sync)에 따라 스케일링부(160)에 제공될 수 있다. 이 경우 스케일링부(160)는 SD해상도에 대응되는 스케일링 팩터를 이용하여 SD해상도의 #1 프레임을 스케일링할 수 있다. 이에 따라 스케일링부(130)는 스케일링된 Frame #1를 출력할 수 있다.
도 6은 본 발명의 일 실시 예에 따른 영상 처리 방법을 설명하기 위한 도면이다. 스트리밍 영상 데이터를 수신한다(S701). 여기서 스트리밍 영상 데이터는, 네트워크 속도에 따라 해상도가 변경되는 스트리밍 영상 데이터일 수 있다.
그리고 수신된 스트리밍 영상 데이터를 디코딩하여 연속적인 복수의 프레임으로 생성한다(S702). 여기서 복수의 프레임으로 생성하는 단계는, 수신된 스트리밍 영상 데이터를 디코딩하여 복수의 프레임을 생성하고, 생성된 복수의 프레임을 복수의 디코딩 버퍼에 저장하는 단계 및 저장된 복수의 프레임을 프레임 순서에 따라 순차적으로 복수의 프레임 버퍼에 저장하는 단계를 포함할 수 있다.
또한 복수의 프레임으로 생성하는 단계는, 복수의 디코딩 버퍼에 저장된 복수의 프레임에 대해서 화질 개선을 위한 이미지 처리를 수행하는 단계를 더 포함할 수 있고, 이 경우 복수의 프레임 버퍼에 저장하는 단계는, 이미지 처리된 복수의 프레임 각각을 순차적으로 복수의 프레임 버퍼에 저장할 수 있다.
그리고, 생성된 복수의 프레임 중 해상도가 변화된 프레임을 검출한다(S703). 여기서 검출하는 단계는 수신된 스트리밍 영상 데이터를 디코딩하는 과정에서, 복수의 프레임의 해상도를 감지하고, 해상도가 변화되는 프레임을 검출할 수 있다.
그리고, 기설정된 스케일링 팩터를 이용하여 상기 생성된 연속적인 복수의 프레임 각각을 스케일링을 수행하고, 만약 해상도가 변화된 프레임이 스케일링되기 직전인 경우 기 설정된 스케일링 팩터를 해상도가 변화된 프레임의 해상도에 대응되는 스케일링 팩터로 변경하여 스케일링을 수행한다(S704). 여기서 스케일링하는 단계는, 해상도가 변화되는 프레임이 저장되는 프레임 버퍼의 정보를 이용하여, 해상도가 변화되는 프레임이 저장된 프레임 버퍼에 대한 스케일링을 수행하기 직전에 검출된 프레임의 해상도에 대응되는 스케일링 팩터로 변경할 수 있다. 또한 여기서 프레임 버퍼의 정보는 프레임 버퍼의 포인터 정보일 수 있다.
도 7은 본 발명의 일 실시 예에 따른 영상 처리 방법의 효과를 나타내는 도면이다. 즉 도 7과 같이 본 발명의 일 실시 예에 따른 영상 처리 방법에 따르면, 수신된 스트리밍 영상 데이터의 해상도 변화시, 디스플레이 화면에 Mute 구간이 없게 되어, 끊김없이 자연스러운 영상을 디스플레이할 수 있다.
또한, 이상에서는 본 발명의 바람직한 실시 예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시 예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 이해되어져서는 안 될 것이다.
100 : 영상 처리 장치 110 : 통신 인터페이스부
120 : 디코딩부 121 : 디코딩 버퍼
130 : 스케일링부 140 : 제어부
150 : 이미지 처리부 160 : 프레임 버퍼
170 : 디스플레이부

Claims (16)

  1. 영상 처리 장치의 영상 처리 방법에 있어서,
    스트리밍 영상 데이터를 수신하는 단계;
    상기 수신된 스트리밍 영상 데이터를 디코딩하여 연속적인 복수의 프레임으로 생성하는 단계;
    상기 생성된 복수의 프레임 중 해상도가 변화된 프레임을 검출하는 단계; 및
    기설정된 스케일링 팩터를 이용하여 상기 생성된 연속적인 복수의 프레임 각각을 스케일링하는 단계;를 포함하고,
    상기 스케일링하는 단계는, 상기 검출된 프레임이 스케일링되기 직전에 상기 기설정된 스케일링 팩터를 상기 검출된 프레임의 해상도에 대응되는 스케일링 팩터로 변경하는 영상 처리 방법.
  2. 제1항에 있어서,
    상기 복수의 프레임으로 생성하는 단계는,
    상기 수신된 스트리밍 영상 데이터를 디코딩하여 복수의 프레임을 생성하고, 상기 생성된 복수의 프레임을 복수의 디코딩 버퍼에 저장하는 단계; 및
    상기 저장된 복수의 프레임을 프레임 순서에 따라 순차적으로 복수의 프레임 버퍼에 저장하는 단계;를 포함하는 영상 처리 방법.
  3. 제2항에 있어서,
    상기 복수의 프레임으로 생성하는 단계는,
    상기 복수의 디코딩 버퍼에 저장된 복수의 프레임에 대해서 화질 개선을 위한 이미지 처리를 수행하는 단계;를 더 포함하고,
    상기 복수의 프레임 버퍼에 저장하는 단계는,
    상기 이미지 처리된 복수의 프레임 각각을 순차적으로 상기 복수의 프레임 버퍼에 저장하는 것을 특징으로 하는 영상 처리 방법.
  4. 제2항에 있어서,
    상기 해상도가 변화된 프레임을 검출하는 단계는,
    상기 수신된 스트리밍 영상 데이터를 디코딩하는 과정에서, 상기 복수의 프레임의 해상도를 감지하고, 해상도가 변화되는 프레임을 검출하는 것을 특징으로 하는 영상 처리 방법.
  5. 제4항에 있어서,
    상기 스케일링하는 단계는,
    상기 해상도가 변화되는 프레임이 저장되는 프레임 버퍼의 정보를 이용하여, 상기 해상도가 변화되는 프레임이 저장된 프레임 버퍼에 대한 스케일링을 수행하기 직전에 상기 검출된 프레임의 해상도에 대응되는 스케일링 팩터로 변경하는 것을 특징으로 하는 영상 처리 방법.
  6. 제5항에 있어서,
    상기 프레임 버퍼의 정보는 프레임 버퍼의 포인터 정보인 것을 특징으로 하는 영상 처리 방법.
  7. 제1항에 있어서,
    상기 스트리밍 영상 데이터는,
    네트워크 속도에 따라 해상도가 변화되는 스트리밍 영상 데이터인 것을 특징으로 하는 영상 처리 방법.
  8. 제1항에 있어서,
    상기 스케일링된 복수의 프레임을 연속적으로 표시하는 단계;를 더 포함하는 것을 특징으로 하는 영상 처리 방법.
  9. 영상 처리 장치에 있어서,
    스트리밍 영상 데이터를 수신하는 통신 인터페이스부;
    상기 수신된 스트리밍 영상 데이터를 디코딩하여 연속적인 복수의 프레임으로 생성하고, 상기 생성된 복수의 프레임 중 해상도가 변화된 프레임을 검출하는 디코딩부;
    기설정된 스케일링 팩터를 이용하여 상기 생성된 연속적인 복수의 프레임 각각을 스케일링하는 스케일링부; 및
    상기 검출된 프레임이 스케일링되기 직전에 상기 기설정된 스케일링 팩터를 상기 검출된 프레임의 해상도에 대응되는 스케일링 팩터로 변경하는 제어부;를 포함하는 영상 처리 장치.
  10. 제9항에 있어서,
    상기 디코딩부에서 생성된 복수의 프레임을 저장하는 복수의 프레임 버퍼;를 더 포함하고,
    상기 디코딩부는,
    상기 수신된 스트리밍 영상 데이터를 디코딩하여 연속적인 복수의 프레임으로 생성하고, 상기 생성된 복수의 프레임을 저장하는 복수의 디코딩 버퍼를 포함하며, 상기 복수의 디코딩 버퍼에 저장된 복수의 프레임의 순서에 따라 상기 복수의 프레임 버퍼에 저장하는 것을 특징으로 하는 영상 처리 장치.
  11. 제10항에 있어서,
    상기 복수의 디코딩 버퍼에 저장된 복수의 프레임에 대해서 화질 개선을 위한 이미지 처리를 수행하는 이미지 처리부;를 더 포함하고,
    상기 이미지 처리부는,
    상기 이미지 처리된 복수의 프레임 각각을 순차적으로 상기 복수의 프레임 버퍼에 저장하는 것을 특징으로 하는 영상 처리 장치.
  12. 제10항에 있어서,
    상기 디코딩부는,
    상기 생성된 복수의 프레임 각각의 해상도를 감지하여, 해상도가 변화되는 프레임을 검출하는 것을 특징으로 하는 영상 처리 장치.
  13. 제12항에 있어서,
    상기 제어부는,
    상기 해상도가 변환되는 프레임이 저장되는 프레임 버퍼의 정보를 이용하여, 상기 해상도가 변환되는 프레임이 저장된 프레임 버퍼에 대한 스케일링을 수행하기 직전에 상기 검출된 프레임의 해상도에 대응되는 스케일링 팩터로 변경하는 것을 특징으로 하는 영상 처리 장치.
  14. 제13항에 있어서,
    상기 프레임 버퍼의 정보는 프레임 버퍼의 포인터 정보인 것을 특징으로 하는 영상 처리 장치.
  15. 제9항에 있어서,
    상기 스트리밍 영상 데이터는,
    네트워크 속도에 따라 해상도가 변화되는 스트리밍 영상 데이터인 것을 특징으로 하는 영상 처리 장치.
  16. 제9항에 있어서,
    상기 스케일링된 복수의 프레임을 연속적으로 표시하는 디스플레이부;를 더 포함하는 것을 특징으로 하는 영상 처리 장치.
KR1020120084056A 2012-07-31 2012-07-31 영상 처리 장치 및 영상 처리 방법 KR20140016760A (ko)

Priority Applications (4)

Application Number Priority Date Filing Date Title
KR1020120084056A KR20140016760A (ko) 2012-07-31 2012-07-31 영상 처리 장치 및 영상 처리 방법
US13/932,496 US20140036154A1 (en) 2012-07-31 2013-07-01 Image processing apparatus and image processing method thereof
EP13178290.6A EP2693767A3 (en) 2012-07-31 2013-07-26 Image processing apparatus and image processing method thereof
CN201310328711.7A CN103581746A (zh) 2012-07-31 2013-07-31 图像处理装置及其图像处理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020120084056A KR20140016760A (ko) 2012-07-31 2012-07-31 영상 처리 장치 및 영상 처리 방법

Publications (1)

Publication Number Publication Date
KR20140016760A true KR20140016760A (ko) 2014-02-10

Family

ID=48875591

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020120084056A KR20140016760A (ko) 2012-07-31 2012-07-31 영상 처리 장치 및 영상 처리 방법

Country Status (4)

Country Link
US (1) US20140036154A1 (ko)
EP (1) EP2693767A3 (ko)
KR (1) KR20140016760A (ko)
CN (1) CN103581746A (ko)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104219529B (zh) * 2014-09-02 2018-09-25 广东威创视讯科技股份有限公司 图像缩放方法、***及装置
EP3337174B1 (en) * 2016-12-14 2021-04-07 Alcatel-Lucent España Method and device for transmission of content
KR20180076182A (ko) * 2016-12-27 2018-07-05 주식회사 실리콘웍스 소스 드라이버의 센싱 회로 및 이를 이용한 디스플레이 장치
WO2021184181A1 (zh) * 2020-03-17 2021-09-23 华为技术有限公司 安全输出方法及电子设备

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7215708B2 (en) * 2001-05-22 2007-05-08 Koninklijke Philips Electronics N.V. Resolution downscaling of video images
US20070058713A1 (en) * 2005-09-14 2007-03-15 Microsoft Corporation Arbitrary resolution change downsizing decoder
JP4350742B2 (ja) * 2006-12-19 2009-10-21 キヤノン株式会社 映像処理装置及び映像処理装置の制御方法
CN101241416B (zh) * 2008-02-21 2010-06-16 北大方正集团有限公司 一种适应屏幕分辨率的电子读物处理方法及***
KR20100021168A (ko) * 2008-08-14 2010-02-24 삼성전자주식회사 이미지 디코딩 장치 및 방법과 이를 이용한 이미지 데이터 처리 장치 및 방법
TWI468020B (zh) * 2009-02-19 2015-01-01 Sony Corp Image processing apparatus and method
JP5187790B2 (ja) * 2009-03-30 2013-04-24 Necディスプレイソリューションズ株式会社 映像表示装置

Also Published As

Publication number Publication date
EP2693767A2 (en) 2014-02-05
EP2693767A3 (en) 2014-09-24
CN103581746A (zh) 2014-02-12
US20140036154A1 (en) 2014-02-06

Similar Documents

Publication Publication Date Title
TWI517665B (zh) 三維視訊與二維視訊間之切換
US20180176537A1 (en) Method and device for overlaying 3d graphics over 3d video
EP3089464B1 (en) Source device and control method thereof, and sink device and image quality improvement processing method thereof
US10631025B2 (en) Encoding device and method, reproduction device and method, and program
CN108111910A (zh) 一种调整视频播放清晰度的方法和***
KR20130076650A (ko) 영상처리장치 및 그 제어 방법
TWI587683B (zh) 交錯式三維視訊
KR20140016760A (ko) 영상 처리 장치 및 영상 처리 방법
WO2012001905A1 (ja) 再生装置、音声選択方法および音声選択プログラム
US20140282250A1 (en) Menu interface with scrollable arrangements of selectable elements
US20150189365A1 (en) Method and apparatus for generating a recording index
US8982128B2 (en) Method of providing image and display apparatus applying the same
JP2011049895A (ja) メディア品質変換装置、メディア品質変換方法およびメディア品質変換プログラム
KR102618617B1 (ko) 콘텐츠 출력 장치 및 콘텐츠 출력 장치의 지연 보상 방법
JP6279422B2 (ja) 表示処理装置、テレビジョン受像機、情報生成装置、放送システム、表示処理方法、プログラム、および記録媒体
US9930403B2 (en) Data stream processing apparatus
JP6643669B2 (ja) 表示装置および表示方法
GB2549584A (en) Multi-audio annotation
JP2010219735A (ja) 放送受信装置
US8401360B2 (en) Apparatus and associated methodology for generating a picture-in-picture display from two video screens
JP5349638B2 (ja) 信号処理装置及び信号処理方法
JP2016052058A (ja) 映像装置および映像処理方法
JP2019110538A (ja) 輝度変換方法、輝度変換装置および映像表示装置
KR20130008244A (ko) 영상처리장치 및 그 제어방법
JP2017220689A (ja) 送信方法および再生装置

Legal Events

Date Code Title Description
WITN Application deemed withdrawn, e.g. because no request for examination was filed or no examination fee was paid