KR101955934B1 - Image processing device of media facade system and image processing method - Google Patents

Image processing device of media facade system and image processing method Download PDF

Info

Publication number
KR101955934B1
KR101955934B1 KR1020170117586A KR20170117586A KR101955934B1 KR 101955934 B1 KR101955934 B1 KR 101955934B1 KR 1020170117586 A KR1020170117586 A KR 1020170117586A KR 20170117586 A KR20170117586 A KR 20170117586A KR 101955934 B1 KR101955934 B1 KR 101955934B1
Authority
KR
South Korea
Prior art keywords
rendering
image
data
image data
filter
Prior art date
Application number
KR1020170117586A
Other languages
Korean (ko)
Inventor
박영일
Original Assignee
유에이치에스(주)
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 유에이치에스(주) filed Critical 유에이치에스(주)
Priority to KR1020170117586A priority Critical patent/KR101955934B1/en
Application granted granted Critical
Publication of KR101955934B1 publication Critical patent/KR101955934B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/64Circuits for processing colour signals
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F21LIGHTING
    • F21VFUNCTIONAL FEATURES OR DETAILS OF LIGHTING DEVICES OR SYSTEMS THEREOF; STRUCTURAL COMBINATIONS OF LIGHTING DEVICES WITH OTHER ARTICLES, NOT OTHERWISE PROVIDED FOR
    • F21V33/00Structural combinations of lighting devices with other articles, not otherwise provided for
    • F21V33/006General building constructions or finishing work for buildings, e.g. roofs, gutters, stairs or floors; Garden equipment; Sunshades or parasols
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/50Lighting effects
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09FDISPLAYING; ADVERTISING; SIGNS; LABELS OR NAME-PLATES; SEALS
    • G09F9/00Indicating arrangements for variable information in which the information is built-up on a support by selection or combination of individual elements
    • G09F9/30Indicating arrangements for variable information in which the information is built-up on a support by selection or combination of individual elements in which the desired character or characters are formed by combining individual elements
    • G09F9/33Indicating arrangements for variable information in which the information is built-up on a support by selection or combination of individual elements in which the desired character or characters are formed by combining individual elements being semiconductor devices, e.g. diodes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3179Video signal processing therefor

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Graphics (AREA)
  • Architecture (AREA)
  • Civil Engineering (AREA)
  • Structural Engineering (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Processing (AREA)

Abstract

Provided is an image processing device which can reduce light pollution generated by a displayed image. To this end, the image processing device of a media facade system for displaying an image by using a plurality of point light sources arranged on an outer wall of a structure comprises: an image analyzing unit for analyzing image data to calculate at least one among a scaling ratio, a type, and a color distribution of the image data; and a rendering unit for selecting one rendering filter among a plurality of rendering filters based on a calculation result of the image analyzing unit and rendering the image data based on the selected rendering filter to generate rendering data.

Description

미디어 파사드 시스템의 영상 처리 장치 및 영상 처리 방법{IMAGE PROCESSING DEVICE OF MEDIA FACADE SYSTEM AND IMAGE PROCESSING METHOD}TECHNICAL FIELD [0001] The present invention relates to an image processing apparatus and an image processing method of a media facade system,

본 발명은 영상 처리 기술에 관한 것으로, 보다 상세하게는 일반적인 영상 데이터를 미디어 파사드 시스템에서 표시하기에 적합한 영상 데이터로 렌더링 또는 변환하는 미디어 파사드 시스템의 영상 처리 장치 및 영상 처리 방법에 관한 것이다.BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image processing technique, and more particularly, to an image processing apparatus and an image processing method of a media facade system that render or convert general image data into image data suitable for display in a media facade system.

미디어 파사드(Media facade)는 건축물의 외면의 가장 중심을 가리키는 파사드와 미디어의 합성어로, 건물 외벽 등에 유기 발광 다이오드(LED) 조명을 설치해 미디어 기능을 구현하는 것을 말하며, 미디어 파사드 시스템은 상기 기능을 구현하는 시스템이다. 미디어 파사드는 도 1에 도시된 바와 같이, 압구정동 갤러리아 백화점 등 다양한 건물에 이용되고 있다.Media facade is a compound word of facade and media that point to the center of the outer surface of a building. It means implementing the media function by installing an organic light emitting diode (LED) light on the outer wall of the building. The media facade system implements the above function . As shown in Fig. 1, the media facade is used in various buildings such as Galleria department store in Apgujung-dong.

한편, 미디어 파사드는, 건축물의 시각적 아름다움뿐만 아니라 정보를 전달하는 매개물(예를 들어, 광고용)로서, 다양한 분야에서 활발하게 이용되고 있으나, 미디어 파사드를 통해 표시되는 영상의 밝기 등에 의해 발생되는 광공해가 환경 문제의 한 종류로서 이슈되고 있다.On the other hand, the media facade is used not only as a visual beauty of a building but also as a medium (for example, advertisement) for transmitting information, and is actively used in various fields. However, Is being addressed as a kind of environmental problem.

한국공개특허 제2015-0004481호(2015.01.13.공개)Korean Laid-Open Patent No. 2015-0004481 (published on January 13, 2015) 한국공개특허 제2015-0121864호(2015.10.30.공개)Korean Laid-Open Patent No. 2015-0121864 (Published Oct. 30, 2015)

본 발명은 표시되는 영상으로 인하여 발생되는 광 공해를 저감시킬 수 있는 미디어 파사드 시스템의 영상 처리 장치를 제공하는 것이다.The present invention provides an image processing apparatus of a media facade system capable of reducing light pollution caused by a displayed image.

본 발명은 시스템 비용을 감소시키고, 효율성을 향상시킬 수 있는 미디어 파사드 시스템의 영상 처리 방법을 제공하는 것이다.The present invention provides an image processing method of a media facade system capable of reducing system cost and improving efficiency.

상기 일 목적을 달성하기 위하여 본 발명의 실시예들에 따른 미디어 파사드 시스템의 영상 처리 장치는, 구조물의 외벽에 배치되는 복수의 LED 점광원들을 이용하여 영상을 표시하는 미디어 파사드 시스템에 포함될 수 있다. 상기 영상 처리 장치는, 영상 데이터를 분석하여 상기 영상 데이터의 스케일링 비율, 유형, 색분포도 중 적어도 하나를 산출하는 영상 분석부; 및 상기 영상 분석부의 산출 결과에 기초하여 복수의 렌더링 필터들 중 하나의 렌더링 필터를 선택하고, 상기 선택된 렌더링 필터에 기초하여 상기 영상 데이터를 렌더링 하여 렌더링 데이터를 생성하는 렌더링부를 포함 할 수 있다.In order to achieve the above object, an image processing apparatus of a media facade system according to embodiments of the present invention may be included in a media facade system that displays an image using a plurality of LED point light sources disposed on an outer wall of a structure. Wherein the image processing apparatus comprises: an image analyzing unit for analyzing image data and calculating at least one of a scaling ratio, a type, and a color distribution of the image data; And a rendering unit that selects one of the plurality of rendering filters based on the calculation result of the image analysis unit and generates rendering data by rendering the image data based on the selected rendering filter.

일 실시예에 의하면, 상기 영상 처리 장치는, 상기 색분포도에 기초하여 상기 렌더링 데이터를 보정하여 색보정 데이터를 생성하는 계조 보정부를 더 포함 할 수 있다. 여기서, 상기 LED 점광원들은 상기 색보정 데이터에 기초하여 영상을 표시 할 수 있다.According to an embodiment, the image processing apparatus may further include a tone correcting unit for correcting the rendering data based on the color distribution diagram to generate color correction data. Here, the LED point light sources may display an image based on the color correction data.

일 실시예에 의하면, 상기 영상 분석부는, 상기 영상 데이터에 포함된 프레임 데이터의 시간에 따른 변화에 기초하여 상기 영상이 정지영상 또는 동영상인지 여부를 결정하고, 상기 영상이 동영상인 경우, 상기 영상 데이터에 포함된 계조값들에 기초하여 상기 색분포도를 산출 할 수 있다.According to an embodiment, the image analyzing unit may determine whether the image is a still image or a moving image based on a change with time of frame data included in the image data, and when the image is a moving image, The color distribution diagram can be calculated based on the tone values included in the tone values.

일 실시예에 의하면, 상기 렌더링부는, 상기 영상이 정지영상이거나 상기 색분포도가 기준 범위 이내인 경우, 상기 렌더링 필터들 중 제1 렌더링 필터를 선택하고, 상기 영상이 동영상이고, 상기 색분포도가 기준 범위를 벗어나는 경우, 상기 렌더링 필터들 중 제2 렌더링 필터를 선택 할 수 있다. 여기서, 상기 제1 렌더링 필터의 크기는 상기 제2 렌더링 필터보다 클 수 있다.According to an embodiment, the rendering unit may select a first rendering filter among the rendering filters when the image is a still image or the color distribution is within a reference range, the image is moving image, If it is out of the range, the second rendering filter of the rendering filters can be selected. Here, the size of the first rendering filter may be larger than that of the second rendering filter.

일 실시예에 의하면, 상기 제1 렌더링 필터는 상기 영상 데이터를 기준으로 3행*3열 픽셀 사이즈를 가지고, 상기 제2 렌더링 필터는 상기 영상 데이터를 기준으로 1행*3열 픽셀 사이즈를 가질 수 있다.According to an embodiment, the first rendering filter has a size of 3 rows * 3 columns based on the image data, and the second rendering filter has a size of 1 row * 3 columns based on the image data have.

일 실시예에 의하면, 상기 렌더링부는, 상기 영상 데이터에 포함된 라인 데이터들 중에서 상호 인접하는 3개의 라인 데이터들을 저장하는 제1 내지 제3 라인 메모리들; 및 상기 3개의 라인 데이터들 및 상기 제1 렌더링 필터에 기초하여 제1 렌더링 라인 데이터를 생성하는 제1 산출기를 포함 할 수 있다. 여기서, 상기 제1 렌더링 라인 데이터는 상기 렌더링 데이터에 포함 될 수 있다.According to an embodiment of the present invention, the rendering unit may include first to third line memories for storing three adjacent line data among line data included in the image data; And a first calculator for generating the first rendering line data based on the three line data and the first rendering filter. Here, the first rendering line data may be included in the rendering data.

일 실시예에 의하면, 상기 렌더링부는, 상기 영상 데이터에 포함된 라인 데이터들을 순차적으로 저장하는 제4 라인 메모리; 상기 제4 라인 메모리에 저장된 라인 데이터와 상기 제2 렌더링 필터를 이용하여 제2 렌더링 라인 데이터를 생성하는 제2 산출기; 상기 영상이 동영상인 경우, 상기 제2 렌더링 라인 데이터를 상기 계조 보정부에 제공하는 것을 특징으로 하는 출력 결정부; 상기 영상이 정지 영상인 경우, 상기 제2 렌더링 라인 데이터를 순차적으로 저장하는 제1 내지 제3 서브 라인 메모리들; 및 상기 제1 내지 제3 서브 라인 메모리들에 저장된 3개의 서브 라인 데이터들 및 제3 렌더링 필터에 기초하여 제3 렌더링 라인 데이터를 생성하여 상기 계조 보정부에 제공하는 제3 산출기를 포함 할 수 있다. 여기서, 상기 서브 라인 메모리들 각각의 제2 용량은 상기 제4 라인 메모리의 제1 용량의 1/3이고, 상기 제3 렌더링 필터는 3행*1열 픽셀 사이즈를 가질 수 있다.According to an embodiment, the rendering unit may include a fourth line memory for sequentially storing line data included in the image data; A second calculator for generating line data stored in the fourth line memory and second rendering line data using the second rendering filter; And provides the second rendering line data to the tone correction unit when the image is a moving image. First to third sub-line memories for sequentially storing the second rendering line data when the image is a still image; And a third calculator for generating third render line data based on the third subline data and the third render filter stored in the first through third sub line memories and providing the third render line data to the tone corrector . Here, the second capacity of each of the sub-line memories may be 1/3 of the first capacity of the fourth line memory, and the third rendering filter may have a size of 3 rows * 1 column pixels.

일 실시예에 의하면, 상기 계조 보정부는, 상기 색분포도에 기초하여 최소 내지 최대 계조값들을 구분하는 계조 구간들의 수를 결정하고, 상기 렌더링 데이터에 포함된 계조값들을 상기 계조 구간들 중에서 대응되는 계조 구간의 대표 계조값으로 치환 할 수 있다. 여기서, 상기 색보정 데이터는 상기 대표 계조값을 포함 할 수 있다.According to an embodiment, the tone corrector may determine the number of gradation intervals that divide the minimum to maximum gradation values based on the color distribution diagram, and may further adjust the gradation values included in the rendering data to correspond to the corresponding gradation Can be replaced with the representative tone value of the section. Here, the color correction data may include the representative tone value.

본 발명의 일 목적을 달성하기 위하여 본 발명의 실시예들에 따른 미디어 파사드 시스템의 영상 처리 방법은, 복수의 LED 점광원들을 이용하여 영상을 표시하는 미디어 파사드 시스템에서 수행될 수 있다. 상기 영상 처리 방법은, 외부로부터 제공되는 영상 데이터의 스케일링 비율, 유형 및 색분포도를 산출하는 단계; 상기 스케일링 비율 및 상기 유형에 기초하여 복수의 렌더링 필터들 중 하나의 렌더링 필터를 선택하는 단계; 상기 선택된 렌더링 필터에 기초하여 상기 영상 데이터를 렌더링 하여 렌더링 데이터를 생성하는 단계; 및 상기 유형 및 상기 색분포도에 기초하여 상기 렌더링 데이터를 보정하여 색보정 데이터를 생성하는 단계를 포함 할 수 있다.In order to accomplish one object of the present invention, an image processing method of a media facade system according to embodiments of the present invention can be performed in a media facade system that displays an image using a plurality of LED point light sources. The image processing method includes: calculating a scaling ratio, a type, and a color distribution diagram of image data provided from the outside; Selecting one of the plurality of rendering filters based on the scaling ratio and the type; Rendering the image data based on the selected rendering filter to generate rendering data; And generating color correction data by correcting the rendering data based on the type and the color distribution diagram.

본 발명의 실시예들에 따르면, 미디어 파사드 시스템의 영상 처리 장치는, 영상 데이터의 스케일링 비율, 유형, 색분포도 중 적어도 하나를 산출하고, 산출 결과에 기초하여 렌더링 필터들 중에서 하나의 렌더링 필터를 선택하여 영상 데이터를 렌더링하여 렌더링 데이터를 생성함으로써, 렌더링 작업에 대한 불필요한 부하를 감소시킬 수 있다. 즉, 미디어 파사드 시스템의 효율성을 향상시킬 수 있다.According to embodiments of the present invention, an image processing apparatus of a media facade system calculates at least one of a scaling ratio, a type, and a color distribution diagram of image data, and selects one of the rendering filters based on the calculation result So that unnecessary load on the rendering operation can be reduced by rendering the image data and generating the rendering data. That is, the efficiency of the media facade system can be improved.

또한, 미디어 파사드 시스템의 영상 처리 장치는, 영상의 색분포도에 기초하여 계조 변환을 수행할 계조 구간(예를 들어, 계조 구간의 수 또는 계조 구간의 범위)를 결정하고, 입력 계조값들을 상기 계조 구간에 포함된 출력 계조값들로 변환하여 색보정 데이터를 생성함으로써, 색보정 데이터의 색변화 범위를 상대적으로 감소시키고, 최종적으로 표시되는 영상의 색변화로 인한 광 공해가 저감시킬 수 있다.Further, the image processing apparatus of the media facade system determines a gradation period (for example, the number of gradation periods or a range of gradation intervals) to perform gradation conversion based on the color distribution diagram of the image, The color change range of the color correction data is relatively reduced and the light pollution due to the color change of the finally displayed image can be reduced.

미디어 파사드 시스템의 영상 처리 방법은 영상 데이터의 스케일링 비율 및 영상 데이터의 유형(예를 들어, 정지 영상, 동영상 데이터)에 기초하여 렌더링 필터를 선택하고, 이에 기초하여 렌더링을 수행함으로써, 미디어 파사드의 효율성을 향상시킬 수 있다.The image processing method of the media facade system selects a rendering filter based on the scaling ratio of the image data and the type of the image data (for example, still image, moving image data), and performs rendering based thereon, Can be improved.

도 1은 미디어 파사드 시스템을 통해 표시되는 영상의 일 예를 나타내는 도면이다.
도 2는 본 발명의 실시예들에 따른 미디어 파사드 시스템을 나타내는 도면이다.
도 3은 도 2의 미디어 파사드 시스템에 포함된 영상 처리 모듈의 일 예를 나타내는 도면이다.
도 4a는 도 3의 영상 처리 모듈에서 영상의 유형을 판단하는 과정을 설명하는 도면이다.
도 4b는 도 3의 영상 처리 모듈에서 영상의 색분포도를 산출하는 과정을 설명하는 도면이다.
도 5a는 도 3의 영상 처리 모듈에서 영상의 스케일링 비율을 결정하는 과정을 설명하는 도면이다.
도 5b는 도 3의 영상 처리 모듈에서 사용되는 렌더링 필터들의 예를 나타내는 도면이다.
도 6a 및 도 6b는 도 3의 영상 처리 모듈에서 렌더링 데이터의 색분포를 보정하는 과정을 설명하는 도면이다.
도 7a 및 도 7b는 도 3의 영상 처리 모듈에 포함된 렌더링부의 일 예를 나타내는 도면이다.
도 8은 도 2의 미디어 파사드 시스템에서 수행하는 미디어 파사드 시스템의 영상 처리 방법을 나타내는 도면이다.
1 is a view showing an example of an image displayed through a media facade system.
2 is a diagram illustrating a media facade system according to embodiments of the present invention.
3 is a diagram illustrating an example of an image processing module included in the media facade system of FIG.
4A is a diagram for explaining a process of determining the type of an image in the image processing module of FIG.
FIG. 4B is a diagram illustrating a process of calculating a color distribution diagram of an image in the image processing module of FIG. 3. FIG.
FIG. 5A is a diagram for explaining a process of determining a scaling ratio of an image in the image processing module of FIG. 3. FIG.
5B is a diagram illustrating an example of rendering filters used in the image processing module of FIG.
6A and 6B are views for explaining a process of correcting the color distribution of rendering data in the image processing module of FIG.
7A and 7B are views showing an example of a rendering unit included in the image processing module of FIG.
FIG. 8 is a view illustrating a video processing method of a media facade system performed in the media facade system of FIG. 2. FIG.

이하, 첨부한 도면들을 참조하여, 본 발명의 바람직한 실시예를 보다 상세하게 설명하고자 한다. 도면상의 동일한 구성요소에 대해서는 동일한 참조부호를 사용하고 동일한 구성요소에 대해서 중복된 설명은 생략한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. The same reference numerals are used for the same constituent elements in the drawings and redundant explanations for the same constituent elements are omitted.

도 2는 본 발명의 실시예들에 따른 미디어 파사드 시스템을 나타내는 도면이다.2 is a diagram illustrating a media facade system according to embodiments of the present invention.

도 2를 참조하면, 미디어 파사드 시스템(100)은 영상 제어 장치(210) 및 LED 광원 어레이들(220)(또는, 표시 모듈, 표시 장치)을 포함할 수 있다. 2, the media facade system 100 may include an image control device 210 and LED light source arrays 220 (or display modules, display devices).

먼저, LED 광원 어레이들(220)은 구조물(예를 들어, 건물)의 외벽에 배치되고, 복수의 LED 점광원들(221)을 포함할 수 있다.First, the LED light source arrays 220 are disposed on an outer wall of a structure (e.g., a building) and may include a plurality of LED point light sources 221.

도 2에 도시된 바와 같이, 복수의 LED 점광원들(221)이 제1 방향(예를 들어, 수평 방향)으로 순차적으로 배열되어 하나의 LED 광원 어레이(array)(또는, 스트링, 스트립스(strips))을 구성하며, 복수의 LED 광원 어레이들(220)이 제2 방향(예를 들어, 제1 방향에 수직하는 제2 방향으로, 수직 방향)으로 특정 간격을 가지고 배열되어 하나의 표시 모듈을 구성할 수 있다. 여기서, 하나의 LED 광원 어레이는 하나의 데이터 라인(또는, 하나의 LED 광원이 RGB 서브 픽셀들을 포함하는 경우, RGB 서브 픽셀들에 대응하는 3개의 데이터 라인들)을 통해 데이터 신호(또는, 데이터 전압, 데이터 전류)를 수신하며, 하나의 LED 광원 어레이에 포함된 LED 점광원들은 이들을 구동하는 구동 전압(예를 들어, 최대 전압, 최소 전압, 접지 전압, 공통 전압 등)을 공용할 수 있다. 2, a plurality of LED point light sources 221 are sequentially arranged in a first direction (e.g., a horizontal direction) to form one LED light source array (or a string, strips and a plurality of LED light source arrays 220 are arranged at a specific interval in a second direction (e.g., a vertical direction in a second direction perpendicular to the first direction) . ≪ / RTI > Here, one LED light source array is connected to one data line (or three data lines corresponding to RGB subpixels when one LED light source includes RGB subpixels) And data current), and the LED point light sources included in one LED light source array can share a driving voltage (e.g., maximum voltage, minimum voltage, ground voltage, common voltage, etc.) driving them.

한편, LED 광원 어레이(또는, LED 점광원)는 본 발명의 핵심적인 특징이 아니며, 미디어 파사드 시스템(100)은 일반적인 LED 광원 어레이(또느, LED 점광원)를 이용할 수 있으므로, LED 광원 어레이들(220)에 대한 구체적인 설명은 생략하기로 한다.Since the media facade system 100 can use a general LED light source array (or an LED point light source), the LED light source arrays (or LED point light sources) are not essential features of the present invention. 220 will not be described in detail.

영상 제어 장치(210)는 영상 데이터(예를 들어, 스마트 폰과 같은 외부 장치로부터 제공되는 영상 데이터)를 수신하고, 영상 데이터에 대한 분석, 렌더링 및 색보정을 수행하고, 이를 통해 생성된 출력 영상 데이터를 LED 광원 어레이들(220)에 분배 또는 제공할 수 있다.The image control device 210 receives image data (for example, image data provided from an external device such as a smart phone), performs analysis, rendering, and color correction on the image data, And distribute or provide data to the LED light source arrays 220.

도 2에 도시된 바와 같이, 영상 제어 장치(210)는 수신 모듈(211), 영상 처리 모듈(212) 및 분배 모듈(213)을 포함할 수 있다.2, the image control device 210 may include a receiving module 211, an image processing module 212, and a distribution module 213. [

수신 모듈(211)은 외부(예를 들어, 미디어 파사드 시스템(100)과 유무선 통신 기술을 통해 연결된 외부 장치로서, 예를 들어, 스마트 폰, 영상 제공 서버 등)으로부터 영상 데이터(또는, 입력 영상 데이터)를 수신할 수 있다.The receiving module 211 receives image data (or input image data) from an external device (for example, a smart phone, a video providing server, or the like as an external device connected to the media facade system 100 via a wired / Can be received.

영상 처리 모듈(212)은 영상 데이터에 대한 분석, 렌더링 및 색보정을 수행하여 출력 영상 데이터를 생성할 수 있다. 일반적인 영상 처리 모듈은 영상 데이터에 대한 렌더링 작업만을 수행한다. 이와 달리, 영상 처리 모듈(212)은 영상 데이터에 대한 분석을 통해 스케일링 비율, 유형(예를 들어, 정지 영상, 동영상), 색분포도 등을 산출하고, 산출 결과에 기초하여 특정 렌더링 필터를 선택하여 렌더링 작업을 수행하여 렌더링 영상 데이터를 생성하며, 또한, 영상 데이터 또는 렌더링 영상 데이터에 대한 색보정 작업을 수행할 수 있다. The image processing module 212 may perform analysis, rendering, and color correction on image data to generate output image data. The general image processing module performs only the rendering operation on the image data. Alternatively, the image processing module 212 may calculate a scaling ratio, a type (e.g., still image, moving image), a color distribution, and the like through analysis of the image data, and selects a specific rendering filter based on the calculation result A rendering operation is performed to generate rendering image data, and a color correction operation can be performed on image data or rendering image data.

따라서, 영상 처리 모듈(212)은 영상의 크기, 유형에 적합한 렌더링 필터를 이용함으로써 미디어 파사드 시스템(100)의 부하를 감소시킬 수 있다. 또한, 영상 데이터 또는 렌더링 영상 데이터에 대한 색보정 작업을 통해 이들의 시간에 따른 색변화를 완화시킴으로써, 미디어 파사드 시스템(100)을 통해 표시되는 영상의 색변화로 인한 광 공해를 완화시킬 수 있다. 영상 처리 모듈(212)의 구체적인 동작에 대해서는 도 3을 참조하여 상세히 설명하기로 한다.Accordingly, the image processing module 212 can reduce the load of the media facade system 100 by using a rendering filter suitable for the size and type of the image. In addition, by mitigating the color change over time through the color correction operation for the image data or the rendering image data, the light pollution due to the color change of the image displayed through the media facade system 100 can be alleviated. The specific operation of the image processing module 212 will be described in detail with reference to FIG.

분배 모듈(213)은 출력 영상 데이터를 LED 광원 어레이들(220)에 분배 또는 제공할 수 있다. 분배 모듈(213)은 일반적인 디스플레이 장치의 구동 집적 회로(예를 들어, scan driver 및 data driver)에 대응하여, 출력 영상 데이터에 포함된 라인 데이터들을 해당 LED 광원 어레이들(220)에 동시 또는 순차적으로 제공할 수 있다.The distribution module 213 may distribute or provide the output image data to the LED light source arrays 220. The distribution module 213 corresponds to the driving integrated circuit (for example, a scan driver and a data driver) of a general display device and outputs line data included in the output image data to the LED light source arrays 220 simultaneously or sequentially .

도 3은 도 2의 미디어 파사드 시스템에 포함된 영상 처리 모듈의 일 예를 나타내는 도면이고, 도 4a는 도 3의 영상 처리 모듈에서 영상의 유형을 판단하는 과정을 설명하는 도면이며, 도 4b는 도 3의 영상 처리 모듈에서 영상의 색분포도를 산출하는 과정을 설명하는 도면이고, 도 5a는 도 3의 영상 처리 모듈에서 영상의 스케일링 비율을 결정하는 과정을 설명하는 도면이며, 도 5b는 도 3의 영상 처리 모듈에서 사용되는 렌더링 필터들의 예를 나타내는 도면이고, 도 6a 및 도 6b는 도 3의 영상 처리 모듈에서 렌더링 데이터의 색분포를 보정하는 과정을 설명하는 도면이다.FIG. 3 is a view illustrating an example of an image processing module included in the media facade system of FIG. 2. FIG. 4A is a view for explaining a process of determining a type of an image in the image processing module of FIG. FIG. 5A is a view for explaining a process of calculating a color distribution of an image in the image processing module of FIG. 3, FIG. 5A is a view for explaining a process of determining a scaling ratio of an image in the image processing module of FIG. FIGS. 6A and 6B are diagrams for explaining a process of correcting the color distribution of rendering data in the image processing module of FIG. 3. FIG.

먼저 도 2 및 도 3을 참조하면, 영상 처리 모듈(212)은 영상 분석부(310), 렌더링부(320) 및 계조 보정부(330)를 포함할 수 있다.2 and 3, the image processing module 212 may include an image analysis unit 310, a rendering unit 320, and a gray level correction unit 330. Referring to FIG.

영상 분석부(310)는 수신 모듈(211)(또는, 외부)로부터 제공되는 영상 데이터의 스케일링 비율, 유형 및 색분포도 중 적어도 하나를 산출할 수 있다. The image analyzing unit 310 may calculate at least one of a scaling ratio, a type, and a color distribution diagram of image data provided from the receiving module 211 (or external).

일 실시예에서, 영상 분석부(310)는 영상 데이터의 해상도와 LED 광원 어레이들(220)의 총 해상도(또는, LED 점광원들(221)의 배열)에 기초하여 영상 데이터의 스케일링 비율(또는, 다운 스케일링 비율)을 결정할 수 있다. 여기서, 스케일링 비율은 후술하는 렌더링 필터(rendering filter)의 크기를 결정하는 데 이용될 수 있다. 예를 들어, 영상 데이터의 해상도가 1980*1080 이고, LED 광원 어레이들(220)의 총 해상도가 640*360인 경우, 영상 분석부(310)는 스케일링 비율을 1/3로 결정할 수 있다.In one embodiment, the image analysis unit 310 may calculate the scaling ratio (or the scaling ratio) of the image data based on the resolution of the image data and the total resolution of the LED light source arrays 220 (or the array of LED point light sources 221) , Downscaling ratio) can be determined. Here, the scaling ratio can be used to determine the size of a rendering filter to be described later. For example, if the resolution of the image data is 1980 * 1080 and the total resolution of the LED light source arrays 220 is 640 * 360, the image analysis unit 310 may determine the scaling ratio to be 1/3.

일 실시예에서, 영상 분석부(310)는 영상 데이터에 포함된 프레임 데이터의 시간에 따른 변화에 기초하여 영상 데이터에 대응하는 영상이 정지영상 또는 동영상인지 여부를 결정할 수 있다.In one embodiment, the image analyzing unit 310 may determine whether the image corresponding to the image data is a still image or a moving image based on a change with time of the frame data included in the image data.

도 4a를 참조하면, 영상 데이터는 제1 내지 제n 프레임 데이터들(F1 내지 Fn)(단, n은 2 이상의 정수)를 포함 할 수 있다. 이 경우, 영상 분석부(310)는 특정 구간 또는 특정 개수의 프레임 데이터들(예를 들어, 제1 내지 제4 프레임 데이터들(F1 내지 Fn))에 포함된 계조값들의 변화에 기초하여 영상 데이터의 유형을 판단할 수 있다. 또한, 영상 분석부(310)는 프레임 데이터들(F1 내지 Fn)의 특정 영역 또는 특정 위치에 대응하는 서브 프레임 데이터들(SF)에 포함된 계조값들의 시간에 따른 변화에 기초하여 영상 데이터가 정지영상인지 또는 동영상인지 여부를 판단할 수 있다.Referring to FIG. 4A, the image data may include first through n-th frame data F1 through Fn (where n is an integer of 2 or more). In this case, the image analyzing unit 310 analyzes the image data (image data) based on the change of the gray level values included in the specific section or a predetermined number of frame data (for example, the first to fourth frame data F1 to Fn) Can be determined. The image analyzing unit 310 analyzes the image data based on the temporal change of the gray level values included in the specific region of the frame data F1 to Fn or the subframe data SF corresponding to the specific position, It is possible to determine whether the image is a moving image or a moving image.

즉, 영상 분석부(310)는 프레임 데이터들(F1 내지 Fn) 전체 또는 이들에 포함된 일부 영역의 계조값들의 시간에 따른 변화에 기초하여 영상 데이터(또는, 영상)의 유형을 결정할 수 있다.That is, the image analyzing unit 310 can determine the type of the image data (or image) based on the temporal change of the gray values of the entire frame data F1 to Fn or a part of the frame data F1 to Fn.

한편, 도 4a를 참조하여 영상 분석부(310)는 프레임 데이터들(F1 내지 Fn)을 이용하여 영상 데이터의 유형을 결정하는 것으로 설명하였으나, 이는 예시적인 것으로, 본 발명이 이에 한정되는 것은 아니다. 예를 들어, 영상 분석부(310)는 현재의 영상 데이터와, 현재 이전인 과거의 영상 데이터를 비교 분석하여, 영상 데이터(또는, 영상)의 유형을 판단할 수 있다.4A, the image analyzer 310 determines the type of image data using the frame data F1 to Fn. However, the present invention is not limited thereto. For example, the image analysis unit 310 can determine the type of the image data (or image) by comparing and analyzing the current image data and the past image data of the past.

참고로, 영상의 유형은 렌더링 필터를 선택하는 과정과, 색보정의 수행 여부를 결정하는데 이용될 수 있다. 예를 들어, 영상이 정지 영상인 경우, 영상이 특정 시간동안 사용자에게 노출됨에 따라 영상의 전체적인 선명도, 색감 등이 사용자에게 인지되므로, 영상 데이터의 선명도, 색감 등을 그대로 유지하는 것이 중요할 수 있고, 이에 따라 영상 데이터의 선명도, 색감 등을 그대로 반영할 수 있는 렌더링 필터가 선택될 수 있다. 다른 예를 들어, 영상이 동영상인 경우, 영상이 사용자에게 상대적으로 짧은 시간동안 노출됨에 따라, 영상의 선명도, 색감의 중요도는 상대적으로 낮을 수 있으며, 광 공해와 관련하여 동영상의 색변화를 완화시키는 것이 중요할 수 있고, 이에 따라 동영상의 특징을 살리는 렌더링 필터가 선택되고, 동영상의 색변화를 완화시키는 색보정이 수행될 수 있다.For reference, the type of image can be used to select a rendering filter and determine whether to perform color correction. For example, if the image is a still image, since the user is aware of the overall sharpness, color, etc. of the image as the image is exposed to the user for a specific time, it may be important to maintain the sharpness, A rendering filter that can directly reflect the sharpness, color, etc. of the image data can be selected. For example, when the image is a moving image, the image is exposed to the user for a relatively short period of time. Therefore, the importance of the sharpness and color of the image may be relatively low and the color change of the moving image may be alleviated May be important, so that a rendering filter that takes advantage of the characteristics of the moving picture is selected, and color correction to mitigate the color change of the moving picture can be performed.

다시 도 3을 참조하면, 영상 분석부(310)는 영상이 동영상인 경우, 영상 데이터에 포함된 계조값들에 기초하여 영상 데이터의 색분포도를 산출할 수 있다. 여기서, 영상 데이터에 대응하는 영상이 정지 영상인 경우, 정지 영상 자체가 다양한 색을 포함하더라도, 이의 변화가 적으므로, 영상 처리 모듈(212)은 색변화를 고려할 필요가 없고, 따라서, 영상 분석부(310)는 정지 영상에 대한 색분포도를 산출하지 않을 수 있다.Referring again to FIG. 3, when the image is a moving image, the image analyzing unit 310 may calculate the color distribution of the image data based on the gray values included in the image data. Here, in the case where the image corresponding to the image data is a still image, even if the still image itself includes various colors, the image processing module 212 does not need to consider color change, The controller 310 may not calculate the color distribution for the still image.

도 4b를 참조하여 예를 들면, 영상 분석부(310)는 영상 데이터(또는, 도 4a에 도시된 프레임 데이터)에 포함된 계조값들을 계조값(GRAYSCALE)별로 개수(NUMBER)를 분석하여, 영상 데이터의 색분포를 분석할 수 있다. 한편, 영상 데이터가 광원을 구성하는 RGB별로 서브 데이터들(예를 들어, R 영상 데이터, G 영상 데이터, B 영상 데이터)를 포함하는 경우, 영상 분석부(310)는 RGB 별로 서브 데이터들에 대한 분석을 통해 영상 데이터의 색분포도를 산출할 수 있다.Referring to FIG. 4B, for example, the image analyzer 310 analyzes the number of grayscale values included in the image data (or the frame data shown in FIG. 4A) by a gray scale value (GRAYSCALE) The color distribution of the data can be analyzed. On the other hand, when the image data includes sub data (for example, R image data, G image data, B image data) for each RGB constituting the light source, the image analyzing unit 310 analyzes the sub data The color distribution of the image data can be calculated through analysis.

도 4b에 도시된 바와 같이, 제1 영상 데이터에 포함된 계조값들은 제1 그래프(G1)와 같이, 전 구간에 걸쳐 분포된 것으로 나타날 수 있으며, 제2 영상 데이터에 포함된 계조값들은 제2 그래프(G2)와 같이, 일부 구간에만 집중되어 분포된 것으로 나타날 수 있다. 이 경우, 제1 영상 데이터의 색분포도는 제2 영상 데이터의 색분포도에 비해 상대적으로 높게 나타날 수 있다.4B, the gray level values included in the first image data may be distributed over the entire interval as shown in the first graph G1, and the gray level values included in the second image data may be distributed over the second As shown in the graph G2, it can be shown that the distribution is concentrated only in a certain section. In this case, the color distribution of the first image data may be relatively higher than the color distribution of the second image data.

한편, 영상 분석부(310)는 영상 데이터의 계조값들에 정규 분포 함수 등을 적용하여, 계조값의 평균, 표준편차 등을 도출할 수 있으며, 여기에서, 표준편차를 색분포도로서 결정할 수 있다.Meanwhile, the image analyzer 310 can derive an average, a standard deviation, and the like of the gray-level values by applying a normal distribution function or the like to the gray-level values of the image data. Here, the standard deviation can be determined as the color- .

일 실시예에서, 영상 분석부(310)는 표준편차 또는 색분포도가 기준값을 초과하는 경우, 해당 영상 데이터에 대한 색보정이 필요한 것으로 판단할 수 있다. 여기서, 기준값은 색변화로 광 공해가 발생하는 영상의 표준편차 또는 색분포도를 나타내며, 기 설정될 수 있다. 예를 들어, 영상 분석부(310)는 제1 그래프(G1)에 대응하는 제1 영상 데이터의 표준편차와 기준값을 비교하여, 제1 영상 데이터에 대한 색보정이 필요한 것으로 판단할 수 있다.In one embodiment, when the standard deviation or the color distribution diagram exceeds the reference value, the image analyzer 310 may determine that color correction is required for the image data. Here, the reference value represents a standard deviation or a color distribution diagram of an image where light pollution occurs due to a color change, and can be set in advance. For example, the image analyzer 310 may compare the standard deviation of the first image data corresponding to the first graph G1 with the reference value, and determine that the color correction for the first image data is necessary.

도 4a 및 도 4b를 참조하여 설명한 바와 같이, 영상 분석부(310)는 영상 데이터의 스케일링 비율, 유형, 색분포도 중 적어도 하나를 산출할 수 있다. 산출된 스케일링 비율, 유형, 색분포도 등은 후술하는 렌더링부(320)에서 이용되는 렌더링 필터를 결정하는 데 이용되고, 또한, 후술하는 계조 보정부(330)에서의 색보정 작업 여부를 결정하는 데 이용될 수 있다. 이를 통해, 영상 처리 모듈(212)은 미디어 파사드 시스템(100)의 부하를 감소시키고, 이를 통해 표시되는 영상에 의해 발생되는 광 공해를 저감시킬 수 있다.As described with reference to FIGS. 4A and 4B, the image analyzer 310 may calculate at least one of a scaling ratio, a type, and a color distribution diagram of image data. The calculated scaling ratio, type, color distribution, and the like are used to determine a rendering filter used in the rendering unit 320, which will be described later, and to determine whether or not a color correction operation is to be performed in the tone correction unit 330 Can be used. Accordingly, the image processing module 212 can reduce the load on the media facade system 100 and reduce the light pollution caused by the displayed image.

다시 도 3을 참조하면, 렌더링부(320)는 영상 분석부(310)의 산출 결과(예를 들어, 스케일링 비율, 유형, 색분포도 등)에 기초하여 복수의 렌더링 필터들 중 하나의 렌더링 필터를 선택하고, 선택된 렌더링 필터에 기초하여 영상 데이터를 렌더링하여 렌더링 데이터를 생성할 수 있다.Referring again to FIG. 3, the rendering unit 320 may render one of the plurality of rendering filters based on the calculation result (e.g., scaling ratio, type, color distribution, etc.) of the image analysis unit 310 And generate rendering data by rendering the image data based on the selected rendering filter.

여기서, 렌더링 필터들 각각은 LED 점광원(211)에 대응하는 계조값들(또는, 계조값들의 위치 정보)와 이들의 가중치를 정의한 필터이며, 점광원(211)의 크기, 배치(또는, 배열), 영상(즉, 영상 데이터에 대응하는 영상)의 크기, 유형 등에 따라 다양하게 설정될 수 있다.Each of the rendering filters is a filter that defines gray level values (or position information of gray level values) corresponding to the LED point light source 211 and their weights. The size, placement (or array) of the point light sources 211 ), And the size, type, etc. of the image (i.e., the image corresponding to the image data).

도 5a를 참조하면, 영상 데이터와 렌더링 데이터간의 관계가 도시되어 있다.Referring to FIG. 5A, a relationship between image data and rendering data is shown.

예를 들어(제1 케이스(case1)로서), 제1 영상 데이터(DATA1)는 제1 렌더링 데이터(DATA_REN1)에 대응될 수 있으며, 예를 들어, 하나의 LED 점광원(211)(또는, 하나의 픽셀로서, 예를 들어, 제1 행 및 제1 열의 교차지점에 배치되는 제11 픽셀(P11))은 면적을 기준으로 4개의 계조값들(즉, 제1 영상 데이터(DATA1)에 포함된 계조값들)에 대응될 수 있다. 이 경우, 앞서 설명한 스케일링 비율은 1/2 일 수 있다. 한편, LED 점광원(211)이 발광하는 경우, 광이 LED 점광원(211)(또는, 제11 픽셀(P11))을 기준으로 전 방향으로 발산하여, 제1 광 영역(AR1)에 영향을 미칠 수 있다. 따라서, 렌더링 필터는 제1 광역(AR1)에 기초하여 설정될 수 있다.For example, the first image data DATA1 may correspond to the first rendering data DATA_REN1 (for example, as the first case case 1), and may correspond to, for example, one LED point light source 211 (or one (For example, the eleventh pixel P11 arranged at the intersection of the first row and the first column) is divided into four gradation values (that is, the first pixel P11 included in the first image data DATA1 Gray level values). In this case, the scaling ratio described above may be 1/2. On the other hand, when the LED point light source 211 emits light, the light diverges in all directions on the basis of the LED point light source 211 (or the eleventh pixel P11) to affect the first light area AR1 I can go crazy. Thus, the rendering filter may be set based on the first wide area AR1.

다른 예를 들어(제2 케이스(case2)로서), 제2 영상 데이터(DATA2)는 제2 렌더링 데이터(DATA_REN2)에 대응될 수 있으며, 예를 들어, 하나의 LED 점광원(211)(또는, 제11 픽셀(P11))은 면적을 기준으로 9개의 계조값들(즉, 제2 영상 데이터(DATA2)에 포함된 계조값들)에 대응될 수 있다. 이 경우, 스케일링 비율은 1/3이고, 제11 픽셀(P11)은 제2 광 영역(AR2)에 영향을 미칠 수 있으므로, 렌더링 필터는 제2 광역(AR2)에 기초하여 설정될 수 있다.For example, the second image data DATA2 may correspond to the second rendering data DATA_REN2. For example, the second image data DATA2 may correspond to one LED point light source 211 (or, for example, The eleventh pixel P11) may correspond to nine tone values (i.e., tone values included in the second image data DATA2) based on the area. In this case, the rendering filter can be set based on the second wide area AR2 since the scaling ratio is 1/3 and the eleventh pixel P11 can affect the second light area AR2.

또 다른 예를 들어(제3 케이스(case3)로서), 제3 영상 데이터(DATA3)는 제2 렌더링 데이터(DATA_REN2)에 대응될 수 있으며, 예를 들어, 하나의 LED 점광원(211)(또는, 제11 픽셀(P11))은 면적을 기준으로 9/4개의 계조값들(즉, 제3 영상 데이터(DATA3)에 포함된 계조값들)에 대응될 수 있다. 이 경우, 스케일링 비율은 2/3일 수 있다. 제3 영상 데이터(DATA3)에 대한 렌더링 필터는 별도로 설정되지 않고, 픽셀들(P11 내지 P44)에 대한 영향이 적은 제3 영상 데이터(DATA3)의 제2 및 제5 열들(2nd COL, 5th COL)과 제2 및 제 5 행들(2nd ROW, 5th ROW)에 대응하는 계조값들을 제거하여, 제3 렌더링 데이터(DATA_REN3)이 생성될 수 있다.As another example (as the third case case 3), the third image data DATA3 may correspond to the second rendering data DATA_REN2, for example, one LED point light source 211 (or , The eleventh pixel P11) may correspond to 9/4 tone values (i.e., tone values included in the third image data DATA3) based on the area. In this case, the scaling ratio may be 2/3. The rendering filter for the third image data DATA3 is not separately set and the second and fifth columns (2nd COL, 5th COL) of the third image data DATA3, which are less affected by the pixels P11 to P44, And the second and fifth rows (2nd ROW, 5th ROW), and the third rendering data (DATA_REN3) can be generated.

도 5b를 참조하면, 제1 렌더링 필터(RF1)은 도 5a를 참조하여 설명한 제1 케이스(case1) 및 제2 케이스(case2)를 고려하여 설정될 수 있다. Referring to FIG. 5B, the first rendering filter RF1 may be set in consideration of the first case case 1 and the second case case 2 described with reference to FIG. 5A.

예를 들어, 제1 렌더링 필터(RF1)는 영상 데이터(예를 들어, 제1 영상 데이터(DATA1))를 기준으로 3행*3열 픽셀 사이즈를 가지며, 도 5a을 참조하여 설명한 제1 케이스(case1)에서 제1 광 영역(AR1)의 면적을 고려하여, 제1 렌더링 필터(RF1) 중 LED 점광원(211)에 대응하는 중심 계조값에 대한 가중치는 1/4이고, 중심 계조값에 직접적으로 인접하여 상/하/좌/우에 위치하는 제1 주변 계조값들에 대한 가중치는 1/8 이며, 중심 계조값을 기준으로 대각선(또는, 사선) 방향에 위치하는 제2 주변 계조값들에 대한 가중치는 1/16일 수 있다. 이들 가중치들의 총 합은 1일 수 있다.For example, the first rendering filter RF1 has a size of 3 rows * 3 columns based on the image data (e.g., the first image data DATA1) the weight for the center gradation value corresponding to the LED point light source 211 in the first rendering filter RF1 is 1/4 in consideration of the area of the first light area AR1 in case 1, The weight for the first perimeter tonal values adjacent to the top, bottom, left, and right is 1/8, and the second perimeter tonal values located in the diagonal (or diagonal) The weighting factor may be 1/16. The sum of these weights may be one.

또한, 도 5b를 참조하여 설명한 제2 케이스(case2)에서 제2 광역(AR2)의 면적만을 고려하는 렌더링 필터가 설정되는 경우, 실제 미디어 파사드 시스템(100)을 통해 표시되는 영상이 뚜렷하지 않고, 뭉게지는 현상이 발생할 수 있으므로, 제2 케이스(case2)를 위한 렌더링 필터는 중심 계조값에 추가적인 가중치를 부여함으로써, 결과적으로 도 5b에 도시된 가중치 값들을 가질 수 있다. 즉, 제2 케이스(case2)를 고려하더라도, 제1 렌더링 필터(RF1)가 설정될 수 있다.In addition, when a rendering filter considering only the area of the second wide area AR2 is set in the second case (case 2) described with reference to FIG. 5B, the image displayed through the actual media facade system 100 is not clear, Since a smoothing phenomenon may occur, the rendering filter for the second case (case 2) may give weight values shown in FIG. 5B as a result, by giving an additional weight to the central grayscale value. That is, even if the second case (case 2) is considered, the first rendering filter RF1 can be set.

유사하게, 영상 데이터와 렌더링 데이터 간의 스케일링 비율이 1/3 이하인 경우에도, 광 영역의 면적만을 고려하여 렌더링 필터가 설정되면 최종 표시되는 영상이 뭉게지는 현상이 발생할 수 있으므로, 스케일링 비율이 1/2 이하인 경우에는 제1 렌더링 필터(RF1)가 이용되는 것이 바람직하다 할 것이다. 이와 달리, 스케일링 비율이 1/3 이하인 경우에는 별도의 렌더링 필터(예를 들어, 제1 렌더링 필터(RF1))를 이용하는 것 보다는 특정 행/열의 계조값들을 제거하는 방식으로 영상 데이터를 스케일링하는 것이 바람직할 수 있다.Similarly, even if the scaling ratio between the image data and the rendering data is 1/3 or less, if the rendering filter is set considering only the area of the optical area, a final displayed image may be clumped. It is preferable that the first rendering filter RF1 is used. Alternatively, if the scaling ratio is 1/3 or less, then scaling the image data in a manner that removes tonal values of a particular row / column rather than using a separate rendering filter (e.g., the first rendering filter RF1) Lt; / RTI >

한편, 제2 렌더링 필터(RF2) 및 제3 렌더링 필터(RF3)는 제1 렌더링 필터(RF1)를 구성하는 서브 렌더링 필터일 수 있다. 도 5d를 참조하여 설명하겠지만, 렌더링부(320)는 메모리 장치의 크기를 감소시키기 위하여 2단계에 걸쳐 영상 데이터에 대한 렌더링 작업을 수행할 수 있으며, 이 경우, 제2 및 제3 렌더링 필터들(RF2, RF3)를 순차적으로 적용하여, 제1 렌더링 필터(RF1)와 실질적으로 동일한 결과(즉, 렌더링 데이터)를 생성 및 출력할 수 있다.Meanwhile, the second rendering filter RF2 and the third rendering filter RF3 may be sub-rendering filters constituting the first rendering filter RF1. 5D, the rendering unit 320 may perform a rendering operation on the image data in two stages in order to reduce the size of the memory device. In this case, the second and third rendering filters ( RF2, and RF3 may be sequentially applied to generate and output substantially the same result (i.e., rendering data) as the first rendering filter RF1.

예를 들어, 제2 렌더링 필터(RF2)는 영상 데이터를 기준으로 1행*3열 픽셀 사이즈를 가지며, 제3 렌더링 필터(RF3)는 영상 데이터를 기준으로 3행*1열 픽셀 사이즈를 가질 수 있다. 제2 렌더링 필터(RF2)와 제3 렌더링 필터(RF3)의 곱 연산(또는, 행렬 곱 연산)을 통해 제1 렌더링 필터(RF1)가 도출될 수 있다. 제2 및 제3 렌더링 필터들(RF2, RF3)을 순차적으로 이용한 렌더링부(320)의 구성 및 동작에 대해서는 도 7b를 참조하여 후술하기로 한다.For example, the second rendering filter RF2 has a size of 1 row * 3 column pixels based on the image data, and the third rendering filter RF3 has 3 rows * 1 column pixel size have. The first rendering filter RF1 may be derived through multiplication (or matrix multiplication) between the second rendering filter RF2 and the third rendering filter RF3. The configuration and operation of the rendering unit 320 that sequentially uses the second and third rendering filters RF2 and RF3 will be described later with reference to FIG. 7B.

실시예들에서, 렌더링부(320)는 영상 데이터에 대응하는 영상이 정지영상이거나 색분포도가 기준 범위 이내(예를 들어, 기준값 이하)인 경우, 렌더링 필터들(예를 들어, 제1 내지 제3 렌더링 필터들(RF1 내지 RF3)) 중 제1 렌더링 필터(RF1)를 선택하고, 영상이 동영상이고 색분포도가 기준 범위를 벗어나는 경우, 렌더링 필터들 중 제2 렌더링 필터(RF2)를 선택할 수 있다. 여기서, 제1 렌더링 필터(RF1)의 크기는, 도 5b를 참조하여 설명한 바와 같이, 제2 렌더링 필터(RF1)보다 클 수 있다.In the embodiments, the rendering unit 320 may include rendering filters (for example, first to fourth rendering filters) when the image corresponding to the image data is a still image or the color distribution is within a reference range (for example, 3 rendering filters RF1 through RF3) and may select a second rendering filter RF2 of the rendering filters if the image is moving and the color distribution is out of the reference range . Here, the size of the first rendering filter RF1 may be larger than that of the second rendering filter RF1, as described with reference to FIG. 5B.

앞서 도 4a를 참조하여 설명한 바와 같이, 정지 영상의 경우 영상의 선명도, 색감이 사용자에게 중요한 요인일 수 있으므로, 영상 데이터에 포함된 계조값들이 최대한 반영될 수 있도록, 렌더링부(320)는 제1 렌더링 필터(RF1)를 선택할 수 있다. 또한, 정지 영상이 아닌 동영상이라 하더라도, 색분포도가 기준값 이하인 경우, 영상을 통해 표현되는 색상 자체가 상대적으로 적어 그 색상이 최대한 그대로 자연스럽게 반영될 수 있도록, 렌더링부(320)는 제1 렌더링 필터(RF1)를 선택할 수 있다.As described above with reference to FIG. 4A, in the case of a still image, the sharpness and color of the image may be an important factor for the user. Therefore, the rendering unit 320 may include a first It is possible to select the rendering filter RF1. In addition, if the color distribution is not more than the reference value, the rendering unit 320 may be configured to render the color of the first rendering filter RF1) can be selected.

이와 달리, 동영상이고 색분포가 기준치를 초과하는 경우, 영상의 선명도, 색감의 중요도는 상대적으로 낮을 수 있으므로, 렌더링부(320)는 제2 렌더링 필터(RF2)와 같이 간단한 렌더링 필터(RF2)를 이용하여 렌더링 작업으로 인한 부하를 상대적으로 감소시키고, 계조 보정부(330)로 하여금 렌더링 데이터에 대한 색보정을 수행하도록 할 수 있다.In contrast, when the moving image and the color distribution exceed the reference value, the importance of the sharpness and color of the image may be relatively low. Therefore, the rendering unit 320 may use a simple rendering filter RF2 as the second rendering filter RF2 The load caused by the rendering operation is relatively reduced, and the tone corrector 330 can perform the color correction on the rendering data.

도 5a 및 도 5b를 참조하여 설명한 바와 같이, 렌더링부(320)는 영상 분석부(310)의 산출 결과(예를 들어, 스케일링 비율, 유형, 색분포도 등)에 기초하여 렌더링 필터들(예를 들어, 제1 내지 제3 렌더링 필터들(RF1 내지 RF3)) 중에서 하나의 렌더링 필터를 선택하고, 선택된 렌더링 필터에 기초하여 영상 데이터를 렌더링하여 렌더링 데이터를 생성할 수 있다. 따라서, 렌더링부(320)는 영상의 특성을 고려하여 렌더링 작업에 대한 부하를 감소시키고, 계조 보정부(330)의 동작 및 이를 통한 영상의 광 공해를 저감시킬 수 있다.5A and 5B, the rendering unit 320 may generate rendering filters (for example, a rendering method) based on a calculation result (for example, a scaling ratio, a type, a color distribution diagram, For example, one of the first through third rendering filters RF1 through RF3 may be selected, and the rendering data may be generated by rendering the image data based on the selected rendering filter. Accordingly, the rendering unit 320 may reduce the load on the rendering operation in consideration of the characteristics of the image, and may reduce the operation of the tone corrector 330 and the light pollution of the image.

다시 도 3을 참조하면, 계조 보정부(330)는 색분포도(즉, 영상 분석부(310)에서 산출된 영상의 색분포도)에 기초하여 렌더링 데이터를 보정하여 색보정 데이터(또는, 보정 데이터, 보정 영상 데이터)를 생성할 수 있다. 이 경우, LED 광원 어레이들(220)(또는, LED 점광원들(221))은 색보정 데이터에 기초하여 영상을 표시할 수 있다.Referring again to FIG. 3, the tone corrector 330 corrects the rendering data based on the color distribution diagram (i.e., the color distribution diagram of the image calculated by the image analysis unit 310) to obtain the color correction data (or correction data, Corrected image data). In this case, the LED light source arrays 220 (or the LED point light sources 221) can display an image based on the color correction data.

즉, 계조 보정부(330)는 색분포도가 감소되도록 렌더링 데이터에 포함된 계조값들을 보정하고, 이에 따라 미디어 파사드 시스템(100)에서 표시되는 영상(또는, 영상의 색변화)에 기인한 광 공해가 감소될 수 있다.That is, the tone corrector 330 corrects the tone values included in the rendering data so that the color distribution is reduced, and accordingly, the tone correction unit 330 corrects tone values included in the image data (or the color change of the image) displayed on the media facade system 100 Can be reduced.

일 실시예에서, 계조 보정부(330)는 색분포도에 기초하여 최소 내지 최대 계조값들을 구분하는 계조 구간들의 수를 결정하고, 렌더링 데이터에 포함된 계조값들을 계조 구간들 중에서 대응되는 계조 구간의 대표 계조 값으로 치환할 수 있다. 이 경우, 색보정 데이터는 대표 계조값을 포함하거나, 대표 계조값으로 구성될 수 있다.In one embodiment, the tone corrector 330 determines the number of gradation intervals that divide the minimum to maximum gradation values based on the color distribution diagram, and determines the gradation values included in the rendering data as the gradation value of the corresponding gradation interval It can be replaced with the representative tone value. In this case, the color correction data may include a representative gradation value or may be composed of a representative gradation value.

도 6a를 참조하면, 입력 계조값들(즉, 영상 데이터 또는 렌더링 데이터에 포함된 입력 계조값들)은 색분포도에 기초하여 복수 개의 계조 구간들로 구분될 수 있다. 예를 들어, 입력 계조값들은 최소 계조값인 0으로 부터 최대 계조값인 255까지의 범위(즉, 256개의 계조 레벨들)에 속할 수 있다. 예를 들어, 색분포도가 제1 값인 경우, 256개의 계조 레벨들을 128개의 구간들로 구분할 수 있으며, 다른 예를 들어, 색분포도가 제1 값보다 큰 제2 값인 경우, 256개의 계조 레벨들을 64개의 구간들로 구분할 수 있다. 즉, 색분포도가 커질수록, 계조 구간들의 수는 감소할 수 있다.Referring to FIG. 6A, input gradation values (i.e., input gradation values included in image data or rendering data) may be divided into a plurality of gradation periods based on a color distribution diagram. For example, the input tone values may belong to a range from the minimum tone value of 0 to the maximum tone value of 255 (i.e., 256 tone levels). For example, when the color distribution is a first value, 256 gradation levels can be divided into 128 intervals. In another example, when the color distribution is a second value larger than the first value, 256 gradation levels are divided into 64 Can be divided into two sections. That is, the larger the color distribution, the smaller the number of gray levels.

한편, 계조 구간들 각각의 대표 계조값을 계조 구간들에 포함된 특정 계조값일 수 있다. 예를 들어, 제2 계조 구간(GP2)의 제2 대표 계조값(GR2)은 제2 계조 구간(GP2)의 최소 계조값일 수 있다.On the other hand, the representative gradation value of each of the gradation periods may be a specific gradation value included in the gradation periods. For example, the second representative gradation value GR2 of the second gradation section GP2 may be the minimum gradation value of the second gradation section GP2.

계조 보정부(330)의 동작에 따라 생성된 색보정 데이터는 상대적으로 적은 색변화를 가지므로, 광 공해가 감소될 수 있다.The color correction data generated according to the operation of the tone corrector 330 has a relatively small color change, so that light pollution can be reduced.

다른 일 실시예에서, 계조 보정부(330)는 색분포도에 기초하여 최소 설정 계조값과 최대 설정 계조값을 결정하고, 렌더링 데이터에 포함된 계조값들을 최소 및 최대 설정 계조값들 사이의 계조 구간에 속하는 계조값들로 변환할 수 있다. 이 경우, 색보정 데이터는 변환된 계조값들을 포함하거나, 대표 계조값으로 구성될 수 있다.In another embodiment, the tone corrector 330 determines the minimum setting tone value and the maximum setting tone value based on the color distribution diagram, and converts the tone values included in the rendering data into the tone interval To the gray level values belonging to the gray level. In this case, the color correction data may include converted gradation values or may be composed of representative gradation values.

도 6b를 참조하면, 계조 보정부(330)는 색분포도에 기초하여 최소 및 최대 설정 계조값(G_MIN, G_MAX)를 결정할 수 있다. 예를 들어, 색분포도의 중심 값에 기초하여 중간 계조값(즉, 최소 및 최대 설정 계조값들(G_MIN, G_MAX)의 평균 계조값)이 결정되고, 색분포도가 커질수록 최소 및 최대 설정 계조값들(G_MIN, G_MAX)의 간격이 좁게 설정될 수 있다. 따라서, 계조 보정부(330)의 동작에 따라 생성된 색보정 데이터는 상대적으로 좁은 계조 구간 내에서 색변화를 가지므로, 광 공해가 감소될 수 있다.Referring to FIG. 6B, the tone corrector 330 can determine the minimum and maximum set tone values (G_MIN, G_MAX) based on the color distribution diagram. For example, the intermediate tone values (i.e., the average tone values of the minimum and maximum setting tone values G_MIN and G_MAX) are determined based on the center value of the color distribution diagram, and as the color distribution degree increases, (G_MIN, G_MAX) may be set to be narrow. Therefore, since the color correction data generated in accordance with the operation of the tone corrector 330 has a color change in a relatively narrow gradation range, the light pollution can be reduced.

한편, 도 6a 및 도 6b를 참조하여 RGB 등과 같은 서브 화소들 또는 서브 영상 데이터들을 고려하지 않고 설명하였으나, 본 발명은 RGB 서브 영상 데이터들 각각에 적용될 수 있다. 예를 들어, 계조 보정부(330)는 RGB 서브 영상 데이터들 별로 계조값들을 보정하여 RGB 색보정 데이터들을 각각 생성하거나, RGB 서브 영상 데이터들 중 하나의 서브 영상 데이터(예를 들어, 사용자에게 가장 잘 시인되는 녹색 서브 영상 데이터)의 계조값들을 보정하여 G 색보정 데이터를 생성할 수 있다.6A and 6B, sub-pixels or sub-image data such as RGB are not considered. However, the present invention can be applied to each of RGB sub-image data. For example, the tone corrector 330 may generate RGB color correction data by correcting the tone values for each RGB sub-image data, or may generate one of the RGB sub-image data (for example, Green sub-image data) can be corrected to generate G color correction data.

도 6을 참조하여 설명한 바와 같이, 계조 보정부(330)는 영상의 색분포도에 기초하여 변환할 계조 구간(예를 들어, 계조 구간의 수 또는 계조 구간의 범위)를 결정하고, 입력 계조값들을 상기 계조 구간에 포함된 출력 계조값들로 변환하여 색보정 데이터를 생성할 수 있다. 색보정 데이터의 색변화 범위는 상대적으로 감소됨에 따라, 최종적으로 표시되는 영상의 색변화로 인한 광 공해가 감소될 수 있다.As described with reference to Fig. 6, the tone corrector 330 determines the gradation period (for example, the number of gradation periods or the range of the gradation period) to be converted based on the color distribution diagram of the image, And convert the output gray-level values into output gray-level values included in the gray-scale period to generate color correction data. As the color change range of the color correction data is relatively reduced, the light pollution due to the color change of the finally displayed image can be reduced.

도 3 내지 도 6b를 참조하여 설명한 바와 같이, 영상 처리 모듈(212)은 영상 데이터의 스케일링 비율, 유형, 색분포도 중 적어도 하나를 산출하고, 산출 결과에 기초하여 렌더링 필터들 중에서 하나의 렌더링 필터를 선택하여 영상 데이터를 렌더링하여 렌더링 데이터를 생성함으로써, 렌더링 작업에 대한 부하를 감소시킬 수 있다.As described with reference to FIGS. 3 to 6B, the image processing module 212 calculates at least one of the scaling ratio, the type, and the color distribution of the image data, and calculates one of the rendering filters based on the calculation result The rendering data is generated by rendering the selected image data, thereby reducing the load on the rendering operation.

또한, 영상 처리 모듈(212)은 영상의 색분포도에 기초하여 계조 변환을 수행할 계조 구간(예를 들어, 계조 구간의 수 또는 계조 구간의 범위)를 결정하고, 입력 계조값들을 상기 계조 구간에 포함된 출력 계조값들로 변환하여 색보정 데이터를 생성함으로써, 색보정 데이터의 색변화 범위를 상대적으로 감소시키고, 최종적으로 표시되는 영상의 색변화로 인한 광 공해가 저감시킬 수 있다.Also, the image processing module 212 determines a gradation period (for example, the number of gradation periods or a range of gradation periods) to perform gradation conversion based on the color distribution diagram of the image, and outputs the input gradation values to the gradation period It is possible to relatively reduce the color change range of the color correction data and to reduce the light pollution due to the color change of the finally displayed image.

도 7a 및 도 7b는 도 3의 영상 처리 모듈에 포함된 렌더링부의 일 예를 나타내는 도면이다.7A and 7B are views showing an example of a rendering unit included in the image processing module of FIG.

도 7a를 참조하면, 렌더링부(320)는 제1 내지 제3 라인 메모리들(711, 712, 713)과, 제1 산출기(721)를 포함할 수 있다. 도 7a에 도시된 렌더링부(320)는 도 5b를 참조하여 설명한 제1 렌더링 필터(RF1)를 이용하여 영상 데이터에 대한 렌더링을 수행할 수 있다.Referring to FIG. 7A, the rendering unit 320 may include first through third line memories 711, 712, and 713 and a first calculator 721. The rendering unit 320 illustrated in FIG. 7A may render the image data using the first rendering filter RF1 described with reference to FIG. 5B.

제1 내지 제3 라인 메모리들(711, 712, 713)은 영상 데이터에 포함된 라인 데이터들 중에서 상호 인접하는 3개의 라인 데이터들을 각각 저장할 수 있다. 여기서, 라인 데이터들은 영상 데이터들의 각 행에 대응하고, 각 행에 포함된 계조값을 포함할 수 있다. 이 경우, 제1 내지 제3 라인 메모리들(711, 712, 713) 각각은 영상 데이터의 행에 대응하는 크기를 가질 수 있다(예를 들어, 영상 데이터의 해상도가 1920*1080인 경우, 제1 라인 메모리의 크기는 1920 byte 일 수 있다).The first to third line memories 711, 712, and 713 may store three line data that are adjacent to each other among the line data included in the image data. Here, the line data may correspond to each row of the image data, and may include the tone value included in each row. In this case, each of the first to third line memories 711, 712 and 713 may have a size corresponding to the row of the image data (for example, when the resolution of the image data is 1920 * 1080, The size of the line memory may be 1920 bytes).

예를 들어, 제1 라인 메모리(711)는 제1 행에 대응하는 제1 라인 데이터(3m+1st LINE DATA)(단, m은 0 이상의 정수)를 저장하고, 제2 라인 메모리(712)는 제2 행에 대응하는 제2 라인 데이터(3m+2nd LINE DATA)를 저장하며, 제3 라인 메모리(713)는 제3 행에 대응하는 제3 라인 데이터(3m+3rd LINE DATA)를 저장할 수 있다.For example, the first line memory 711 stores first line data (3m + 1st LINE DATA) (where m is an integer equal to or larger than 0) corresponding to the first row, and the second line memory 712 stores (3m + 2nd line DATA) corresponding to the second row, and the third line memory 713 stores the third line data (3m + 3rd line DATA) corresponding to the third row .

도 5b를 참조하여 설명한 제1 렌더링 필터(RF1)가 3행*3열 픽셀 사이즈(특히, 3행 픽셀 사이즈)를 가지므로, 렌더링부(320)는 제1 렌더링 필터(RF1)를 이용한 렌더링 작업을 위해 3개의 라인 데이터들을 저장해야 하며, 이에 따라, 도 7a에 도시된 렌더링부(320)는 3개의 라인 메모리들(711, 712, 713)을 포함할 수 있다(예를 들어, 1920 byte * 3개).Since the first rendering filter RF1 described with reference to FIG. 5B has a 3-row * 3-column pixel size (particularly, a 3-row pixel size), the rendering unit 320 may perform a rendering operation using the first rendering filter RF1 The rendering unit 320 shown in FIG. 7A may include three line memories 711, 712 and 713 (for example, 1920 bytes * Three).

한편, 제1 산출기(721)는 3개의 라인 데이터들 및 제1 렌더링 필터(RF1)에 기초하여 제1 렌더링 라인 데이터를 생성할 수 있다. 여기서, 제1 렌더링 라인 데이터는 도 5b를 참조하여 설명한 렌더링 데이터에 포함될 수 있다.On the other hand, the first calculator 721 can generate the first rendering line data based on the three line data and the first rendering filter RF1. Here, the first rendering line data may be included in the rendering data described with reference to FIG. 5B.

도 7b를 참조하면, 렌더링부(320)는 제4 라인 메모리(714), 제2 산출기(722), 출력 결정부(730), 제1 내지 제3 서브 라인 메모리(741, 742, 743) 및 제3 산출기(750)를 포함할 수 있다. 도 7b에 도시된 렌더링부(320)는 도 5b를 참조하여 설명한 제2 및 제3 렌더링 필터들(RF2, RF3)를 이용하여 영상 데이터에 대한 렌더링을 수행할 수 있다.7B, the rendering unit 320 includes a fourth line memory 714, a second calculator 722, an output determining unit 730, first through third sub-line memories 741, 742, and 743, And a third calculator 750. The rendering unit 320 illustrated in FIG. 7B may render image data using the second and third rendering filters RF2 and RF3 described with reference to FIG. 5B.

제4 라인 메모리(714)는 영상 데이터에 포함된 라인 데이터들(LINE DATA)을 순차적으로 저장할 수 있다. 제2 렌더링 필터(RF2)는 1행*3열 픽셀 사이즈를 가지므로, 제2 렌더링 필터(RF2)를 이용한 렌더링을 위해 하나의 라인 메모리만이 요구될 수 있다. 제4 라인 메모리(714)는 도 7a를 참조하여 설명한 제1 내지 제3 라인 메모리들(711, 712, 713)과 실질적으로 동일하고, 예를 들어, 1920 byte의 크기를 가질 수 있다.The fourth line memory 714 may sequentially store the line data LINE DATA included in the image data. Since the second rendering filter RF2 has a one row * three column pixel size, only one line memory may be required for rendering using the second rendering filter RF2. The fourth line memory 714 is substantially the same as the first through third line memories 711, 712, and 713 described with reference to FIG. 7A, and may have a size of, for example, 1920 bytes.

제2 산출기(722)는 제4 라인 메모리(714)에 저장된 라인 데이터(LINE DATA)와 제2 렌더링 필터(RF2)를 이용하여 제2 렌더링 라인 데이터를 생성 할 수 있다.The second calculator 722 may generate the second rendering line data using the line data LINE DATA stored in the fourth line memory 714 and the second rendering filter RF2.

출력 결정부(730)는 추가적인 렌더링 작업에 대한 수행 여부를 결정할 수 있다. 예를 들어, 출력 결정부(730)는 영상이 동영상인 경우, 추가적인 렌더링 작업(예를 들어, 제3 렌더링 필터(RF3)를 이용한 렌더링 작업)이 불필요한 것으로 판단하여, 제2 렌더링 라인 데이터를 계조 보정부(330)에 제공 또는 출력할 수 있다. 이 경우, 제3 렌더링 필터(RF3)의 크기 또는 출력되어야 하는 렌더링 데이터의 크기(또는, 해상도)를 고려하여, 출력 결정부(730)는 3개의 렌더링 라인 데이터들 중 하나씩만을 계조 보정부(330)에 제공할 수 있다.The output determination unit 730 can determine whether to perform the additional rendering operation. For example, when the image is a moving image, the output determining unit 730 determines that an additional rendering operation (for example, a rendering operation using the third rendering filter RF3) is unnecessary, And supplies it to the correction unit 330 or outputs it. In this case, considering the size of the third rendering filter RF3 or the size (or resolution) of the rendering data to be output, the output determination unit 730 outputs only one of the three rendering line data to the tone corrector 330 ).

이와 달리, 영상이 정지 영상인 경우, 추가적인 렌더링 작업(예를 들어, 제3 렌더링 필터(RF3)를 이용한 렌더링 작업)이 필요한 것으로 판단하여, 제2 렌더링 라인 데이터를 제1 내지 제3 서브 라인 메모리들(741, 742, 743)에 순차적으로 제공할 수 있다.Alternatively, when the image is a still image, it is determined that an additional rendering operation (for example, a rendering operation using the third rendering filter RF3) is necessary, and the second rendering line data is stored in the first to third sub- 741, 742, and 743, respectively.

이 경우, 제1 내지 제3 서브 라인 메모리들(741, 742, 743)은 제2 렌더링 데이터에 포함되고 상호 인접한 렌더링 라인 데이터를 순차적으로 저장할 수 있다. 제1 내지 제3 서브 라인 메모리들(741, 742, 743)의 동작은 도 7a를 참조하여 설명한 제1 내지 제3 라인 메모리들(711, 712, 713)의 동작과 실질적으로 동일하므로, 중복되는 설명은 반복하지 않기로 한다.In this case, the first to third sub-line memories 741, 742 and 743 may sequentially store the render line data included in the second render data and adjacent to each other. The operations of the first to third sub line memories 741, 742 and 743 are substantially the same as those of the first to third line memories 711, 712 and 713 described with reference to FIG. 7A, The explanation is not repeated.

한편, 제1 내지 제3 서브 라인 메모리들(741, 742, 743) 각각의 용량(또는, 크기)은 제4 라인 메모리(714)(또는, 제1 내지 제3 라인 메모리들(711, 712, 713) 각각)의 용량의 1/3 일 수 있다. 예를 들어, 제1 내지 제3 서브 라인 메모리들(741, 742, 743) 각각의 크기는 640 byte 일 수 있다. 제2 산출기(722)에서 제2 렌더링 필터(RF2)를 이용한 렌더링 작업을 통해 제2 렌더링 라인 데이터의 크기(특히, 행의 크기)가 감소되었기 때문이다.The capacity (or the size) of each of the first to third sub-line memories 741, 742 and 743 is the same as that of the fourth line memory 714 (or the first to third line memories 711, 712, 713), respectively. For example, the size of each of the first to third sub-line memories 741, 742, and 743 may be 640 bytes. The size of the second rendering line data (particularly, the size of the row) is reduced through the rendering operation using the second rendering filter RF2 in the second calculator 722. [

따라서, 도 7b에 도시된 렌더링부(320)는 1980 byte의 제4 라인 메모리(714) 및 640 byte의 제1 내지 제3 서브 라인 메모리들(741, 742, 743)을 포함하므로, 즉, 2 * 1980 byte의 메모리를 요구하므로, 제 7a에 도시된 렌더링부(320)에서 요구되는 메모리의 용량(예를 들어, 3 * 1980 byte)에 비해 메모리 장치의 크기를 감소시킬 수 있다. 즉, 렌더링부(320)(또는, 미디어 파사드 시스템(100))의 구축 비용을 절감시킬 수 있다.7B includes the 1980-th fourth line memory 714 and the 640-byte first through third sub-line memories 741, 742 and 743, that is, 2 Since it requires 1980 bytes of memory, it is possible to reduce the size of the memory device compared to the memory capacity (e.g., 3 * 1980 bytes) required by the rendering unit 320 shown in FIG. 7a. That is, the construction cost of the rendering unit 320 (or the media facade system 100) can be reduced.

한편, 제3 산출기(750)는 제1 내지 제3 서브 라인 메모리들(741, 742, 743)에 저장된 3개의 서브 라인 데이터들 및 제3 렌더링 필터(RF3)에 기초하여 제3 렌더링 라인 데이터를 생성하여 계조 보정부(330)에 제공할 수 있다.On the other hand, the third calculator 750 calculates three subline data stored in the first to third subline memories 741, 742 and 743 and the third render line data And provides it to the tone corrector 330. FIG.

도 7a 및 도 7b를 참조하여 설명한 바와 같이, 렌더링부(320)는 렌더링 작업을 순차적으로 수행하도록 구성될 수 있으며, 이를 통해 동영상 등에 대한 불필요한 렌더링 작업을 감소시킬 수 있을 뿐만 아니라, 렌더링부(320)에 요구되는 메모리 장치의 요구 용량을 감소시켜, 렌더링부(320)(또는, 미디어 파사드 시스템(100))의 구축 비용을 절감시킬 수 있다.As described with reference to FIGS. 7A and 7B, the rendering unit 320 may be configured to sequentially perform rendering operations, thereby reducing unnecessary rendering operations for moving images and the like. In addition, the rendering unit 320 (Or the media facade system 100) by reducing the required capacity of the memory device required for the rendering unit 320 (or the media facade system 100).

도 8은 도 2의 미디어 파사드 시스템에서 수행하는 미디어 파사드 시스템의 영상 처리 방법을 나타내는 도면이다.FIG. 8 is a view illustrating a video processing method of a media facade system performed in the media facade system of FIG. 2. FIG.

도 2 및 도 8을 참조하면, 도 8의 방법은 외부로부터 제공되는 영상 데이터의 스케일링 비율, 유형 및 색분포도를 산출(S810)하고, 스케일링 비율 및 유형에 기초하여 복수의 렌더링 필터들 중 하나의 렌더링 필터를 선택(S820)하며, 선택된 렌더링 필터에 기초하여 영상 데이터를 렌더링 하여 렌더링 데이터를 생성(S830)하고, 유형 및 상기 색분포도에 기초하여 렌더링 데이터를 보정하여 색보정 데이터를 생성(S840)할 수 있다.Referring to FIGS. 2 and 8, the method of FIG. 8 calculates a scaling ratio, a type and a color distribution diagram of image data provided from the outside (S810), and calculates a scaling ratio, The rendering data is generated based on the selected rendering filter in step S830, the rendering data is generated based on the type and the color distribution map to generate color correction data in step S840, can do.

영상 데이터의 스케일링 비율, 유형 및 색분포도를 산출하는 구성은 도 3, 도 4a 및 도 4b를 참조하여 설명한 영상 분석부(310)의 동작과 실질적으로 동일하고, 렌더링 필터를 선택하여 렌더링 데이터를 생성하는 구성은 도 3, 도 5b, 도 7a 및 도 7b를 참조하여 설명한 렌더링부(320)의 동작과 실질적으로 동일하며, 색보정 데이터를 생성하는 구성은 도 3, 도 6a 및 도 6b를 참조하여 설명한 계조 보정부(330)의 동작과 실질적으로 동일하므로, 중복되는 설명은 반복하지 않기로 한다.The configuration for calculating the scaling ratio, type, and color distribution diagram of the image data is substantially the same as the operation of the image analysis unit 310 described with reference to FIGS. 3, 4A, and 4B, and the rendering data is generated The configuration for generating color correction data is substantially the same as the operation of the rendering unit 320 described with reference to Figs. 3, 5B, 7A, and 7B, and the configuration for generating color correction data is described with reference to Figs. 3, 6A, The operation of the tone corrector 330 is substantially the same as that of the tone corrector 330 described above, so that redundant description will not be repeated.

도 8을 참조하여 설명한 바와 같이, 미디어 파사드 시스템의 영상 처리 방법을 통해, 미디어 파사드 시스템(100)의 구축 비용(예를 들어, 메모리 장치의 비용)을 절감하고, 효율성을 향상시키며, 표시되는 영상(또는, 영상의 색변화)로 인한 광 공해를 저감시킬 수 있다.8, the image processing method of the media facade system can reduce the construction cost (for example, the cost of the memory device) of the media facade system 100, improve the efficiency, (Or the color change of the image) can be reduced.

본 발명은 영상 처리 장치, 미디어 파사드에 적용될 수 있다. The present invention can be applied to an image processing apparatus and a media facade.

상술한 바와 같이, 본 발명의 실시예들을 참조하여 설명하였지만, 해당 기술 분야에서 통상의 지식을 가진 자는 하기의 특허청구범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 것이다.While the present invention has been described with reference to exemplary embodiments, it is to be understood that the invention is not limited to the disclosed exemplary embodiments, but, on the contrary, is intended to cover various modifications and equivalent arrangements included within the spirit and scope of the appended claims. It will be understood that the invention may be varied and changed without departing from the scope of the invention.

100: 미디어 파사드 시스템 210: 영상 제어 장치
211: 수신 모듈 212: 영상 처리 모듈
213: 분배 모듈 220: LED 광원 어레이들
221: LED 점광원 310: 영상 분석부
320: 렌더링부 330: 계조 보정부
711 내지 714: 제1 내지 제4 라인 메모리들
721, 722: 제1 및 제2 산출기들 730: 출력 결정부
741 내지 743: 제1 내지 제3 서브 라인 메모리들
750: 제3 산출기
100: Media facade system 210: Image control device
211: Receiving module 212: Image processing module
213: Distribution module 220: LED light source arrays
221: LED point light source 310: image analysis unit
320: rendering unit 330:
711 to 714: First to fourth line memories
721, 722: first and second calculators 730: output determining unit
741 to 743: First to third sub line memories
750: Third Calculator

Claims (9)

구조물의 외벽에 배치되는 복수의 LED 점광원들을 이용하여 영상을 표시하는 미디어 파사드 시스템에서,
영상 데이터를 분석하여 상기 영상 데이터의 스케일링 비율, 유형, 색분포도 중 적어도 하나를 산출하는 영상 분석부;
상기 영상 분석부의 산출 결과에 기초하여 복수의 렌더링 필터들 중 하나의 렌더링 필터를 선택하고, 상기 선택된 렌더링 필터에 기초하여 상기 영상 데이터를 렌더링 하여 렌더링 데이터를 생성하는 렌더링부; 및
상기 색분포도에 기초하여 상기 렌더링 데이터를 보정하여 색보정 데이터를 생성하는 계조 보정부를 포함하고,
상기 LED 점광원들은 상기 색보정 데이터에 기초하여 영상을 표시하며,
상기 영상 분석부는, 상기 영상 데이터에 포함된 프레임 데이터의 시간에 따른 변화에 기초하여 상기 영상이 정지영상 또는 동영상인지 여부를 결정하고, 상기 영상이 동영상인 경우, 상기 영상 데이터에 포함된 계조값들에 기초하여 상기 색분포도를 산출하며,
상기 렌더링부는,
상기 영상이 정지영상이거나 상기 색분포도가 기준 범위 이내인 경우, 상기 렌더링 필터들 중 제1 렌더링 필터를 선택하고,
상기 영상이 동영상이고, 상기 색분포도가 기준 범위를 벗어나는 경우, 상기 렌더링 필터들 중 제2 렌더링 필터를 선택하며,
상기 제1 렌더링 필터의 크기는 상기 제2 렌더링 필터보다 큰 것을 특징으로 하는 미디어 파사드 시스템의 영상 처리 장치.
In a media facade system for displaying an image using a plurality of LED point light sources disposed on an outer wall of a structure,
An image analyzer for analyzing image data to calculate at least one of a scaling ratio, a type, and a color distribution of the image data;
A rendering unit for selecting one of the plurality of rendering filters based on the calculation result of the image analysis unit and rendering the image data based on the selected rendering filter to generate rendering data; And
And a tone correction section for correcting the rendering data based on the color distribution diagram to generate color correction data,
Wherein the LED point light sources display an image based on the color correction data,
Wherein the image analyzing unit determines whether the image is a still image or a moving image based on a change with time of frame data included in the image data, and when the image is a moving image, The color distribution diagram is calculated,
The rendering unit may include:
Selecting a first one of the rendering filters when the image is a still image or the color distribution is within a reference range,
Selecting a second one of the rendering filters when the image is a moving picture and the color distribution is out of a reference range,
Wherein the size of the first rendering filter is larger than that of the second rendering filter.
삭제delete 삭제delete 삭제delete 제 1 항에 있어서, 상기 제1 렌더링 필터는 상기 영상 데이터를 기준으로 3행*3열 픽셀 사이즈를 가지고,
상기 제2 렌더링 필터는 상기 영상 데이터를 기준으로 1행*3열 픽셀 사이즈를 가지는 것을 특징으로 하는 미디어 파사드 시스템의 영상 처리 장치.
The apparatus of claim 1, wherein the first rendering filter has a size of 3 rows * 3 columns based on the image data,
Wherein the second rendering filter has a size of 1 row * 3 columns based on the image data.
제 5 항에 있어서, 상기 렌더링부는,
상기 영상 데이터에 포함된 라인 데이터들 중에서 상호 인접하는 3개의 라인 데이터들을 저장하는 제1 내지 제3 라인 메모리들; 및
상기 3개의 라인 데이터들 및 상기 제1 렌더링 필터에 기초하여 제1 렌더링 라인 데이터를 생성하는 제1 산출기를 포함하고,
상기 제1 렌더링 라인 데이터는 상기 렌더링 데이터에 포함되는 것을 특징으로 하는 미디어 파사드 시스템의 영상 처리 장치.
6. The apparatus of claim 5,
First to third line memories for storing three adjacent line data among line data included in the image data; And
And a first calculator for generating the first rendering line data based on the three line data and the first rendering filter,
Wherein the first rendering line data is included in the rendering data.
삭제delete 삭제delete 복수의 LED 점광원들을 이용하여 영상을 표시하는 미디어 파사드 시스템에서,
외부로부터 제공되는 영상 데이터의 스케일링 비율, 유형 및 색분포도를 산출하는 단계;
상기 스케일링 비율 및 상기 유형에 기초하여 복수의 렌더링 필터들 중 하나의 렌더링 필터를 선택하는 단계;
상기 선택된 렌더링 필터에 기초하여 상기 영상 데이터를 렌더링 하여 렌더링 데이터를 생성하는 단계; 및
상기 유형 및 상기 색분포도에 기초하여 상기 렌더링 데이터를 보정하여 색보정 데이터를 생성하는 단계를 포함하는 미디어 파사드 시스템의 영상 처리 방법.
In a media facade system for displaying an image using a plurality of LED point light sources,
Calculating a scaling ratio, a type and a color distribution diagram of image data provided from the outside;
Selecting one of the plurality of rendering filters based on the scaling ratio and the type;
Rendering the image data based on the selected rendering filter to generate rendering data; And
And generating color correction data by correcting the rendering data based on the type and the color distribution diagram.
KR1020170117586A 2017-09-14 2017-09-14 Image processing device of media facade system and image processing method KR101955934B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170117586A KR101955934B1 (en) 2017-09-14 2017-09-14 Image processing device of media facade system and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170117586A KR101955934B1 (en) 2017-09-14 2017-09-14 Image processing device of media facade system and image processing method

Publications (1)

Publication Number Publication Date
KR101955934B1 true KR101955934B1 (en) 2019-03-08

Family

ID=65801108

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170117586A KR101955934B1 (en) 2017-09-14 2017-09-14 Image processing device of media facade system and image processing method

Country Status (1)

Country Link
KR (1) KR101955934B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102605483B1 (en) 2022-11-30 2023-11-24 주식회사히든테크 Frame Structure for Building Elevation Image

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009198530A (en) * 2008-02-19 2009-09-03 Sharp Corp Image display device and method
KR20140076898A (en) * 2012-12-13 2014-06-23 (주)윌넷 Method for displaying image in linear-disposed plurality of lighting diodes of scene lighting display system and cene lighting display system
KR20150004481A (en) 2013-07-02 2015-01-13 경북대학교 산학협력단 media facade materialization meatod, media facade materialization server and media facade materialization system
KR20150121864A (en) 2014-04-22 2015-10-30 주식회사 제논엘이디 MEDIA FACADE DEVICE USING LEDs
KR20160078748A (en) * 2014-12-24 2016-07-05 엘지디스플레이 주식회사 Display device and driving method thereof
KR20160101572A (en) * 2015-02-17 2016-08-25 엘지전자 주식회사 Image display apparatus and power saving method thereof

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009198530A (en) * 2008-02-19 2009-09-03 Sharp Corp Image display device and method
KR20140076898A (en) * 2012-12-13 2014-06-23 (주)윌넷 Method for displaying image in linear-disposed plurality of lighting diodes of scene lighting display system and cene lighting display system
KR20150004481A (en) 2013-07-02 2015-01-13 경북대학교 산학협력단 media facade materialization meatod, media facade materialization server and media facade materialization system
KR20150121864A (en) 2014-04-22 2015-10-30 주식회사 제논엘이디 MEDIA FACADE DEVICE USING LEDs
KR20160078748A (en) * 2014-12-24 2016-07-05 엘지디스플레이 주식회사 Display device and driving method thereof
KR20160101572A (en) * 2015-02-17 2016-08-25 엘지전자 주식회사 Image display apparatus and power saving method thereof

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102605483B1 (en) 2022-11-30 2023-11-24 주식회사히든테크 Frame Structure for Building Elevation Image

Similar Documents

Publication Publication Date Title
US8970642B2 (en) Display device and driving method thereof
US9105232B2 (en) Display device, data processing device for the same, and method thereof
KR102118576B1 (en) Display device, data processing apparatus and method thereof
KR102332592B1 (en) Display apparatus and display method
US20080088548A1 (en) Organic light emitting diode display device and driving method thereof
KR101992895B1 (en) Organic light emitting diode display device and method for driving the same
KR20140086620A (en) Display Device including RGBW Sub-Pixel and Method of Driving thereof
KR20130105145A (en) Data rendering method, data rendering device, and display comprising the data rendering device
KR102315266B1 (en) System and method of compesating brightness, display device having thereof
CN113053286A (en) Display device and driving method of display device
US11361731B2 (en) Display device and method of driving the same
KR102582631B1 (en) Method of driving a display panel and organic light emitting display device employing the same
KR20150119552A (en) Organic light emitting display device and driving method for the same
KR20150096000A (en) display device and driving method thereof
US20150138218A1 (en) Display driver and display device including the same
KR20210116834A (en) Display device and driving method thereof
KR20170036175A (en) Display apparatus and method of driving the same
KR20200004483A (en) Organic light emitting display device and method of driving the same
KR101955934B1 (en) Image processing device of media facade system and image processing method
KR20180113909A (en) Driver ic apparatus including correction function
KR102572575B1 (en) Organic light emitting display device and method for driving thereof
KR100570614B1 (en) Method for displaying gray scale of high load ratio image and plasma display panel driving apparatus using the same
KR20170014578A (en) Circuit for correcting gamma voltage of display device, method for driving the same and display device using the same
KR100508937B1 (en) Method for displaying gray scale on high efficient plasma display panel and plasma display panel driving apparatus using the same
KR20150115079A (en) Organic light emitting display device and driving method for the same

Legal Events

Date Code Title Description
GRNT Written decision to grant