KR102423052B1 - Display apparatus for dog and method of driving the same - Google Patents

Display apparatus for dog and method of driving the same Download PDF

Info

Publication number
KR102423052B1
KR102423052B1 KR1020220016419A KR20220016419A KR102423052B1 KR 102423052 B1 KR102423052 B1 KR 102423052B1 KR 1020220016419 A KR1020220016419 A KR 1020220016419A KR 20220016419 A KR20220016419 A KR 20220016419A KR 102423052 B1 KR102423052 B1 KR 102423052B1
Authority
KR
South Korea
Prior art keywords
image data
correction
data
grayscale
edge
Prior art date
Application number
KR1020220016419A
Other languages
Korean (ko)
Other versions
KR102423052B9 (en
Inventor
유봉현
김다미
Original Assignee
주식회사 써니웨이브텍
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 써니웨이브텍 filed Critical 주식회사 써니웨이브텍
Priority to KR1020220016419A priority Critical patent/KR102423052B1/en
Application granted granted Critical
Publication of KR102423052B1 publication Critical patent/KR102423052B1/en
Priority to PCT/KR2023/001577 priority patent/WO2023153723A1/en
Publication of KR102423052B9 publication Critical patent/KR102423052B9/en

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/10Intensity circuits
    • AHUMAN NECESSITIES
    • A01AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
    • A01KANIMAL HUSBANDRY; CARE OF BIRDS, FISHES, INSECTS; FISHING; REARING OR BREEDING ANIMALS, NOT OTHERWISE PROVIDED FOR; NEW BREEDS OF ANIMALS
    • A01K15/00Devices for taming animals, e.g. nose-rings or hobbles; Devices for overturning animals in general; Training or exercising equipment; Covering boxes
    • A01K15/02Training or exercising equipment, e.g. mazes or labyrinths for animals ; Electric shock devices ; Toys specially adapted for animals
    • AHUMAN NECESSITIES
    • A01AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
    • A01KANIMAL HUSBANDRY; CARE OF BIRDS, FISHES, INSECTS; FISHING; REARING OR BREEDING ANIMALS, NOT OTHERWISE PROVIDED FOR; NEW BREEDS OF ANIMALS
    • A01K15/00Devices for taming animals, e.g. nose-rings or hobbles; Devices for overturning animals in general; Training or exercising equipment; Covering boxes
    • A01K15/02Training or exercising equipment, e.g. mazes or labyrinths for animals ; Electric shock devices ; Toys specially adapted for animals
    • A01K15/025Toys specially adapted for animals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/20Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/20Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters
    • G09G3/2003Display of colours
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/64Circuits for processing colour signals
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/02Improving the quality of display appearance
    • G09G2320/0242Compensation of deficiencies in the appearance of colours
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/06Colour space transformation

Abstract

Provided is a display device for a dog, which includes a display panel, a driving control unit, and a data driving unit. The drive control unit converts input image data into output image data by performing at least one of color correction, contrast correction, gamma correction, edge correction, luminance correction, and driving frequency conversion based on dog's visual characteristics. The data driving unit generates a data voltage based on the output image data and outputs the data voltage to the display panel. Therefore, a single display device can be used by both dogs and humans.

Description

개용 표시 장치 및 이의 구동 방법 {DISPLAY APPARATUS FOR DOG AND METHOD OF DRIVING THE SAME}Display device for dog and driving method thereof

본 발명은 개용 표시 장치 및 이의 구동 방법에 관한 것으로, 보다 상세하게는 개의 시각적 특성에 맞게 입력 영상 데이터의 컬러 보정, 콘트라스트 보정, 감마 보정, 에지 보정, 휘도 보정 및 구동 주파수 변환 중 적어도 하나를 수행하는 개용 표시 장치 및 이의 구동 방법에 관한 것이다.The present invention relates to a dog display device and a driving method thereof, and more particularly, performing at least one of color correction, contrast correction, gamma correction, edge correction, luminance correction, and driving frequency conversion of input image data to match the visual characteristics of the dog. It relates to a dog display device and a method of driving the same.

사람은 색상을 감지하는 기능을 수행하는 원추세포를 갖는다. 사람은 세 종류의 원추세포들을 가지며, 각각 적색, 녹색, 청색을 인식할 수 있다. 즉, 사람은 적색, 녹색, 청색을 적당한 비율로 섞어서 다양한 색상을 인식할 수 있다.Humans have cones that perform the function of sensing color. Humans have three types of cone cells, and can recognize red, green, and blue, respectively. That is, a person can recognize various colors by mixing red, green, and blue in an appropriate ratio.

반면에, 개는 두 종류의 원추세포를 갖는다. 예를 들어, 개는 적색과 녹색을 황색으로 인식할 수 있고, 청색과 황색의 조합으로만 색상을 구분할 수 있다. 또한, 사람과 달리, 개는 자외선에 가까울수록 색 구분을 쉽게 한다. 즉, 사람과 달리, 개는 색의 민감도(sensitivity)가 청색에서 제일 높다.On the other hand, dogs have two types of cone cells. For example, a dog can perceive red and green as yellow, and can distinguish colors only with a combination of blue and yellow. Also, unlike humans, dogs can easily distinguish colors the closer they are to ultraviolet light. That is, unlike humans, dogs have the highest color sensitivity to blue.

또한, 개의 콘트라스트 인식, 에지 인식, 휘도 인식, 동영상 인식 등에 대한 시각적 특성이 사람의 시각적 특성과 달라, 종래의 사람용 표시 장치를 개가 시청하는 경우, 흥미를 잃게 되는 문제가 있다.In addition, visual characteristics for contrast recognition, edge recognition, luminance recognition, video recognition, etc. of dogs are different from human visual characteristics, so that when a dog views a conventional human display device, there is a problem in that the dog loses interest.

이에 본 발명의 기술적 과제는 이러한 점에서 착안된 것으로, 본 발명의 목적은 개의 시각적 특성을 고려하여 입력 영상 데이터를 변환하는 개용 표시 장치를 제공하는 것이다.Accordingly, it is an object of the present invention to provide a display device for dogs that converts input image data in consideration of visual characteristics of dogs.

본 발명의 다른 목적은 상기 개용 표시 장치를 구동하는 방법을 제공하는 것이다.Another object of the present invention is to provide a method of driving the personal display device.

상기한 본 발명의 목적을 실현하기 위한 일 실시예에 따른 개용 표시 장치는 표시 패널, 구동 제어부 및 데이터 구동부를 포함한다. 상기 구동 제어부는 개의 시각적 특성을 기초로 컬러 보정, 콘트라스트 보정, 감마 보정, 에지 보정, 휘도 보정 및 구동 주파수 변환 중 적어도 어느 하나를 수행하여 입력 영상 데이터를 출력 영상 데이터로 변환한다. 상기 데이터 구동부는 상기 출력 영상 데이터를 기초로 데이터 전압을 생성하여 상기 표시 패널에 출력한다. A personal display device according to an embodiment of the present invention includes a display panel, a driving control unit, and a data driving unit. The driving controller converts input image data into output image data by performing at least one of color correction, contrast correction, gamma correction, edge correction, luminance correction, and driving frequency transformation based on the visual characteristics of the dog. The data driver generates a data voltage based on the output image data and outputs it to the display panel.

본 발명의 일 실시예에 있어서, 상기 구동 제어부는 상기 입력 영상 데이터를 수신하고 상기 컬러 보정을 수행하여 상기 출력 영상 데이터를 출력하는 컬러 보정부를 포함할 수 있다. 상기 입력 영상 데이터는 입력 레드 데이터, 입력 그린 데이터 및 입력 블루 데이터를 포함할 수 있다. 상기 출력 영상 데이터는 출력 레드 데이터, 블루 보상 데이터, 출력 그린 데이터 및 출력 블루 데이터를 포함할 수 있다. 상기 컬러 보정부는 상기 입력 레드 데이터를 상기 출력 레드 데이터 및 상기 블루 보상 데이터로 변환할 수 있다. In one embodiment of the present invention, the driving control unit may include a color correction unit that receives the input image data, performs the color correction, and outputs the output image data. The input image data may include input red data, input green data, and input blue data. The output image data may include output red data, blue compensation data, output green data, and output blue data. The color corrector may convert the input red data into the output red data and the blue compensation data.

본 발명의 일 실시예에 있어서, 상기 구동 제어부는 상기 입력 영상 데이터를 수신하고 상기 컬러 보정을 수행하여 상기 출력 영상 데이터를 출력하는 컬러 보정부를 포함할 수 있다. 상기 입력 영상 데이터는 입력 레드 데이터, 입력 그린 데이터 및 입력 블루 데이터를 포함할 수 있다. 상기 출력 영상 데이터는 출력 레드 데이터, 블루 보상 데이터, 출력 그린 데이터 및 출력 블루 데이터를 포함할 수 있다. 상기 컬러 보정부는 상기 입력 그린 데이터를 상기 출력 그린 데이터 및 상기 블루 보상 데이터로 변환할 수 있다. In one embodiment of the present invention, the driving control unit may include a color correction unit that receives the input image data, performs the color correction, and outputs the output image data. The input image data may include input red data, input green data, and input blue data. The output image data may include output red data, blue compensation data, output green data, and output blue data. The color correction unit may convert the input green data into the output green data and the blue compensation data.

본 발명의 일 실시예에 있어서, 상기 구동 제어부는 상기 입력 영상 데이터 및 모드 신호를 수신하고 상기 컬러 보정을 수행하여 상기 출력 영상 데이터를 출력하는 컬러 보정부를 포함할 수 있다. 개 모드에서 상기 컬러 보정부는 입력 레드 데이터를 출력 레드 데이터 및 블루 보상 데이터로 변환하거나, 입력 그린 데이터를 출력 그린 데이터 및 상기 블루 보상 데이터로 변환할 수 있다. 사람 모드에서 상기 컬러 보정부는 상기 입력 영상 데이터를 상기 출력 영상 데이터로 출력할 수 있다. In one embodiment of the present invention, the driving control unit may include a color correction unit that receives the input image data and the mode signal, performs the color correction, and outputs the output image data. In the open mode, the color correction unit may convert input red data into output red data and blue compensation data, or convert input green data into output green data and blue compensation data. In the human mode, the color corrector may output the input image data as the output image data.

본 발명의 일 실시예에 있어서, 상기 구동 제어부는 상기 입력 영상 데이터를 수신하고 계조 휘도 곡선을 기초로 상기 콘트라스트 보정을 수행하여 상기 출력 영상 데이터를 출력하는 콘트라스트/감마 보정부를 포함할 수 있다. 상기 입력 영상 데이터는 제1 계조 영역을 갖는 제1 데이터, 상기 제1 계조 영역보다 큰 계조를 갖는 제2 계조 영역을 갖는 제2 데이터 및 상기 제2 계조 영역보다 큰 계조를 갖는 제3 계조 영역을 갖는 제3 데이터를 포함할 수 있다. 상기 제2 계조 영역에 대응하는 상기 계조 휘도 곡선의 제2 기울기는 상기 제1 계조 영역에 대응하는 상기 계조 휘도 곡선의 제1 기울기보다 클 수 있다. In an embodiment of the present invention, the driving control unit may include a contrast/gamma correction unit that receives the input image data and outputs the output image data by performing the contrast correction based on a grayscale luminance curve. The input image data includes first data having a first grayscale region, second data having a second grayscale region having a greater grayscale than the first grayscale region, and a third grayscale region having a greater grayscale than the second grayscale region. It may include third data with A second slope of the grayscale luminance curve corresponding to the second grayscale region may be greater than a first slope of the grayscale luminance curve corresponding to the first grayscale region.

본 발명의 일 실시예에 있어서, 상기 제2 계조 영역에 대응하는 상기 계조 휘도 곡선의 상기 제2 기울기는 상기 제3 계조 영역에 대응하는 상기 계조 휘도 곡선의 제3 기울기보다 클 수 있다. In an embodiment of the present invention, the second slope of the grayscale luminance curve corresponding to the second grayscale region may be greater than a third slope of the grayscale luminance curve corresponding to the third grayscale region.

본 발명의 일 실시예에 있어서, 상기 구동 제어부는 상기 입력 영상 데이터 및 모드 신호를 수신하고 상기 콘트라스트 보정을 수행하여 상기 출력 영상 데이터를 출력하는 콘트라스트/감마 보정부를 포함할 수 있다. 상기 입력 영상 데이터는 제1 계조 영역을 갖는 제1 데이터, 상기 제1 계조 영역보다 큰 계조를 갖는 제2 계조 영역을 갖는 제2 데이터 및 상기 제2 계조 영역보다 큰 계조를 갖는 제3 계조 영역을 갖는 제3 데이터를 포함할 수 있다. 개 모드에서 상기 콘트라스트/감마 보정부는 상기 제1 계조 영역에 대응하여 제1 기울기를 갖고, 상기 제2 계조 영역에 대응하여 상기 제1 기울기보다 큰 제2 기울기를 갖는 계조 휘도 곡선을 이용하여 상기 콘트라스트 보정을 수행할 수 있다. 사람 모드에서 상기 콘트라스트/감마 보정부는 상기 입력 영상 데이터를 상기 출력 영상 데이터로 출력할 수 있다. In an embodiment of the present invention, the driving controller may include a contrast/gamma corrector configured to receive the input image data and a mode signal, perform the contrast correction, and output the output image data. The input image data includes first data having a first grayscale region, second data having a second grayscale region having a greater grayscale than the first grayscale region, and a third grayscale region having a greater grayscale than the second grayscale region. It may include third data with In the open mode, the contrast/gamma correction unit uses a grayscale luminance curve having a first gradient corresponding to the first grayscale region and a second gradient greater than the first gradient corresponding to the second grayscale region. Calibration can be performed. In the human mode, the contrast/gamma corrector may output the input image data as the output image data.

본 발명의 일 실시예에 있어서, 상기 구동 제어부는 상기 입력 영상 데이터를 수신하고 상기 에지 보정을 수행하여 상기 출력 영상 데이터를 출력하는 에지 보정부를 포함할 수 있다. 상기 에지 보정부는 상기 입력 영상 데이터가 정지 영상인지 동영상인지 판단하는 영상 분석부 및 상기 입력 영상 데이터가 정지 영상일 때, 상기 에지 보정을 수행하고, 상기 입력 영상 데이터가 동영상일 때, 상기 에지 보정을 수행하지 않는 보정 적용부를 포함할 수 있다. In an embodiment of the present invention, the driving control unit may include an edge correction unit that receives the input image data and outputs the output image data by performing the edge correction. The edge correction unit includes an image analysis unit that determines whether the input image data is a still image or a moving image, and performs the edge correction when the input image data is a still image, and performs the edge correction when the input image data is a moving image. It may include a correction application unit that is not performed.

본 발명의 일 실시예에 있어서, 상기 구동 제어부는 상기 입력 영상 데이터를 수신하고 상기 에지 보정을 수행하여 상기 출력 영상 데이터를 출력하는 에지 보정부를 포함할 수 있다. 상기 에지 보정부는 상기 입력 영상 데이터를 분석하는 영상 분석부 및 이전 프레임 데이터와 현재 프레임 데이터 사이에 데이터가 변화된 픽셀의 개수가 문턱값보다 작을 때, 상기 에지 보정을 수행하고, 상기 이전 프레임 데이터와 상기 현재 프레임 데이터 사이에 데이터가 변화된 픽셀의 개수가 상기 문턱값보다 크거나 같을 때, 상기 에지 보정을 수행하지 않는 보정 적용부를 포함할 수 있다. In an embodiment of the present invention, the driving control unit may include an edge correction unit that receives the input image data and outputs the output image data by performing the edge correction. The edge correction unit performs the edge correction when the image analyzer that analyzes the input image data and the number of pixels in which data is changed between the previous frame data and the current frame data is less than a threshold value, the previous frame data and the previous frame data and a correction applying unit that does not perform the edge correction when the number of pixels in which data is changed between the current frame data is greater than or equal to the threshold value.

본 발명의 일 실시예에 있어서, 상기 구동 제어부는 상기 입력 영상 데이터를 수신하고 상기 에지 보정을 수행하여 상기 출력 영상 데이터를 출력하는 에지 보정부를 포함할 수 있다. 상기 에지 보정부는 상기 입력 영상 데이터 내에 주인의 얼굴이 있는지 판단하는 영상 분석부 및 상기 입력 영상 데이터 내에 상기 주인의 얼굴이 있을 때, 상기 에지 보정을 수행하고, 상기 입력 영상 데이터 내에 상기 주인의 얼굴이 없을 때, 상기 에지 보정을 수행하지 않는 보정 적용부를 포함할 수 있다. In an embodiment of the present invention, the driving control unit may include an edge correction unit that receives the input image data and outputs the output image data by performing the edge correction. The edge correction unit is an image analysis unit that determines whether the owner's face is present in the input image data, and performs the edge correction when the owner's face is present in the input image data, and includes the owner's face in the input image data. When there is no such thing, a correction applying unit that does not perform the edge correction may be included.

본 발명의 일 실시예에 있어서, 상기 구동 제어부는 상기 입력 영상 데이터를 수신하고 상기 에지 보정을 수행하여 상기 출력 영상 데이터를 출력하는 에지 보정부를 포함할 수 있다. 상기 에지 보정부는 상기 입력 영상 데이터를 분석하는 영상 분석부 및 상기 에지 보정을 선택적으로 적용하는 보정 적용부를 포함할 수 있다. 상기 보정 적용부는 상기 입력 영상 데이터 내에서 에지의 위치를 검출하는 에지 판단부 및 상기 에지에 대응하는 경계 영역에서 계조의 차이를 증가시켜 에지를 강조하는 에지 오버드라이브부를 포함할 수 있다.In an embodiment of the present invention, the driving control unit may include an edge correction unit that receives the input image data and outputs the output image data by performing the edge correction. The edge correction unit may include an image analyzer analyzing the input image data and a correction applying unit selectively applying the edge correction. The correction applying unit may include an edge determination unit detecting a position of an edge in the input image data, and an edge overdrive unit emphasizing an edge by increasing a difference in grayscale in a boundary region corresponding to the edge.

본 발명의 일 실시예에 있어서, 상기 입력 영상 데이터가 제1 계조를 갖는 제1 영역 및 상기 제1 계조보다 큰 제2 계조를 갖는 제2 영역을 포함하고, 상기 입력 영상 데이터 내에서 상기 제1 영역과 상기 제2 영역 사이에 상기 경계 영역이 형성될 때, 상기 출력 영상 데이터에서 상기 제1 영역 중 경계에 가장 가까운 제1 영역 제1 경계 픽셀은 상기 제1 계조보다 작은 제1 영역 제1 경계 계조를 갖고, 상기 제2 영역 중 상기 경계에 가장 가까운 제2 영역 제1 경계 픽셀은 상기 제2 계조보다 큰 제2 영역 제1 경계 계조를 가질 수 있다. In an embodiment of the present invention, the input image data includes a first area having a first gray level and a second area having a second gray level greater than the first gray level, and in the input image data, the first area When the boundary region is formed between the region and the second region, a first region first boundary pixel closest to the boundary among the first regions in the output image data is a first region first boundary pixel smaller than the first grayscale A first boundary pixel of a second region having a grayscale and closest to the boundary among the second regions may have a first boundary grayscale in a second region greater than the second grayscale.

본 발명의 일 실시예에 있어서, 상기 입력 영상 데이터 내에서 상기 제1 영역과 상기 제2 영역 사이에 상기 경계 영역이 형성될 때, 상기 출력 영상 데이터에서 상기 제1 영역 중 상기 제1 영역 제1 경계 픽셀에 이웃한 제1 영역 제2 경계 픽셀은 상기 제1 계조보다 작고 상기 제1 영역 제1 경계 계조보다 큰 제1 영역 제2 경계 계조를 갖고, 상기 제2 영역 중 상기 제2 영역 제1 경계 픽셀에 이웃한 제2 영역 제2 경계 픽셀은 상기 제2 계조보다 크고 상기 제2 영역 제1 경계 계조보다 작은 제2 영역 제2 경계 계조를 가질 수 있다. In an embodiment of the present invention, when the boundary region is formed between the first region and the second region in the input image data, the first region of the first region in the output image data A second boundary pixel of a first area adjacent to the boundary pixel has a first area second boundary gray level smaller than the first gray level and larger than the first area first boundary gray level, and the second area first among the second areas A second boundary pixel of a second area adjacent to the boundary pixel may have a second boundary grayscale of a second area greater than the second grayscale and smaller than the first boundary grayscale of the second area.

본 발명의 일 실시예에 있어서, 상기 입력 영상 데이터가 제1 계조를 갖는 제1 영역 및 상기 제1 계조보다 큰 제2 계조를 갖는 제2 영역을 포함하고, 상기 입력 영상 데이터 내에서 상기 제1 영역과 상기 제2 영역 사이에 상기 경계 영역이 형성될 때, 상기 출력 영상 데이터에서 상기 제1 영역 중 경계에 가장 가까운 제1 영역 제1 경계 픽셀 그룹은 상기 제1 계조보다 작은 제1 영역 제1 경계 계조를 갖고, 상기 제2 영역 중 상기 경계에 가장 가까운 제2 영역 제1 경계 픽셀 그룹은 상기 제2 계조보다 큰 제2 영역 제1 경계 계조를 가질 수 있다. In an embodiment of the present invention, the input image data includes a first area having a first gray level and a second area having a second gray level greater than the first gray level, and in the input image data, the first area When the boundary region is formed between the region and the second region, a first region first boundary pixel group closest to the boundary among the first regions in the output image data is smaller than the first grayscale. A first boundary pixel group in a second region having a boundary grayscale and closest to the boundary among the second regions may have a first boundary grayscale in a second region greater than the second grayscale.

본 발명의 일 실시예에 있어서, 상기 입력 영상 데이터 내에서 상기 제1 영역과 상기 제2 영역 사이에 상기 경계 영역이 형성될 때, 상기 출력 영상 데이터에서 상기 제1 영역 중 상기 제1 영역 제1 경계 픽셀 그룹에 이웃한 제1 영역 제2 경계 픽셀 그룹은 상기 제1 계조보다 작고 상기 제1 영역 제1 경계 계조보다 큰 제1 영역 제2 경계 계조를 갖고, 상기 제2 영역 중 상기 제2 영역 제1 경계 픽셀 그룹에 이웃한 제2 영역 제2 경계 픽셀 그룹은 상기 제2 계조보다 크고 상기 제2 영역 제1 경계 계조보다 작은 제2 영역 제2 경계 계조를 가질 수 있다. In an embodiment of the present invention, when the boundary region is formed between the first region and the second region in the input image data, the first region of the first region in the output image data A first region second boundary pixel group adjacent to the boundary pixel group has a first region second boundary grayscale that is smaller than the first grayscale and greater than the first boundary grayscale of the first area, wherein the second area of the second area A second boundary pixel group of a second area adjacent to the first boundary pixel group may have a second boundary grayscale of a second area greater than the second grayscale and smaller than the first boundary grayscale of the second area.

본 발명의 일 실시예에 있어서, 상기 구동 제어부는 상기 입력 영상 데이터를 수신하고 상기 에지 보정을 수행하여 상기 출력 영상 데이터를 출력하는 에지 보정부를 포함할 수 있다. 상기 에지 보정부에서 사용되는 에지 보정 필터는

Figure 112022014168851-pat00001
일 수 있다. In an embodiment of the present invention, the driving control unit may include an edge correction unit that receives the input image data and outputs the output image data by performing the edge correction. The edge correction filter used in the edge correction unit is
Figure 112022014168851-pat00001
can be

본 발명의 일 실시예에 있어서, 상기 구동 제어부는 상기 입력 영상 데이터를 수신하고 상기 에지 보정을 수행하여 상기 출력 영상 데이터를 출력하는 에지 보정부를 포함할 수 있다. 상기 에지 보정부에서 사용되는 에지 보정 필터는

Figure 112022014168851-pat00002
일 수 있다.In an embodiment of the present invention, the driving control unit may include an edge correction unit that receives the input image data and outputs the output image data by performing the edge correction. The edge correction filter used in the edge correction unit is
Figure 112022014168851-pat00002
can be

본 발명의 일 실시예에 있어서, 상기 구동 제어부는 상기 입력 영상 데이터를 수신하고 상기 에지 보정을 수행하여 상기 출력 영상 데이터를 출력하는 에지 보정부를 포함할 수 있다. 상기 에지 보정부에서 사용되는 에지 보정 필터는

Figure 112022014168851-pat00003
일 수 있다.In an embodiment of the present invention, the driving control unit may include an edge correction unit that receives the input image data and outputs the output image data by performing the edge correction. The edge correction filter used in the edge correction unit is
Figure 112022014168851-pat00003
can be

본 발명의 일 실시예에 있어서, 상기 구동 제어부는 상기 입력 영상 데이터 및 모드 신호를 수신하고 상기 에지 보정을 수행하여 상기 출력 영상 데이터를 출력하는 에지 보정부를 포함할 수 있다. 개 모드에서 상기 에지 보정부는 상기 입력 영상 데이터의 에지 영역을 강조하는 상기 에지 보정을 수행할 수 있다. 사람 모드에서 상기 에지 보정부는 상기 입력 영상 데이터를 상기 출력 영상 데이터로 출력할 수 있다. In one embodiment of the present invention, the driving control unit may include an edge correction unit that receives the input image data and the mode signal, performs the edge correction, and outputs the output image data. In the open mode, the edge correction unit may perform the edge correction for emphasizing an edge region of the input image data. In the human mode, the edge corrector may output the input image data as the output image data.

본 발명의 일 실시예에 있어서, 상기 구동 제어부는 상기 입력 영상 데이터 및 모드 신호를 수신하고 상기 출력 영상 데이터를 출력하는 휘도 보정부를 포함할 수 있다. 개 모드에서 상기 출력 영상 데이터의 최대 휘도는 사람 모드에서 상기 출력 영상 데이터의 최대 휘도보다 클 수 있다. In an embodiment of the present invention, the driving control unit may include a luminance correction unit that receives the input image data and the mode signal and outputs the output image data. The maximum luminance of the output image data in the dog mode may be greater than the maximum luminance of the output image data in the human mode.

본 발명의 일 실시예에 있어서, 상기 구동 제어부는 상기 입력 영상 데이터의 제1 프레임 영상 및 제2 프레임 영상 사이에 추가 영상을 삽입하여 상기 출력 영상 데이터를 생성하는 구동 주파수 제어부를 포함할 수 있다. In an embodiment of the present invention, the driving controller may include a driving frequency controller configured to generate the output image data by inserting an additional image between a first frame image and a second frame image of the input image data.

본 발명의 일 실시예에 있어서, 상기 추가 영상은 주인의 얼굴 사진일 수 있다. In one embodiment of the present invention, the additional image may be a photograph of the owner's face.

본 발명의 일 실시예에 있어서, 상기 추가 영상은 개의 주의를 끌기 위해 미리 생성된 영상이며, 상기 제1 프레임 영상 및 상기 제2 프레임 영상과 무관한 영상일 수 있다. In an embodiment of the present invention, the additional image is an image previously generated to draw the dog's attention, and may be an image independent of the first frame image and the second frame image.

본 발명의 일 실시예에 있어서, 상기 추가 영상은 상기 제1 프레임 영상의 물체의 위치 및 상기 제2 프레임 영상 내에서 상기 물체의 위치의 사이에 상기 물체가 위치하는 움직임 보상 영상 및 주인의 얼굴 사진 또는 개의 주의를 끌기 위해 상기 제1 프레임 영상 및 상기 제2 프레임 영상과 무관하게 생성된 영상을 포함할 수 있다. In one embodiment of the present invention, the additional image includes a motion compensation image in which the object is located between the position of the object in the first frame image and the position of the object in the second frame image and a photograph of the owner's face. Alternatively, an image generated independently of the first frame image and the second frame image may be included to draw the dog's attention.

본 발명의 일 실시예에 있어서, 상기 추가 영상은 상기 제1 프레임 영상의 물체의 위치 및 상기 제2 프레임 영상 내에서 상기 물체의 위치의 사이에 상기 물체가 위치하는 움직임 보상 영상 및 주인의 얼굴 사진의 합성 영상일 수 있다. In one embodiment of the present invention, the additional image includes a motion compensation image in which the object is located between the position of the object in the first frame image and the position of the object in the second frame image and a photograph of the owner's face. may be a composite image of

본 발명의 일 실시예에 있어서, 상기 추가 영상은 상기 제1 프레임 영상 또는 상기 제2 프레임 영상을 복사한 복사 영상 및 주인의 얼굴 사진 또는 개의 주의를 끌기 위해 상기 제1 프레임 영상 및 상기 제2 프레임 영상과 무관하게 생성된 영상을 포함할 수 있다. In one embodiment of the present invention, the additional image is a copy image of the first frame image or the second frame image, a face photograph of the owner, or the first frame image and the second frame image to draw the dog's attention. An image generated regardless of the image may be included.

본 발명의 일 실시예에 있어서, 상기 추가 영상은 상기 제1 프레임 영상 또는 상기 제2 프레임 영상을 복사한 복사 영상 및 주인의 얼굴 사진의 합성 영상일 수 있다. In an embodiment of the present invention, the additional image may be a composite image of a copy image obtained by copying the first frame image or the second frame image and a photograph of the owner's face.

본 발명의 일 실시예에 있어서, 상기 구동 제어부는 상기 입력 영상 데이터 및 모드 신호를 수신하고 상기 출력 영상 데이터를 출력하는 구동 주파수 제어부를 포함할 수 있다. 개 모드에서 상기 출력 영상 데이터의 구동 주파수는 사람 모드에서 상기 출력 영상 데이터의 구동 주파수보다 클 수 있다. In an embodiment of the present invention, the driving controller may include a driving frequency controller configured to receive the input image data and a mode signal and output the output image data. A driving frequency of the output image data in the dog mode may be greater than a driving frequency of the output image data in the human mode.

상기한 본 발명의 다른 목적을 실현하기 위한 일 실시예에 따른 개용 표시 장치의 구동 방법은 개의 시각적 특성을 기초로 컬러 보정, 콘트라스트 보정, 감마 보정, 에지 보정, 휘도 보정 및 구동 주파수 변환 중 적어도 어느 하나를 수행하여 입력 영상 데이터를 출력 영상 데이터로 변환하는 단계, 상기 출력 영상 데이터를 기초로 데이터 신호를 생성하는 단계, 상기 데이터 신호를 데이터 전압으로 변환하는 단계 및 상기 데이터 전압을 표시 패널에 출력하는 단계를 포함한다. A method of driving a display device for a dog according to an embodiment of the present invention for realizing another object of the present invention is at least one of color correction, contrast correction, gamma correction, edge correction, luminance correction, and driving frequency conversion based on the visual characteristics of the dog. performing one of the steps of converting input image data into output image data, generating a data signal based on the output image data, converting the data signal into a data voltage, and outputting the data voltage to a display panel. includes steps.

이와 같은 개용 표시 장치 및 상기 개용 표시 장치의 구동 방법에 따르면, 개의 시각적 특성에 맞게 입력 영상 데이터의 컬러 보정을 수행하므로, 영상을 시청하는 개의 몰입도를 높일 수 있다. 또한, 상기 개용 표시 장치는 개 모드에서 컬러 보정을 수행하고, 사람 모드에서 컬러 보정을 수행하지 않으므로, 하나의 표시 장치를 개와 사람이 함께 이용할 수 있다. According to the display device for dogs and the driving method of the display device for dogs, color correction of input image data is performed according to the visual characteristics of the dog, so that the immersion level of the dog viewing the image can be increased. Also, since the display device for dogs performs color correction in the dog mode and does not perform color correction in the human mode, a single display device can be used by both dogs and humans.

또한, 개의 시각적 특성에 맞게 입력 영상 데이터(IMG)의 콘트라스트 보정 및 감마 보정을 수행하므로, 영상을 시청하는 개의 몰입도를 높일 수 있다. 또한, 상기 개용 표시 장치는 개 모드에서 콘트라스트 보정을 수행하고, 개의 특성에 맞는 감마 보정을 수행하며, 사람 모드에서 콘트라스트 보정을 수행하지 않고, 사람의 특성에 맞는 감마 보정을 수행하므로, 하나의 표시 장치를 개와 사람이 함께 이용할 수 있다.In addition, since the contrast correction and gamma correction of the input image data IMG are performed according to the visual characteristics of the dog, the immersion level of the dog watching the image may be increased. In addition, the display device for dogs performs contrast correction in the dog mode, gamma correction suitable for dog characteristics, and does not perform contrast correction in the human mode, but performs gamma correction suitable for human characteristics. The device can be used by dogs and humans alike.

또한, 개의 시각적 특성에 맞게 입력 영상 데이터의 에지 보정을 수행하므로, 영상을 시청하는 개의 몰입도를 높일 수 있다. 또한, 상기 개용 표시 장치는 개 모드에서 에지 보정을 수행하고, 사람 모드에서 에지 보정을 수행하지 않으므로, 하나의 표시 장치를 개와 사람이 함께 이용할 수 있다.In addition, since edge correction of the input image data is performed according to the visual characteristics of the dog, the immersion level of the dog watching the image may be increased. Also, since the display device for dogs performs edge correction in the dog mode and does not perform edge correction in the human mode, a single display device can be used by both dogs and humans.

또한, 개의 시각적 특성에 맞게 개 모드에서 영상 데이터의 최대 휘도를 사람 모드에서 영상 데이터의 최대 휘도보다 높게 설정할 수 있다. 따라서, 영상을 시청하는 개의 몰입도를 높일 수 있다In addition, the maximum luminance of the image data in the dog mode may be set to be higher than the maximum luminance of the image data in the human mode according to the visual characteristics of the dog. Therefore, it is possible to increase the immersion level of the dog watching the video.

또한, 개의 시각적 특성에 맞게 입력 영상 데이터의 구동 주파수 변환을 수행하므로, 영상을 시청하는 개의 몰입도를 높일 수 있다. 또한, 상기 개용 표시 장치는 개 모드에서 구동 주파수 변환을 수행하고, 사람 모드에서 구동 주파수 변환을 수행하지 않으므로, 하나의 표시 장치를 개와 사람이 함께 이용할 수 있다.In addition, since the driving frequency conversion of the input image data is performed according to the visual characteristics of the dog, the immersion level of the dog watching the image may be increased. Also, since the display device for dogs performs driving frequency conversion in dog mode and does not perform driving frequency conversion in human mode, a single display device can be used by both dogs and humans.

도 1a는 본 발명의 일 실시예에 따른 개용 표시 장치가 사용되는 일 예를 나타내는 도면이다.
도 1b는 본 발명의 일 실시예에 따른 개용 표시 장치를 나타내는 블록도이다.
도 2는 도 1b의 구동 제어부의 일례를 나타내는 블록도이다.
도 3은 도 1b의 구동 제어부의 일례를 나타내는 블록도이다.
도 4는 도 1b의 구동 제어부의 일례를 나타내는 블록도이다.
도 5는 도 4의 콘트라스트/감마 보정부의 콘트라스트 보정 동작을 나타내는 그래프이다.
도 6은 도 4의 콘트라스트/감마 보정부에 입력되는 입력 영상 데이터를 나타내는 도면이다.
도 7은 개에게 인식되는 도 6의 입력 영상 데이터를 나타내는 도면이다.
도 8은 개에게 인식되는 도 4의 콘트라스트/감마 보정부의 출력 영상 데이터를 나타내는 도면이다.
도 9는 도 4의 콘트라스트/감마 보정부의 감마 보정 동작을 나타내는 그래프이다.
도 10은 도 4의 콘트라스트/감마 보정부의 감마 보정 동작을 나타내는 표이다.
도 11a, 도 11b 및 도 11c는 비교예에 따른 감마 보정 동작을 나타내는 그래프이다.
도 12a, 도 12b 및 도 12c는 본 실시예에 따른 감마 보정 동작을 나타내는 그래프이다.
도 13은 도 1b의 구동 제어부의 일례를 나타내는 블록도이다.
도 14는 도 1b의 구동 제어부의 일례를 나타내는 블록도이다.
도 15는 도 14의 에지 보정부의 일례를 나타내는 블록도이다.
도 16은 도 15의 보정 적용부에서 사용되는 필터의 일례를 나타내는 블록도이다.
도 17은 도 15의 보정 적용부에서 사용되는 필터의 일례를 나타내는 블록도이다.
도 18은 도 15의 보정 적용부에서 사용되는 필터의 일례를 나타내는 블록도이다.
도 19는 개의 시각과 사람의 시각의 공간 주파수를 나타내는 개념도이다.
도 20은 도 14의 에지 보정부의 입력 영상 데이터를 나타내는 도면이다.
도 21은 개에게 인식되는 도 20의 입력 영상 데이터를 나타내는 도면이다.
도 22는 도 14의 에지 보정부의 출력 영상 데이터를 나타내는 도면이다.
도 23은 개에게 인식되는 도 22의 출력 영상 데이터를 나타내는 도면이다.
도 24는 도 15의 보정 적용부의 일례를 나타내는 블록도이다.
도 25는 도 24의 에지 판단부에 의해 판단되는 입력 영상 데이터의 에지 영역을 나타내는 도면이다.
도 26은 도 24의 에지 오버드라이브부의 동작의 일례를 나타내는 개념도이다.
도 27은 도 24의 에지 오버드라이브부의 동작의 일례를 나타내는 개념도이다.
도 28은 도 1b의 구동 제어부의 일례를 나타내는 블록도이다.
도 29는 도 1b의 구동 제어부의 일례를 나타내는 블록도이다.
도 30은 도 1b의 구동 제어부의 일례를 나타내는 블록도이다.
도 31은 도 30의 구동 주파수 제어부의 동작의 일례를 나타내는 도면이다.
도 32는 도 30의 구동 주파수 제어부의 동작의 일례를 나타내는 도면이다.
도 33은 도 30의 구동 주파수 제어부의 동작의 일례를 나타내는 도면이다.
도 34는 도 1b의 구동 제어부의 일례를 나타내는 블록도이다.
1A is a diagram illustrating an example in which a dog display device according to an embodiment of the present invention is used.
1B is a block diagram illustrating a display device for a dog according to an embodiment of the present invention.
FIG. 2 is a block diagram illustrating an example of a driving control unit of FIG. 1B .
3 is a block diagram illustrating an example of a driving control unit of FIG. 1B .
4 is a block diagram illustrating an example of a driving control unit of FIG. 1B .
FIG. 5 is a graph illustrating a contrast correction operation of the contrast/gamma correction unit of FIG. 4 .
FIG. 6 is a diagram illustrating input image data input to the contrast/gamma correction unit of FIG. 4 .
7 is a diagram illustrating input image data of FIG. 6 recognized by a dog.
8 is a diagram illustrating output image data of the contrast/gamma correction unit of FIG. 4 recognized by a dog.
9 is a graph illustrating a gamma correction operation of the contrast/gamma correction unit of FIG. 4 .
10 is a table illustrating a gamma correction operation of the contrast/gamma correction unit of FIG. 4 .
11A, 11B, and 11C are graphs illustrating a gamma correction operation according to a comparative example.
12A, 12B, and 12C are graphs illustrating a gamma correction operation according to the present exemplary embodiment.
13 is a block diagram illustrating an example of a driving control unit of FIG. 1B .
14 is a block diagram illustrating an example of a driving control unit of FIG. 1B .
15 is a block diagram illustrating an example of the edge correction unit of FIG. 14 .
16 is a block diagram illustrating an example of a filter used in the correction applying unit of FIG. 15 .
17 is a block diagram illustrating an example of a filter used in the correction applying unit of FIG. 15 .
18 is a block diagram illustrating an example of a filter used in the correction applying unit of FIG. 15 .
19 is a conceptual diagram illustrating spatial frequencies of a dog's vision and a human's vision.
20 is a diagram illustrating input image data of the edge correction unit of FIG. 14 .
FIG. 21 is a diagram illustrating input image data of FIG. 20 recognized by a dog.
22 is a diagram illustrating output image data of the edge corrector of FIG. 14 .
23 is a diagram illustrating output image data of FIG. 22 recognized by a dog.
24 is a block diagram illustrating an example of the correction applying unit of FIG. 15 .
25 is a diagram illustrating an edge region of input image data determined by the edge determining unit of FIG. 24 .
26 is a conceptual diagram illustrating an example of the operation of the edge overdrive unit of FIG. 24 .
27 is a conceptual diagram illustrating an example of the operation of the edge overdrive unit of FIG. 24 .
28 is a block diagram illustrating an example of a drive control unit of FIG. 1B .
29 is a block diagram illustrating an example of a drive control unit of FIG. 1B .
30 is a block diagram illustrating an example of a driving control unit of FIG. 1B .
FIG. 31 is a diagram showing an example of the operation of the driving frequency control unit of FIG. 30 .
FIG. 32 is a diagram showing an example of the operation of the driving frequency control unit of FIG. 30 .
FIG. 33 is a diagram showing an example of the operation of the driving frequency control unit of FIG. 30 .
Fig. 34 is a block diagram showing an example of the drive control unit of Fig. 1B.

본문에 개시되어 있는 본 발명의 실시예들에 대해서, 특정한 구조적 내지 기능적 설명들은 단지 본 발명의 실시예를 설명하기 위한 목적으로 예시된 것으로, 본 발명의 실시예들은 다양한 형태로 실시될 수 있으며 본문에 설명된 실시예들에 한정되는 것으로 해석되어서는 아니 된다.With respect to the embodiments of the present invention disclosed in the text, specific structural or functional descriptions are only exemplified for the purpose of describing the embodiments of the present invention, and the embodiments of the present invention may be embodied in various forms. It should not be construed as being limited to the embodiments described in .

본 발명은 다양한 변경을 가할 수 있고 여러 가지 형태를 가질 수 있는바, 특정 실시예들을 도면에 예시하고 본문에 상세하게 설명하고자 한다. 그러나 이는 본 발명을 특정한 개시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.Since the present invention can have various changes and can have various forms, specific embodiments are illustrated in the drawings and described in detail in the text. However, this is not intended to limit the present invention to the specific disclosed form, it should be understood to include all modifications, equivalents and substitutes included in the spirit and scope of the present invention.

제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로 사용될 수 있다. 예를 들어, 본 발명의 권리 범위로부터 이탈되지 않은 채 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다.Terms such as first, second, etc. may be used to describe various elements, but the elements should not be limited by the terms. The above terms may be used for the purpose of distinguishing one component from another. For example, without departing from the scope of the present invention, a first component may be referred to as a second component, and similarly, a second component may also be referred to as a first component.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. 구성요소들 간의 관계를 설명하는 다른 표현들, 즉 "~사이에"와 "바로 ~사이에" 또는 "~에 이웃하는"과 "~에 직접 이웃하는" 등도 마찬가지로 해석되어야 한다.When a component is referred to as being “connected” or “connected” to another component, it may be directly connected or connected to the other component, but it is understood that other components may exist in between. it should be On the other hand, when it is said that a certain element is "directly connected" or "directly connected" to another element, it should be understood that the other element does not exist in the middle. Other expressions describing the relationship between elements, such as "between" and "immediately between" or "neighboring to" and "directly adjacent to", etc., should be interpreted similarly.

본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 기재된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terms used in the present application are only used to describe specific embodiments, and are not intended to limit the present invention. The singular expression includes the plural expression unless the context clearly dictates otherwise. In this application, terms such as "comprise" or "have" are intended to designate that the described feature, number, step, operation, component, part, or combination thereof is present, and includes one or more other features or numbers, It should be understood that the possibility of the presence or addition of steps, operations, components, parts or combinations thereof is not precluded in advance.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미이다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미인 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless defined otherwise, all terms used herein, including technical and scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which this invention belongs. Terms such as those defined in commonly used dictionaries should be interpreted as meanings consistent with the context of the related art, and unless explicitly defined in the present application, they are not to be interpreted in an ideal or excessively formal meaning. .

한편, 어떤 실시예가 달리 구현 가능한 경우에 특정 블록 내에 명기된 기능 또는 동작이 순서도에 명기된 순서와 다르게 일어날 수도 있다. 예를 들어, 연속하는 두 블록이 실제로는 실질적으로 동시에 수행될 수도 있고, 관련된 기능 또는 동작에 따라서는 상기 블록들이 거꾸로 수행될 수도 있다.On the other hand, when a certain embodiment can be implemented differently, functions or operations specified in a specific block may occur in a different order from that specified in the flowchart. For example, two consecutive blocks may be performed substantially simultaneously, or the blocks may be performed in reverse according to a related function or operation.

이하, 첨부한 도면들을 참조하여, 본 발명의 바람직한 실시예를 보다 상세하게 설명하고자 한다. 도면상의 동일한 구성요소에 대해서는 동일한 참조부호를 사용하고 동일한 구성요소에 대해서 중복된 설명은 생략한다.Hereinafter, preferred embodiments of the present invention will be described in more detail with reference to the accompanying drawings. The same reference numerals are used for the same components in the drawings, and repeated descriptions of the same components are omitted.

도 1a는 본 발명의 일 실시예에 따른 개용 표시 장치가 사용되는 일 예를 나타내는 도면이다. 도 1b는 본 발명의 일 실시예에 따른 개용 표시 장치를 나타내는 블록도이다.1A is a diagram illustrating an example in which a dog display device according to an embodiment of the present invention is used. 1B is a block diagram illustrating a display device for a dog according to an embodiment of the present invention.

도 1a 및 도 1b를 참조하면, 개용 표시 장치는 개가 볼 수 있는 위치(또는, 높이)에 설치되고, 개의 시각적 특성을 고려한 영상 데이터를 기초로 영상을 표시할 수 있다. 개의 시각적 특성을 고려한 영상 데이터를 기초로 영상을 표시함으로써, 개의 영상에 대한 집중력이 향상될 수 있다. 이하 구체적으로 설명한다.1A and 1B , the dog display device may be installed at a position (or height) that the dog can see, and may display an image based on image data in consideration of the dog's visual characteristics. By displaying an image based on image data in consideration of the dog's visual characteristics, concentration on the dog's image may be improved. It will be described in detail below.

상기 개용 표시 장치는 표시 패널(100) 및 표시 패널 구동부를 포함한다. 상기 표시 패널 구동부는 구동 제어부(200), 게이트 구동부(300), 감마 기준 전압 생성부(400) 및 데이터 구동부(500)를 포함한다. The individual display device includes a display panel 100 and a display panel driver. The display panel driver includes a driving controller 200 , a gate driver 300 , a gamma reference voltage generator 400 , and a data driver 500 .

예를 들어, 상기 구동 제어부(200) 및 상기 데이터 구동부(500)는 일체로 형성될 수 있다. 예를 들어, 상기 구동 제어부(200), 상기 감마 기준 전압 생성부(400) 및 상기 데이터 구동부(500)는 일체로 형성될 수 있다. 적어도 상기 구동 제어부(200) 및 상기 데이터 구동부(500)가 일체로 형성된 구동 모듈을 타이밍 컨트롤러 임베디드 데이터 구동부(Timing Controller Embedded Data Driver, TED)로 명명할 수 있다. For example, the driving control unit 200 and the data driving unit 500 may be integrally formed. For example, the driving controller 200 , the gamma reference voltage generator 400 , and the data driver 500 may be integrally formed. A driving module in which at least the driving control unit 200 and the data driving unit 500 are integrally formed may be referred to as a timing controller embedded data driver (TED).

상기 표시 패널(100)은 영상을 표시하는 표시부(AA) 및 상기 표시부(AA)에 이웃하여 배치되는 주변부(PA)를 포함한다. The display panel 100 includes a display portion AA displaying an image and a peripheral portion PA disposed adjacent to the display portion AA.

상기 표시 패널(100)은 복수의 게이트 라인들(GL), 복수의 데이터 라인들(DL) 및 상기 게이트 라인들(GL)과 상기 데이터 라인들(DL) 각각에 전기적으로 연결된 복수의 픽셀들(P)을 포함한다. 상기 게이트 라인들(GL)은 제1 방향(D1)으로 연장되고, 상기 데이터 라인들(DL)은 상기 제1 방향(D1)과 교차하는 제2 방향(D2)으로 연장된다. The display panel 100 includes a plurality of gate lines GL, a plurality of data lines DL, and a plurality of pixels electrically connected to each of the gate lines GL and the data lines DL. P). The gate lines GL extend in a first direction D1 , and the data lines DL extend in a second direction D2 crossing the first direction D1 .

상기 구동 제어부(200)는 개의 시각적 특성에 맞게 입력 영상 데이터의 컬러 보정, 콘트라스트 보정, 감마 보정, 에지 보정, 휘도 보정 및 구동 주파수 변환 중 적어도 하나를 수행한다. The driving control unit 200 performs at least one of color correction, contrast correction, gamma correction, edge correction, luminance correction, and driving frequency conversion of input image data according to the visual characteristics of the dog.

상기 구동 제어부(200)는 외부의 장치(미도시)로부터 입력 영상 데이터(IMG) 및 입력 제어 신호(CONT)를 수신할 수 있다. 예를 들어, 상기 입력 영상 데이터(IMG)는 적색 영상 데이터, 녹색 영상 데이터 및 청색 영상 데이터를 포함할 수 있다. 상기 입력 영상 데이터(IMG)는 백색 영상 데이터를 포함할 수 있다. 상기 입력 영상 데이터(IMG)는 마젠타색(magenta) 영상 데이터, 황색(yellow) 영상 데이터 및 시안색(cyan) 영상 데이터를 포함할 수 있다. 상기 입력 제어 신호(CONT)는 마스터 클럭 신호, 데이터 인에이블 신호를 포함할 수 있다. 상기 입력 제어 신호(CONT)는 수직 동기 신호 및 수평 동기 신호를 더 포함할 수 있다.The driving controller 200 may receive input image data IMG and an input control signal CONT from an external device (not shown). For example, the input image data IMG may include red image data, green image data, and blue image data. The input image data IMG may include white image data. The input image data IMG may include magenta image data, yellow image data, and cyan image data. The input control signal CONT may include a master clock signal and a data enable signal. The input control signal CONT may further include a vertical synchronization signal and a horizontal synchronization signal.

상기 구동 제어부(200)는 상기 입력 영상 데이터(IMG) 및 상기 입력 제어 신호(CONT)를 근거로 제1 제어 신호(CONT1), 제2 제어 신호(CONT2), 제3 제어 신호(CONT3) 및 데이터 신호(DATA)를 생성할 수 있다. The driving control unit 200 includes a first control signal CONT1, a second control signal CONT2, a third control signal CONT3, and data based on the input image data IMG and the input control signal CONT. A signal DATA may be generated.

상기 구동 제어부(200)는 상기 입력 제어 신호(CONT)를 근거로 상기 게이트 구동부(300)의 동작을 제어하기 위한 상기 제1 제어 신호(CONT1)를 생성하여 상기 게이트 구동부(300)에 출력한다. 상기 제1 제어 신호(CONT1)는 수직 개시 신호 및 게이트 클럭 신호를 포함할 수 있다.The driving controller 200 generates the first control signal CONT1 for controlling the operation of the gate driver 300 based on the input control signal CONT and outputs it to the gate driver 300 . The first control signal CONT1 may include a vertical start signal and a gate clock signal.

상기 구동 제어부(200)는 상기 입력 제어 신호(CONT)를 근거로 상기 데이터 구동부(500)의 동작을 제어하기 위한 상기 제2 제어 신호(CONT2)를 생성하여 상기 데이터 구동부(500)에 출력한다. 상기 제2 제어 신호(CONT2)는 수평 개시 신호 및 로드 신호를 포함할 수 있다.The driving controller 200 generates the second control signal CONT2 for controlling the operation of the data driver 500 based on the input control signal CONT and outputs the generated second control signal CONT2 to the data driver 500 . The second control signal CONT2 may include a horizontal start signal and a load signal.

상기 구동 제어부(200)는 상기 입력 영상 데이터(IMG)를 근거로 데이터 신호(DATA)를 생성한다. 상기 구동 제어부(200)는 상기 데이터 신호(DATA)를 상기 데이터 구동부(500)에 출력한다. The driving controller 200 generates a data signal DATA based on the input image data IMG. The driving control unit 200 outputs the data signal DATA to the data driving unit 500 .

상기 구동 제어부(200)는 상기 입력 제어 신호(CONT)를 근거로 상기 감마 기준 전압 생성부(400)의 동작을 제어하기 위한 상기 제3 제어 신호(CONT3)를 생성하여 상기 감마 기준 전압 생성부(400)에 출력한다. The driving controller 200 generates the third control signal CONT3 for controlling the operation of the gamma reference voltage generator 400 based on the input control signal CONT to generate the gamma reference voltage generator ( 400) is printed.

상기 구동 제어부(200)에 대해서는 도 2 내지 도 34를 참조하여 상세히 후술한다.The driving control unit 200 will be described in detail later with reference to FIGS. 2 to 34 .

상기 게이트 구동부(300)는 상기 구동 제어부(200)로부터 입력 받은 상기 제1 제어 신호(CONT1)에 응답하여 상기 게이트 라인들(GL)을 구동하기 위한 게이트 신호들을 생성한다. 상기 게이트 구동부(300)는 상기 게이트 신호들을 상기 게이트 라인들(GL)에 출력한다. 예를 들어, 상기 게이트 구동부(300)는 상기 게이트 신호들을 상기 게이트 라인들(GL)에 순차적으로 출력할 수 있다. 예를 들어, 상기 게이트 구동부(300)는 상기 표시 패널(100)의 상기 주변부(PA) 상에 실장될 수 있다. 예를 들어, 상기 게이트 구동부(300)는 상기 표시 패널(100)의 상기 주변부(PA) 상에 집적될 수 있다. 이와는 달리, 상기 게이트 구동부(300)는 상기 표시 패널(100) 상에 배치되지 않고, 상기 표시 패널(100)의 외부에 배치되어, 상기 표시 패널(100)과 전기적으로 연결될 수도 있다.The gate driver 300 generates gate signals for driving the gate lines GL in response to the first control signal CONT1 received from the driving controller 200 . The gate driver 300 outputs the gate signals to the gate lines GL. For example, the gate driver 300 may sequentially output the gate signals to the gate lines GL. For example, the gate driver 300 may be mounted on the peripheral portion PA of the display panel 100 . For example, the gate driver 300 may be integrated on the peripheral portion PA of the display panel 100 . Alternatively, the gate driver 300 may not be disposed on the display panel 100 , but may be disposed outside the display panel 100 to be electrically connected to the display panel 100 .

상기 감마 기준 전압 생성부(400)는 상기 구동 제어부(200)로부터 입력 받은 상기 제3 제어 신호(CONT3)에 응답하여 감마 기준 전압(VGREF)을 생성할 수 있다. 상기 감마 기준 전압 생성부(400)는 상기 감마 기준 전압(VGREF)을 상기 데이터 구동부(500)에 제공할 수 있다. 상기 감마 기준 전압(VGREF)은 각각의 데이터 신호(DATA)에 대응하는 값을 가질 수 있다. The gamma reference voltage generator 400 may generate a gamma reference voltage VGREF in response to the third control signal CONT3 received from the driving controller 200 . The gamma reference voltage generator 400 may provide the gamma reference voltage VGREF to the data driver 500 . The gamma reference voltage VGREF may have a value corresponding to each data signal DATA.

본 발명의 일 실시예에서, 상기 감마 기준 전압 생성부(400)는 상기 구동 제어부(200) 내에 배치되거나 상기 데이터 구동부(500) 내에 배치될 수 있다.In an embodiment of the present invention, the gamma reference voltage generator 400 may be disposed in the driving controller 200 or in the data driver 500 .

상기 데이터 구동부(500)는 상기 구동 제어부(200)로부터 상기 제2 제어 신호(CONT2) 및 상기 데이터 신호(DATA)를 입력 받고, 상기 감마 기준 전압 생성부(400)로부터 상기 감마 기준 전압(VGREF)을 입력 받을 수 있다. 상기 데이터 구동부(500)는 상기 데이터 신호(DATA)를 상기 감마 기준 전압(VGREF)을 이용하여 아날로그 형태의 데이터 전압으로 변환할 수 있다. 상기 데이터 구동부(500)는 상기 데이터 전압을 상기 데이터 라인(DL)에 출력할 수 있다. The data driver 500 receives the second control signal CONT2 and the data signal DATA from the driving controller 200 , and receives the gamma reference voltage VGREF from the gamma reference voltage generator 400 . can be input. The data driver 500 may convert the data signal DATA into an analog data voltage using the gamma reference voltage VGREF. The data driver 500 may output the data voltage to the data line DL.

상기 구동 제어부(200)는 개의 시각적 특성을 기초로 컬러 보정, 콘트라스트 보정, 감마 보정, 에지 보정, 휘도 보정 및 구동 주파수 변환 중 적어도 어느 하나를 수행하여 입력 영상 데이터를 출력 영상 데이터로 변환할 수 있다. 상기 데이터 구동부(500)는 상기 출력 영상 데이터를 기초로 데이터 전압을 생성하여 상기 표시 패널(100)에 출력할 수 있다. The driving control unit 200 may convert input image data into output image data by performing at least one of color correction, contrast correction, gamma correction, edge correction, luminance correction, and driving frequency conversion based on the visual characteristics of the dog. . The data driver 500 may generate a data voltage based on the output image data and output it to the display panel 100 .

예를 들어, 상기 구동 제어부(200)는 상기 출력 영상 데이터를 기초로 상기 데이터 신호(DATA)를 생성할 수 있다. 상기 데이터 구동부(500)는 상기 데이터 구동부(500)는 상기 데이터 전압으로 변환하여 상기 표시 패널(100)에 출력할 수 있다. For example, the driving controller 200 may generate the data signal DATA based on the output image data. The data driving unit 500 may convert the data driving unit 500 into the data voltage and output it to the display panel 100 .

도 2는 도 1b의 구동 제어부(200)의 일례를 나타내는 블록도이다.FIG. 2 is a block diagram illustrating an example of the driving control unit 200 of FIG. 1B .

도 1a 내지 도 2를 참조하면, 상기 구동 제어부(200)는 컬러 보정부(220)를 포함할 수 있다.1A to 2 , the driving control unit 200 may include a color correction unit 220 .

예를 들어, 상기 컬러 보정부(220)는 상기 입력 영상 데이터(IMG)를 수신하고 상기 컬러 보정을 수행하여 상기 출력 영상 데이터(OIMG)를 출력할 수 있다.For example, the color corrector 220 may receive the input image data IMG, perform the color correction, and output the output image data OIMG.

상기 입력 영상 데이터(IMG)는 입력 레드 데이터, 입력 그린 데이터 및 입력 블루 데이터를 포함하고, 상기 출력 영상 데이터(OIMG)는 출력 레드 데이터, 블루 보상 데이터, 출력 그린 데이터 및 출력 블루 데이터를 포함할 수 있다.The input image data IMG may include input red data, input green data, and input blue data, and the output image data OIMG may include output red data, blue compensation data, output green data, and output blue data. have.

예를 들어, 상기 컬러 보정부(220)는 상기 입력 레드 데이터를 상기 출력 레드 데이터 및 상기 블루 보상 데이터로 변환할 수 있다. 여기서, 상기 입력 레드 데이터와 상기 출력 레드 데이터는 동일한 값을 갖고, 상기 입력 그린 데이터와 상기 출력 그린 데이터는 동일한 값을 갖고, 상기 입력 블루 데이터와 상기 출력 블루 데이터는 동일한 값을 가질 수 있다. 상기 출력 영상 데이터(OIMG)는 상기 입력 영상 데이터(IMG)에 비해 상기 블루 보상 데이터를 더 포함하므로, 상기 출력 영상 데이터(OIMG)는 상기 입력 영상 데이터(IMG)에 비해 청색이 강조된 영상일 수 있다. 여기서, 상기 블루 보상 데이터는 상기 입력 레드 데이터를 기초로 결정될 수 있다.For example, the color correction unit 220 may convert the input red data into the output red data and the blue compensation data. Here, the input red data and the output red data may have the same value, the input green data and the output green data may have the same value, and the input blue data and the output blue data may have the same value. Since the output image data OIMG further includes the blue compensation data compared to the input image data IMG, the output image data OIMG may be an image in which blue is emphasized compared to the input image data IMG. . Here, the blue compensation data may be determined based on the input red data.

예를 들어, 상기 컬러 보정부(220)는 상기 입력 그린 데이터를 상기 출력 그린 데이터 및 상기 블루 보상 데이터로 변환할 수 있다. 여기서, 상기 입력 레드 데이터와 상기 출력 레드 데이터는 동일한 값을 갖고, 상기 입력 그린 데이터와 상기 출력 그린 데이터는 동일한 값을 갖고, 상기 입력 블루 데이터와 상기 출력 블루 데이터는 동일한 값을 가질 수 있다. 상기 출력 영상 데이터(OIMG)는 상기 입력 영상 데이터(IMG)에 비해 상기 블루 보상 데이터를 더 포함하므로, 상기 출력 영상 데이터(OIMG)는 상기 입력 영상 데이터(IMG)에 비해 청색이 강조된 영상일 수 있다. 여기서, 상기 블루 보상 데이터는 상기 입력 그린 데이터를 기초로 결정될 수 있다.For example, the color correction unit 220 may convert the input green data into the output green data and the blue compensation data. Here, the input red data and the output red data may have the same value, the input green data and the output green data may have the same value, and the input blue data and the output blue data may have the same value. Since the output image data OIMG further includes the blue compensation data compared to the input image data IMG, the output image data OIMG may be an image in which blue is emphasized compared to the input image data IMG. . Here, the blue compensation data may be determined based on the input green data.

이와 같이, 상기 컬러 보정부(220)는 입력 영상 데이터(IMG)에 비해 청색의 비율이 증가된 출력 영상 데이터(OIMG)를 생성할 수 있다. As such, the color corrector 220 may generate the output image data OIMG in which the ratio of blue is increased compared to the input image data IMG.

도 3은 도 1b의 구동 제어부(200)의 일례를 나타내는 블록도이다.3 is a block diagram illustrating an example of the driving control unit 200 of FIG. 1B .

본 실시예에 따른 개용 표시 장치 및 개용 표시 장치의 구동 방법은 컬러 보정부가 개 모드에서 선택적으로 동작하는 것을 제외하면, 도 2의 개용 표시 장치 및 개용 표시 장치의 구동 방법과 실질적으로 동일하므로, 동일 또는 유사한 구성 요소에 대해서는 동일한 참조 번호를 사용하고, 중복되는 설명은 생략한다.The dog display device and the dog display device driving method according to the present embodiment are substantially the same as the dog display device and the dog display device driving method of FIG. 2 , except that the color correction unit selectively operates in the dog mode Alternatively, the same reference numerals are used for similar components, and overlapping descriptions are omitted.

도 1a 내지 도 3을 참조하면, 상기 구동 제어부(200)는 상기 입력 영상 데이터(IMG) 및 모드 신호(MODE)를 수신하고 상기 컬러 보정을 수행하여 상기 출력 영상 데이터(OIMG)를 출력하는 컬러 보정부(220A)를 포함할 수 있다. 1A to 3 , the driving control unit 200 receives the input image data IMG and the mode signal MODE, performs the color correction, and outputs the output image data OIMG. Government 220A may be included.

상기 컬러 보정부(220A)는 개 모드에서 상기 입력 영상 데이터(IMG)의 컬러 보정을 수행할 수 있고, 사람 모드에서 상기 입력 영상 데이터(IMG)의 컬러 보정을 수행하지 않을 수 있다. The color correction unit 220A may perform color correction of the input image data IMG in the dog mode, and may not perform color correction of the input image data IMG in the human mode.

상기 개 모드에서 상기 컬러 보정부(220A)는 입력 레드 데이터를 출력 레드 데이터 및 블루 보상 데이터로 변환하거나, 입력 그린 데이터를 출력 그린 데이터 및 상기 블루 보상 데이터로 변환하여 상기 출력 영상 데이터(OIMG)를 생성할 수 있다. In the open mode, the color correction unit 220A converts input red data into output red data and blue compensation data, or converts input green data into output green data and blue compensation data to generate the output image data OIMG. can create

상기 사람 모드에서 상기 컬러 보정부(220A)는 상기 입력 영상 데이터(IMG)를 상기 출력 영상 데이터(OIMG)로 출력할 수 있다. In the human mode, the color corrector 220A may output the input image data IMG as the output image data OIMG.

본 실시예에 따르면, 개의 시각적 특성에 맞게 입력 영상 데이터(IMG)의 컬러 보정을 수행하므로, 영상을 시청하는 개의 몰입도를 높일 수 있다. 또한, 상기 개용 표시 장치는 개 모드에서 컬러 보정을 수행하고, 사람 모드에서 컬러 보정을 수행하지 않으므로, 하나의 표시 장치를 개와 사람이 함께 이용할 수 있다.According to the present embodiment, since color correction of the input image data IMG is performed to match the visual characteristics of the dog, the immersion level of the dog watching the image may be increased. Also, since the display device for dogs performs color correction in the dog mode and does not perform color correction in the human mode, a single display device can be used by both dogs and humans.

도 4는 도 1b의 구동 제어부(200)의 일례를 나타내는 블록도이다. 도 5는 도 4의 콘트라스트/감마 보정부(240)의 콘트라스트 보정 동작을 나타내는 그래프이다. 도 6은 도 4의 콘트라스트/감마 보정부(240)에 입력되는 입력 영상 데이터(IMG)를 나타내는 도면이다. 도 7은 개에게 인식되는 도 6의 입력 영상 데이터(IMG)를 나타내는 도면이다. 도 8은 개에게 인식되는 도 4의 콘트라스트/감마 보정부(240)의 출력 영상 데이터(OIMG)를 나타내는 도면이다.4 is a block diagram illustrating an example of the driving control unit 200 of FIG. 1B . 5 is a graph illustrating a contrast correction operation of the contrast/gamma correction unit 240 of FIG. 4 . FIG. 6 is a diagram illustrating input image data IMG input to the contrast/gamma correction unit 240 of FIG. 4 . 7 is a diagram illustrating input image data IMG of FIG. 6 recognized by a dog. 8 is a diagram illustrating output image data OIMG of the contrast/gamma correction unit 240 of FIG. 4 recognized by a dog.

도 1a 내지 도 8을 참조하면, 상기 구동 제어부(200)는 상기 입력 영상 데이터(IMG)를 수신하고 계조 휘도 곡선을 기초로 상기 콘트라스트 보정 및 상기 감마 보정을 수행하여 상기 출력 영상 데이터(OIMG)를 출력하는 콘트라스트/감마 보정부(240)를 포함할 수 있다. 1A to 8 , the driving controller 200 receives the input image data IMG and performs the contrast correction and gamma correction based on the grayscale luminance curve to generate the output image data OIMG. It may include a contrast/gamma correction unit 240 to output.

개의 경우, 콘트라스트에 대한 인지 정도가 사람에 비해 상대적으로 떨어지므로, 영상 내에서 휘도 차에 따른 물체의 인지가 저하될 수 있으며, 이에 따라 개의 영상에 대한 몰입도가 감소할 수 있다. 예를 들어, 입력 영상 데이터(IMG)가 도 6과 같은 경우, 개는 콘트라스트에 대한 인지 정도가 사람에 비해 낮아 개에게는 도 7과 같이 인지될 수 있다. In the case of dogs, since the degree of perception of contrast is relatively lower than that of humans, the recognition of an object according to a difference in luminance in an image may be lowered, and accordingly, the degree of immersion in the image of the dog may decrease. For example, when the input image data IMG is as shown in FIG. 6 , the dog may recognize the contrast as shown in FIG. 7 because the recognition level of the contrast is lower than that of a human.

상기 콘트라스트/감마 보정부(240)는 중간 계조 영역(GR2)에서의 계조 차이에 따른 휘도 차이를 증가시켜 중간 계조 영역(GR2)에서의 휘도 차이를 개가 상대적으로 잘 인지하도록 할 수 있다. The contrast/gamma corrector 240 may increase the luminance difference according to the grayscale difference in the middle grayscale region GR2 so that the dog can relatively well recognize the luminance difference in the middle grayscale region GR2 .

도 5는 상기 콘트라스트/감마 보정부(240)에서 상기 콘트라스트 보정을 위해 사용되는 상기 계조 휘도 곡선의 예시를 나타낸다. 상기 입력 영상 데이터(IMG)는 제1 계조 영역(GR1, 저계조 영역)을 갖는 제1 데이터, 상기 제1 계조 영역(GR1)보다 큰 계조를 갖는 제2 계조 영역(GR2, 중간 계조 영역)을 갖는 제2 데이터 및 상기 제2 계조 영역(GR2)보다 큰 계조를 갖는 제3 계조 영역(GR3, 고계조 영역)을 갖는 제3 데이터를 포함할 수 있다. 5 shows an example of the grayscale luminance curve used for the contrast correction by the contrast/gamma correction unit 240 . The input image data IMG includes first data having a first grayscale region GR1 (low grayscale region) and a second grayscale region GR2 (middle grayscale region) having a greater grayscale than the first grayscale region GR1. and third data having a third grayscale region GR3 (high grayscale region) having a grayscale greater than that of the second grayscale region GR2 .

상기 제2 계조 영역(GR2)에 대응하는 상기 계조 휘도 곡선의 제2 기울기는 상기 제1 계조 영역(GR1)에 대응하는 상기 계조 휘도 곡선의 제1 기울기보다 클 수 있다. 또한, 상기 제2 계조 영역(GR2)에 대응하는 상기 계조 휘도 곡선의 상기 제2 기울기는 상기 제3 계조 영역(GR3)에 대응하는 상기 계조 휘도 곡선의 제3 기울기보다 클 수 있다.A second slope of the grayscale luminance curve corresponding to the second grayscale region GR2 may be greater than a first slope of the grayscale luminance curve corresponding to the first grayscale region GR1 . Also, the second slope of the grayscale luminance curve corresponding to the second grayscale region GR2 may be greater than a third slope of the grayscale luminance curve corresponding to the third grayscale region GR3 .

도 8은 상기 콘트라스트/감마 보정부(240)에 의해 상기 입력 영상 데이터(IMG)의 콘트라스트가 보정된 상기 출력 영상 데이터(OIMG)가 개에게 인식되는 영상을 나타낸다. 즉, 상기 콘트라스트/감마 보정부(240)의 중간 계조 보정에 의해 개가 콘트라스트를 인지하는 정도가 사람이 입력 영상 데이터(IMG)로부터 콘트라스트를 인지하는 정도와 유사하게 될 수 있다. 8 shows an image in which the output image data OIMG of which the contrast of the input image data IMG is corrected by the contrast/gamma correction unit 240 is recognized by a dog. That is, the degree to which the dog perceives the contrast by the halftone correction of the contrast/gamma corrector 240 may be similar to the degree to which the human perceives the contrast from the input image data IMG.

도 9는 도 4의 콘트라스트/감마 보정부(240)의 감마 보정 동작을 나타내는 그래프이다. 도 10은 도 4의 콘트라스트/감마 보정부(240)의 감마 보정 동작을 나타내는 표이다. 도 11a, 도 11b 및 도 11c는 비교예에 따른 감마 보정 동작을 나타내는 그래프이다. 도 12a, 도 12b 및 도 12c는 본 실시예에 따른 감마 보정 동작을 나타내는 그래프이다.9 is a graph illustrating a gamma correction operation of the contrast/gamma correction unit 240 of FIG. 4 . 10 is a table illustrating a gamma correction operation of the contrast/gamma correction unit 240 of FIG. 4 . 11A, 11B, and 11C are graphs illustrating a gamma correction operation according to a comparative example. 12A, 12B, and 12C are graphs illustrating a gamma correction operation according to the present exemplary embodiment.

도 1a 내지 도 12c를 참조하면, 상기 콘트라스트/감마 보정부(240)는 도 9의 S자 형상의 감마 곡선을 기초로 감마 보정을 수행할 수 있다. 도 9의 그래프에서 가로 축은 계조를 나타내고, 세로 축은 상기 계조에 대응하는 휘도를 나타내며, 도 9의 점선은 상기 계조에 따른 상기 휘도가 선형적인 경우를 도시하며, 도 9의 실선은 상기 계조에 따른 상기 휘도를 나타내는 본 실시예의 감마 곡선을 도시한다. 본 실시예에서, 상기 계조에 따른 상기 휘도를 나타내는 감마 곡선을 비선형적일 수 있다. 1A to 12C , the contrast/gamma correction unit 240 may perform gamma correction based on the S-shaped gamma curve of FIG. 9 . In the graph of FIG. 9 , the horizontal axis represents the gray level, the vertical axis represents the luminance corresponding to the gray level, the dotted line in FIG. 9 shows a case in which the luminance according to the gray level is linear, and the solid line in FIG. 9 represents the luminance according to the gray level. The gamma curve of this embodiment representing the luminance is shown. In the present embodiment, the gamma curve representing the luminance according to the grayscale may be non-linear.

도 9의 1번 내지 10번 지점의 계조값 및 휘도값은 도 10의 표로 나타내었다. 예를 들어, 1번 지점의 계조는 0계조이고, 정규화된 휘도는 0일 수 있다. 예를 들어, 2번 지점의 계조는 31계조이고, 정규화된 휘도는 0.01일 수 있다. 예를 들어, 3번 지점의 계조는 69계조이고, 정규화된 휘도는 0.02일 수 있다. 예를 들어, 4번 지점의 계조는 102계조이고, 정규화된 휘도는 0.07일 수 있다. 예를 들어, 5번 지점의 계조는 133계조이고, 정규화된 휘도는 0.17일 수 있다. 예를 들어, 6번 지점의 계조는 163계조이고, 정규화된 휘도는 0.43일 수 있다. 예를 들어, 7번 지점의 계조는 179계조이고, 정규화된 휘도는 0.68일 수 있다. 예를 들어, 8번 지점의 계조는 224계조이고, 정규화된 휘도는 0.99일 수 있다. 예를 들어, 9번 지점의 계조는 240계조이고, 정규화된 휘도는 1.00일 수 있다. 예를 들어, 10번 지점의 계조는 255계조이고, 정규화된 휘도는 1.00일 수 있다.The grayscale values and luminance values of points 1 to 10 of FIG. 9 are shown in the table of FIG. 10 . For example, the gradation at point 1 may be 0 gradation, and the normalized luminance may be 0. For example, the gray level at the point 2 may be 31 gray levels, and the normalized luminance may be 0.01. For example, the gray level at the point 3 may be 69 gray levels, and the normalized luminance may be 0.02. For example, the gray level at point 4 may be 102 gray levels, and the normalized luminance may be 0.07. For example, the gray level at the point 5 may be 133 gray levels, and the normalized luminance may be 0.17. For example, the gray level at point 6 may be 163 gray levels, and the normalized luminance may be 0.43. For example, the gray level at the point 7 may be 179 gray levels, and the normalized luminance may be 0.68. For example, the gray level at the point 8 may be 224 gray levels, and the normalized luminance may be 0.99. For example, the gray level at the point 9 may be 240 gray levels, and the normalized luminance may be 1.00. For example, the gray level at point 10 may be 255 gray levels, and the normalized luminance may be 1.00.

도 9의 그래프 및 도 10의 표에서 보듯이, 저계조 영역(예컨대, 1번 지점으로부터 5번 지점)에서 상기 감마 곡선의 기울기는 상대적으로 작은 값을 갖고, 중간 계조 영역(예컨대, 5번 지점으로부터 8번 지점)에서 상기 감마 곡선의 기울기는 상대적으로 큰 값을 가지며, 고계조 영역(예컨대, 8번 지점으로부터 10번 지점)에서 상기 감마 곡선의 기울기는 상대적으로 작은 값을 가질 수 있다. As shown in the graph of FIG. 9 and the table of FIG. 10 , the slope of the gamma curve in the low grayscale region (eg, point 1 to 5) has a relatively small value, and in the middle grayscale region (eg, point 5) The slope of the gamma curve may have a relatively large value at point 8), and the slope of the gamma curve may have a relatively small value in a high grayscale region (eg, point 8 to point 10).

도 11a 내지 도 11c를 보면, 종래의 사람용 표시 장치에서는 레드 감마 곡선(도 11a), 그린 감마 곡선(도 11b) 및 블루 감마 곡선(도 11c)을 이용하여 감마 보정을 수행할 수 있다. 11A to 11C , in a conventional human display device, gamma correction may be performed using a red gamma curve ( FIG. 11A ), a green gamma curve ( FIG. 11B ), and a blue gamma curve ( FIG. 11C ).

도 2를 참조하여 설명한 것과 같이, 상기 컬러 보정부(220)는 상기 입력 영상 데이터(IMG)를 수신하고 상기 컬러 보정을 수행하여 상기 출력 영상 데이터(OIMG)를 출력할 수 있다. 상기 입력 영상 데이터(IMG)는 입력 레드 데이터(R), 입력 그린 데이터(G) 및 입력 블루 데이터(B)를 포함하고, 상기 출력 영상 데이터(OIMG)는 출력 레드 데이터(R), 블루 보상 데이터(B'), 출력 그린 데이터(G) 및 출력 블루 데이터(B)를 포함할 수 있다. As described with reference to FIG. 2 , the color correction unit 220 may receive the input image data IMG, perform the color correction, and output the output image data OIMG. The input image data IMG includes input red data R, input green data G, and input blue data B, and the output image data OIMG includes output red data R and blue compensation data. (B'), output green data (G), and output blue data (B) may be included.

이 때, 도 12a 내지 도 12c에서 보듯이, 본 실시예에 따른 개용 표시 장치에서는 상기 출력 레드 데이터(R) 및 상기 블루 보상 데이터(B')의 감마 보정을 수행하기 위한 제1 감마 곡선(도 12a), 상기 출력 그린 데이터(G)의 감마 보정을 수행하기 위한 제2 감마 곡선(도 12b) 및 상기 출력 블루 데이터(B)의 감마 보정을 수행하기 위한 제3 감마 곡선(도 12c)을 이용하여 감마 보정을 수행할 수 있다. At this time, as shown in FIGS. 12A to 12C , in the personal display device according to the present embodiment, a first gamma curve (FIG. 12a), a second gamma curve (FIG. 12B) for performing gamma correction of the output green data (G) and a third gamma curve (FIG. 12C) for performing gamma correction of the output blue data (B) are used Thus, gamma correction can be performed.

도 13은 도 1b의 구동 제어부(200)의 일례를 나타내는 블록도이다.13 is a block diagram illustrating an example of the driving control unit 200 of FIG. 1B .

본 실시예에 따른 개용 표시 장치 및 개용 표시 장치의 구동 방법은 콘트라스트/감마 보정부가 개 모드에서 선택적으로 동작하는 것을 제외하면, 도 4의 개용 표시 장치 및 개용 표시 장치의 구동 방법과 실질적으로 동일하므로, 동일 또는 유사한 구성 요소에 대해서는 동일한 참조 번호를 사용하고, 중복되는 설명은 생략한다.The dog display device and the dog display device driving method according to the present embodiment are substantially the same as the dog display device and the dog display device driving method of FIG. 4 , except that the contrast/gamma correction unit selectively operates in the dog mode. , The same reference numbers are used for the same or similar components, and overlapping descriptions are omitted.

도 1a 내지 도 13을 참조하면, 상기 구동 제어부(200)는 상기 입력 영상 데이터(IMG) 및 모드 신호(MODE)를 수신하고 상기 콘트라스트 보정 및 상기 감마 보정을 수행하여 상기 출력 영상 데이터(OIMG)를 출력하는 콘트라스트/감마 보정부(240A)를 포함할 수 있다. 1A to 13 , the driving controller 200 receives the input image data IMG and the mode signal MODE, and performs the contrast correction and the gamma correction to generate the output image data OIMG. The output contrast/gamma correction unit 240A may be included.

상기 콘트라스트/감마 보정부(240A)는 개 모드에서 상기 입력 영상 데이터(IMG)의 콘트라스트 보정을 수행할 수 있고, 사람 모드에서 상기 입력 영상 데이터(IMG)의 콘트라스트 보정을 수행하지 않을 수 있다. The contrast/gamma corrector 240A may perform contrast correction on the input image data IMG in the dog mode, and may not perform contrast correction on the input image data IMG in the human mode.

상기 개 모드에서 상기 콘트라스트/감마 보정부(240A)는 상기 제1 계조 영역에 대응하여 제1 기울기를 갖고, 상기 제2 계조 영역에 대응하여 상기 제1 기울기보다 큰 제2 기울기를 갖는 계조 휘도 곡선을 이용하여 상기 콘트라스트 보정을 수행할 수 있다. 또한, 상기 제2 계조 영역에 대응하는 상기 계조 휘도 곡선의 상기 제2 기울기는 상기 제3 계조 영역에 대응하는 상기 계조 휘도 곡선의 제3 기울기보다 클 수 있다. In the open mode, the contrast/gamma correction unit 240A has a first gradient corresponding to the first grayscale region and a grayscale luminance curve corresponding to the second grayscale region and having a second gradient greater than the first gradient. can be used to perform the contrast correction. Also, the second slope of the grayscale luminance curve corresponding to the second grayscale region may be greater than a third slope of the grayscale luminance curve corresponding to the third grayscale region.

상기 사람 모드에서 상기 콘트라스트/감마 보정부(240A)는 상기 입력 영상 데이터(IMG)를 상기 출력 영상 데이터(OIMG)로 출력할 수 있다. In the human mode, the contrast/gamma corrector 240A may output the input image data IMG as the output image data OIMG.

상기 콘트라스트/감마 보정부(240A)는 개 모드에서 도 12a 내지 도 12c의 제1 감마 곡선(R+B'), 제2 감마 곡선(G) 및 제3 감마 곡선(B)을 이용하여 상기 입력 영상 데이터(IMG)의 감마 보정을 수행할 수 있고, 상기 사람 모드에서 도 11a 내지 도 11c의 레드 감마 곡선(R), 그린 감마 곡선(G) 및 블루 감마 곡선(B)을 이용하여 상기 입력 영상 데이터(IMG)의 감마 보정을 수행할 수 있다.The contrast/gamma correction unit 240A uses the first gamma curve R+B′, the second gamma curve G, and the third gamma curve B of FIGS. 12A to 12C in the open mode. Gamma correction may be performed on the image data IMG, and in the human mode, the input image may be subjected to the red gamma curve (R), the green gamma curve (G), and the blue gamma curve (B) of FIGS. 11A to 11C . Gamma correction of the data IMG may be performed.

본 실시예에 따르면, 개의 시각적 특성에 맞게 입력 영상 데이터(IMG)의 콘트라스트 보정 및 감마 보정을 수행하므로, 영상을 시청하는 개의 몰입도를 높일 수 있다. 또한, 상기 개용 표시 장치는 개 모드에서 콘트라스트 보정을 수행하고, 개의 특성에 맞는 감마 보정을 수행하며, 사람 모드에서 콘트라스트 보정을 수행하지 않고, 사람의 특성에 맞는 감마 보정을 수행하므로, 하나의 표시 장치를 개와 사람이 함께 이용할 수 있다.According to the present embodiment, since the contrast correction and gamma correction of the input image data IMG are performed according to the visual characteristics of the dog, the degree of immersion of the dog watching the image may be increased. In addition, the display device for dogs performs contrast correction in the dog mode, gamma correction suitable for dog characteristics, and does not perform contrast correction in the human mode, but performs gamma correction suitable for human characteristics. The device can be used by dogs and humans alike.

도 14는 도 1b의 구동 제어부(200)의 일례를 나타내는 블록도이다. 도 15는 도 14의 에지 보정부(260)의 일례를 나타내는 블록도이다. 도 16은 도 14의 보정 적용부(264)에서 사용되는 필터의 일례를 나타내는 블록도이다. 도 17은 도 14의 보정 적용부(264)에서 사용되는 필터의 일례를 나타내는 블록도이다. 도 18은 도 14의 보정 적용부(264)에서 사용되는 필터의 일례를 나타내는 블록도이다. 도 19는 개의 시각과 사람의 시각의 공간 주파수를 나타내는 개념도이다. 도 20은 도 14의 에지 보정부(260)의 입력 영상 데이터(IMG)를 나타내는 도면이다. 도 21은 개에게 인식되는 도 20의 입력 영상 데이터(IMG)를 나타내는 도면이다. 도 22는 도 14의 에지 보정부(260)의 출력 영상 데이터(OIMG)를 나타내는 도면이다. 도 23은 개에게 인식되는 도 22의 출력 영상 데이터(OIMG)를 나타내는 도면이다.14 is a block diagram illustrating an example of the driving control unit 200 of FIG. 1B . 15 is a block diagram illustrating an example of the edge correction unit 260 of FIG. 14 . 16 is a block diagram illustrating an example of a filter used in the correction applying unit 264 of FIG. 14 . 17 is a block diagram illustrating an example of a filter used in the correction applying unit 264 of FIG. 14 . 18 is a block diagram illustrating an example of a filter used in the correction applying unit 264 of FIG. 14 . 19 is a conceptual diagram illustrating spatial frequencies of a dog's vision and a human's vision. 20 is a diagram illustrating input image data IMG of the edge corrector 260 of FIG. 14 . FIG. 21 is a diagram illustrating input image data IMG of FIG. 20 recognized by a dog. 22 is a diagram illustrating output image data OIMG of the edge corrector 260 of FIG. 14 . FIG. 23 is a diagram illustrating output image data OIMG of FIG. 22 recognized by a dog.

도 1a 내지 도 23을 참조하면, 상기 구동 제어부(200)는 상기 입력 영상 데이터(IMG)를 수신하고 상기 에지 보정을 수행하여 상기 출력 영상 데이터(OIMG)를 출력하는 에지 보정부(260)를 포함할 수 있다. 1A to 23 , the driving control unit 200 includes an edge correction unit 260 that receives the input image data IMG, performs the edge correction, and outputs the output image data OIMG. can do.

개의 경우, 영상 내에서 물체의 에지에 대한 인지 정도가 사람에 비해 상대적으로 떨어지므로, 영상 내에서 물체의 인지가 저하될 수 있으며, 이에 따라 개의 영상에 대한 몰입도가 감소할 수 있다. In the case of a dog, since the degree of recognition of the edge of an object in an image is relatively lower than that of a person, the recognition of an object in the image may be lowered, and accordingly, the degree of immersion in the image of the dog may decrease.

상기 에지 보정부(260)는 영상 내에서의 에지를 강조하여, 개가 상대적으로 물체의 에지를 잘 인지하도록 할 수 있다. The edge corrector 260 may emphasize the edge in the image so that the dog can relatively well recognize the edge of the object.

예를 들어, 에지 보정부(260)는 상기 입력 영상 데이터(IMG)를 분석하는 영상 분석부(262) 및 상기 영상 분석부(262)의 분석 결과를 기초로 상기 에지 보정을 선택적으로 적용하는 보정 적용부(264)를 포함할 수 있다.For example, the edge correction unit 260 may selectively apply the edge correction based on the analysis results of the image analyzer 262 that analyzes the input image data IMG and the image analyzer 262 . An application unit 264 may be included.

본 발명의 일 실시예에서, 상기 보정 적용부(264)는 상기 입력 영상 데이터(IMG)가 정지 영상인 경우에 선택적으로 에지 보정을 적용할 수 있다. In an embodiment of the present invention, the correction applying unit 264 may selectively apply edge correction when the input image data IMG is a still image.

예를 들어, 상기 영상 분석부(262)는 상기 입력 영상 데이터(IMG)가 정지 영상인지 동영상인지 판단할 수 있다. 상기 보정 적용부(264)는 상기 입력 영상 데이터(IMG)가 정지 영상일 때, 상기 에지 보정을 수행하고, 상기 입력 영상 데이터(IMG)가 동영상일 때, 상기 에지 보정을 수행하지 않을 수 있다.For example, the image analyzer 262 may determine whether the input image data IMG is a still image or a moving image. The correction applying unit 264 may perform the edge correction when the input image data IMG is a still image, and may not perform the edge correction when the input image data IMG is a moving image.

상기 입력 영상 데이터(IMG)가 정지 영상인 경우에는 개가 물체의 에지에 대해 인지 정도가 떨어지는 특성이 더욱 강하게 나타날 수 있다. 반면, 상기 입력 영상 데이터(IMG)가 동영상인 경우에, 개는 동체 시력이 사람보다 오히려 우수하므로, 상기 에지에 대해 인지 정도가 떨어지는 특성이 문제되는 정도가 감소할 수 있다. 따라서, 상기 입력 영상 데이터(IMG)가 정지 영상인 경우에 선택적으로 에지 보정을 적용할 수 있다. When the input image data IMG is a still image, a characteristic in which the dog recognizes an edge of an object decreases more strongly. On the other hand, when the input image data IMG is a moving picture, since the dog has better body acuity than that of a human, the problem of a characteristic of a lower recognition degree for the edge may be reduced. Accordingly, when the input image data IMG is a still image, edge correction may be selectively applied.

예를 들어, 상기 영상 분석부(262)는 상기 입력 영상 데이터(IMG)의 이전 프레임 데이터와 현재 프레임 데이터를 비교하여 상기 입력 영상 데이터(IMG)가 정지 영상인지 동영상인지 판단할 수 있다.For example, the image analyzer 262 may determine whether the input image data IMG is a still image or a moving image by comparing previous frame data and current frame data of the input image data IMG.

상기 이전 프레임 데이터와 현재 프레임 데이터가 동일한 경우, 상기 영상 분석부(262)는 상기 입력 영상 데이터(IMG)가 정지 영상인 것으로 판단할 수 있다. 반면, 상기 이전 프레임 데이터와 현재 프레임 데이터가 상이한 경우, 상기 영상 분석부(262)는 상기 입력 영상 데이터(IMG)가 동영상인 것으로 판단할 수 있다.When the previous frame data and the current frame data are the same, the image analyzer 262 may determine that the input image data IMG is a still image. On the other hand, when the previous frame data and the current frame data are different from each other, the image analyzer 262 may determine that the input image data IMG is a moving picture.

이와 유사하게, 본 발명의 일 실시예에서, 상기 보정 적용부(264)는 상기 입력 영상 데이터(IMG) 내에서의 영상의 변화 정도가 작은 경우에 선택적으로 에지 보정을 적용할 수 있다. Similarly, in an embodiment of the present invention, the correction applying unit 264 may selectively apply edge correction when the degree of change in the image in the input image data IMG is small.

예를 들어, 상기 영상 분석부(262)는 이전 프레임 데이터와 현재 프레임 데이터 사이에 데이터가 변화된 픽셀의 개수를 기초로 상기 입력 영상 데이터(IMG) 내에서 영상의 변화 정도가 큰지 작은지 판단할 수 있다.For example, the image analyzer 262 may determine whether the degree of change in the image in the input image data IMG is large or small based on the number of pixels whose data is changed between the previous frame data and the current frame data. have.

상기 이전 프레임 데이터와 현재 프레임 데이터 사이에 데이터가 변화된 픽셀의 개수가 문턱값보다 작을 때, 상기 보정 적용부(264)는 상기 에지 보정을 수행할 수 있다. 반면, 상기 이전 프레임 데이터와 상기 현재 프레임 데이터 사이에 데이터가 변화된 픽셀의 개수가 상기 문턱값보다 크거나 같을 때, 상기 보정 적용부(264)는 상기 에지 보정을 수행하지 않을 수 있다. When the number of pixels in which data is changed between the previous frame data and the current frame data is less than a threshold value, the correction applying unit 264 may perform the edge correction. On the other hand, when the number of pixels in which data is changed between the previous frame data and the current frame data is greater than or equal to the threshold value, the correction applying unit 264 may not perform the edge correction.

본 발명의 일 실시예에서, 상기 보정 적용부(264)는 상기 입력 영상 데이터(IMG) 내에 주인의 얼굴이 있는 경우에 선택적으로 에지 보정을 적용할 수 있다. In an embodiment of the present invention, the correction applying unit 264 may selectively apply edge correction when there is a face of the owner in the input image data IMG.

예를 들어, 상기 영상 분석부(262)는 상기 입력 영상 데이터(IMG) 내에 주인의 얼굴이 있는지 판단할 수 있다. 상기 보정 적용부(264)는 상기 입력 영상 데이터(IMG) 내에 상기 주인의 얼굴이 있을 때, 상기 에지 보정을 수행하고, 상기 입력 영상 데이터(IMG) 내에 상기 주인의 얼굴이 없을 때, 상기 에지 보정을 수행하지 않을 수 있다.For example, the image analyzer 262 may determine whether the owner's face is present in the input image data IMG. The correction applying unit 264 performs the edge correction when there is a face of the owner in the input image data IMG, and corrects the edge when there is no face of the owner in the input image data IMG may not be performed.

상기 입력 영상 데이터(IMG) 내에 주인의 얼굴이 있는 경우, 개는 상대적으로 높은 몰입도를 나타내게 된다. 그러나, 주인의 얼굴의 윤곽이 잘 인지되지 않는 경우 이와 같은 몰입도 향상의 효과를 얻지 못할 수 있다. 따라서, 상기 입력 영상 데이터(IMG) 내에 주인의 얼굴이 있는 경우에 상기 에지 보정을 수행하여 개의 영상 몰입도를 향상시킬 수 있다.When the owner's face is included in the input image data IMG, the dog exhibits a relatively high degree of immersion. However, if the contour of the owner's face is not well recognized, such an effect of improving immersion may not be obtained. Accordingly, when the owner's face is present in the input image data IMG, the edge correction may be performed to improve image immersion of the dog.

예를 들어, 상기 영상 분석부(262)는 상기 입력 영상 데이터(IMG)를 미리 입력된 주인의 얼굴 사진과 비교하여 상기 입력 영상 데이터(IMG) 내에 주인의 얼굴이 있는지 판단할 수 있다. For example, the image analyzer 262 may compare the input image data IMG with a pre-input photo of the owner's face to determine whether the owner's face is present in the input image data IMG.

도 16에서 보듯이, 상기 보정 적용부(264)는

Figure 112022014168851-pat00004
의 에지 보정 필터를 이용하여 상기 입력 영상 데이터(IMG)의 에지를 보정할 수 있다. 도 16의 상기 에지 보정 필터는 영상 샤프닝 필터로 부를 수도 있다. 상기 에지 보정 필터는 3행 3열의 매트릭스이며, 상기 매트릭스 내의 9개의 값들을 중심 픽셀과 이웃한 8개의 픽셀들에 각각 곱셈하여 합산한 값을 상기 중심 픽셀 위치에 업데이트 하는 방식으로 상기 에지 보정을 수행할 수 있다. As shown in FIG. 16 , the correction applying unit 264 is
Figure 112022014168851-pat00004
An edge of the input image data IMG may be corrected using an edge correction filter of . The edge correction filter of FIG. 16 may be referred to as an image sharpening filter. The edge correction filter is a matrix of 3 rows and 3 columns, and the edge correction is performed by multiplying the 9 values in the matrix by the central pixel and 8 neighboring pixels, respectively, and updating the summed value to the position of the central pixel. can do.

도 17에서 보듯이, 상기 보정 적용부(264)는

Figure 112022014168851-pat00005
의 에지 보정 필터를 이용하여 상기 입력 영상 데이터(IMG)의 에지를 보정할 수 있다. 도 17의 상기 에지 보정 필터는 에지 인핸스먼트 필터로 부를 수도 있다. 상기 에지 보정 필터는 3행 3열의 매트릭스이며, 상기 매트릭스 내의 9개의 값들을 중심 픽셀과 이웃한 8개의 픽셀들에 각각 곱셈하여 합산한 값을 상기 중심 픽셀 위치에 업데이트 하는 방식으로 상기 에지 보정을 수행할 수 있다.17, the correction applying unit 264 is
Figure 112022014168851-pat00005
An edge of the input image data IMG may be corrected using an edge correction filter of . The edge correction filter of FIG. 17 may be referred to as an edge enhancement filter. The edge correction filter is a matrix of 3 rows and 3 columns, and the edge correction is performed by multiplying the 9 values in the matrix by the central pixel and 8 neighboring pixels, respectively, and updating the summed value to the position of the central pixel. can do.

도 18에서 보듯이, 상기 보정 적용부(264)는

Figure 112022014168851-pat00006
의 에지 보정 필터를 이용하여 상기 입력 영상 데이터(IMG)의 에지를 보정할 수 있다. 도 18의 상기 에지 보정 필터는 에지 인핸스먼트 필터로 부를 수도 있다. 상기 에지 보정 필터는 5행 5열의 매트릭스이며, 상기 매트릭스 내의 25개의 값들을 중심 픽셀과 이웃한 24개의 픽셀들에 각각 곱셈하여 합산한 값을 상기 중심 픽셀 위치에 업데이트 하는 방식으로 상기 에지 보정을 수행할 수 있다.18, the correction applying unit 264 is
Figure 112022014168851-pat00006
An edge of the input image data IMG may be corrected using an edge correction filter of . The edge correction filter of FIG. 18 may be referred to as an edge enhancement filter. The edge correction filter is a matrix of 5 rows and 5 columns, and the edge correction is performed by multiplying 25 values in the matrix by the central pixel and 24 neighboring pixels, respectively, and updating the summed value to the position of the central pixel. can do.

도 19는 개의 시각과 사람의 시각의 공간 주파수의 분해능을 개략적으로 설명하기 위한 도면이다. 공간 주파수의 단위는 시야의 1도 범위(h) 안에 들어오는 구별 가능한 물체의 반복 주기로 표현되는 Cycle per degree (CPD)일 수 있다. 도 19에서 상대적으로 왼쪽에 표시된 그림을 보면, 1도 범위(h) 안에 약 2개의 반복 주기가 배치되며, 상대적으로 오른쪽에 표시된 그림을 보면, 시야의 1도 범위(h) 안에 약 4개의 반복 주기가 배치되는 것으로 도시되었다. 따라서, 도 19에서 왼쪽에 표시된 그림의 공간 주파수 분해능보다 오른쪽에 표시된 그림의 공간 주파수 분해능이 2배 클 수 있다. 19 is a diagram for schematically explaining the spatial frequency resolution of a dog's vision and a human's vision. The unit of spatial frequency may be Cycle per degree (CPD), expressed as the repetition period of a distinguishable object that falls within a 1 degree range (h) of the field of view. Referring to the figure shown on the left relatively in FIG. 19, about 2 repetition cycles are arranged within the range of 1 degree (h), and when looking at the figure shown on the relatively right side, about 4 repetitions are arranged within the range of 1 degree (h) of the field of view (h). The cycle is shown as being placed. Accordingly, the spatial frequency resolution of the figure displayed on the right may be twice as large as that of the figure displayed on the left in FIG. 19 .

일반적으로 개는 사람 대비 1/3 수준의 공간 주파수 분해능을 가질 수 있다. 따라서, 개의 경우 물체의 에지가 선명하게 구별되지 않을 수 있다. In general, a dog can have a spatial frequency resolution of 1/3 that of a human. Therefore, in the case of dogs, the edge of the object may not be clearly distinguished.

도 20은 상기 에지 보정부(260)의 입력 영상 데이터(IMG)를 나타낸다. 도 21은 개에게 인식되는 에지 보정부(260)의 입력 영상 데이터(IMG)를 나타내며, 영상의 에지가 흐릿하여 영상에 대한 개의 흥미가 감소할 수 있다. 도 22는 상기 에지 보정부(260)의 출력 영상 데이터(OIMG)를 나타낸다. 도 22의 출력 영상 데이터(OIMG)는 도 20의 입력 영상 데이터(IMG)에 비해 에지 부분이 더욱 강조된 것을 확인할 수 있다. 도 23은 개에게 인식되는 에지 보정부(260)의 출력 영상 데이터(OIMG)를 나타내며, 상기 에지 보정부(260)에 의해 개가 출력 영상 데이터(OIMG)로부터 에지를 인식하는 정도는 사람이 입력 영상 데이터(IMG)로부터 에지를 인식하는 정도와 유사한 수준으로 증가하는 것을 확인할 수 있다. 20 illustrates input image data IMG of the edge corrector 260 . 21 shows input image data IMG of the edge corrector 260 recognized by the dog, and the edge of the image is blurred, so that the dog's interest in the image may decrease. 22 illustrates output image data OIMG of the edge corrector 260 . It can be seen that the edge portion of the output image data OIMG of FIG. 22 is more emphasized compared to the input image data IMG of FIG. 20 . 23 shows the output image data OIMG of the edge corrector 260 recognized by the dog, and the degree to which the dog recognizes the edge from the output image data OIMG by the edge corrector 260 is the input image It can be seen that the data (IMG) increases to a level similar to the degree of recognizing an edge.

도 24는 도 15의 보정 적용부(264)의 일례를 나타내는 블록도이다. 도 25는 도 24의 에지 판단부(265)에 의해 판단되는 입력 영상 데이터(IMG)의 에지 영역을 나타내는 도면이다. 도 26은 도 24의 에지 오버드라이브부(266)의 동작의 일례를 나타내는 개념도이다. 도 27은 도 24의 에지 오버드라이브부(266)의 동작의 일례를 나타내는 개념도이다.24 is a block diagram illustrating an example of the correction applying unit 264 of FIG. 15 . 25 is a diagram illustrating an edge region of the input image data IMG determined by the edge determining unit 265 of FIG. 24 . 26 is a conceptual diagram illustrating an example of the operation of the edge overdrive unit 266 of FIG. 24 . 27 is a conceptual diagram illustrating an example of the operation of the edge overdrive unit 266 of FIG. 24 .

본 실시예에 따른 개용 표시 장치 및 개용 표시 장치의 구동 방법은 보정 적용부의 동작을 제외하면, 도 16 내지 도 23의 개용 표시 장치 및 개용 표시 장치의 구동 방법과 실질적으로 동일하므로, 동일 또는 유사한 구성 요소에 대해서는 동일한 참조 번호를 사용하고, 중복되는 설명은 생략한다.The dog display device and the dog display device driving method according to the present embodiment are substantially the same as the dog display device and the dog display device driving method of FIGS. 16 to 23 except for the operation of the correction applying unit, and thus have the same or similar configuration The same reference numerals are used for elements, and overlapping descriptions are omitted.

도 1a 내지 도 27을 참조하면, 본 실시예에 따른 보정 적용부(264)는 상기 입력 영상 데이터(IMG)의 에지 영역(EG)을 판단하고, 상기 에지 영역(EG)에 대응하는 부분의 계조를 보정할 수 있다. 1A to 27 , the correction applying unit 264 according to the present exemplary embodiment determines an edge region EG of the input image data IMG, and a grayscale of a portion corresponding to the edge region EG. can be corrected.

예를 들어, 상기 보정 적용부(264)는 상기 입력 영상 데이터(IMG) 내에서 에지의 위치를 검출하는 에지 판단부(265) 및 상기 에지에 대응하는 경계 영역(EG)에서 계조의 차이를 증가시켜 에지를 강조하는 에지 오버드라이브부(266)를 포함할 수 있다. For example, the correction applying unit 264 increases the grayscale difference in the edge determining unit 265 detecting the position of an edge in the input image data IMG and the boundary region EG corresponding to the edge. It may include an edge overdrive unit 266 for emphasizing the edges.

도 25는 상기 에지 판단부(265)에 의해 판단된 상기 입력 영상 데이터(IMG)의 에지를 나타낸다.25 illustrates an edge of the input image data IMG determined by the edge determination unit 265 .

도 26에서, 한 칸은 하나의 픽셀을 의미할 수 있다. 도 26을 참조하면, 상기 입력 영상 데이터(IMG)가 제1 계조(예컨대, 55G)를 갖는 제1 영역 및 상기 제1 계조(예컨대, 55G)보다 큰 제2 계조(예컨대, 120G)를 갖는 제2 영역을 포함하고, 상기 입력 영상 데이터(IMG) 내에서 상기 제1 영역과 상기 제2 영역 사이에 상기 경계 영역(EG)이 형성될 때, 상기 출력 영상 데이터(OIMG)에서 상기 제1 영역 중 경계에 가장 가까운 제1 영역 제1 경계 픽셀은 상기 제1 계조(예컨대, 55G)보다 작은 제1 영역 제1 경계 계조(예컨대, 51G)를 갖고, 상기 제2 영역 중 상기 경계에 가장 가까운 제2 영역 제1 경계 픽셀은 상기 제2 계조(예컨대, 120G)보다 큰 제2 영역 제1 경계 계조(예컨대, 135G)를 가질 수 있다. In FIG. 26 , one cell may mean one pixel. Referring to FIG. 26 , the input image data IMG includes a first region having a first grayscale (eg, 55G) and a second region having a second grayscale (eg, 120G) greater than the first grayscale (eg, 55G). 2 regions, and when the boundary region EG is formed between the first region and the second region in the input image data IMG, one of the first regions in the output image data OIMG The first area first boundary pixel closest to the boundary has a first area first boundary grayscale (eg, 51G) smaller than the first grayscale (eg, 55G), and a second boundary pixel of the second area closest to the boundary The region first boundary pixel may have a second region first boundary grayscale (eg, 135G) greater than the second grayscale (eg, 120G).

상기 출력 영상 데이터(OIMG)의 상기 제1 영역에서 상기 계조는 상기 경계로부터 멀어질수록 증가할 수 있고, 상기 제2 영역에서 상기 계조는 상기 경계로부터 멀어질수록 감소할 수 있다.In the first region of the output image data OIMG, the grayscale may increase as it moves away from the boundary, and in the second region, the grayscale may decrease as it moves away from the boundary.

상기 입력 영상 데이터(IMG) 내에서 상기 제1 영역과 상기 제2 영역 사이에 상기 경계 영역(EG)이 형성될 때, 상기 출력 영상 데이터(OIMG)에서 상기 제1 영역 중 상기 제1 영역 제1 경계 픽셀에 이웃한 제1 영역 제2 경계 픽셀은 상기 제1 계조(예컨대, 55G)보다 작고 상기 제1 영역 제1 경계 계조(예컨대, 51G)보다 큰 제1 영역 제2 경계 계조(예컨대, 53G)를 갖고, 상기 제2 영역 중 상기 제2 영역 제1 경계 픽셀에 이웃한 제2 영역 제2 경계 픽셀은 상기 제2 계조(예컨대, 120G)보다 크고 상기 제2 영역 제1 경계 계조(예컨대, 135G)보다 작은 제2 영역 제2 경계 계조(예컨대, 127G)를 가질 수 있다. When the boundary region EG is formed between the first region and the second region in the input image data IMG, the first region of the first region in the output image data OIMG A first region second boundary pixel adjacent to the boundary pixel is smaller than the first grayscale (eg, 55G) and larger than the first region first boundary grayscale (eg, 51G) of a first region second boundary grayscale (eg, 53G) . The second area may have a second boundary grayscale (eg, 127G) smaller than 135G.

도 27에서, 한 칸은 하나의 픽셀을 의미할 수 있다. 도 27에서는 경계 영역(EG2)이 도 26의 경계 영역(EG)보다 크게 형성되고, 같은 경계 계조를 갖는 경계 픽셀이 하나가 아닌 복수 개 형성될 수 있다. In FIG. 27 , one cell may mean one pixel. In FIG. 27 , the boundary area EG2 is formed to be larger than the boundary area EG of FIG. 26 , and a plurality of boundary pixels having the same boundary grayscale may be formed instead of one.

도 27을 참조하면, 상기 입력 영상 데이터(IMG)가 제1 계조(예컨대, 55G)를 갖는 제1 영역 및 상기 제1 계조(예컨대, 55G)보다 큰 제2 계조(예컨대, 120G)를 갖는 제2 영역을 포함하고, 상기 입력 영상 데이터(IMG) 내에서 상기 제1 영역과 상기 제2 영역 사이에 상기 경계 영역(EG2)이 형성될 때, 상기 출력 영상 데이터(OIMG)에서 상기 제1 영역 중 경계에 가장 가까운 제1 영역 제1 경계 픽셀 그룹(예컨대, 2개의 픽셀)은 상기 제1 계조(예컨대, 55G)보다 작은 제1 영역 제1 경계 계조(예컨대, 51G)를 갖고, 상기 제2 영역 중 상기 경계에 가장 가까운 제2 영역 제1 경계 픽셀 그룹(예컨대, 2개의 픽셀)은 상기 제2 계조(예컨대, 120G)보다 큰 제2 영역 제1 경계 계조(예컨대, 135G)를 가질 수 있다. Referring to FIG. 27 , the input image data IMG includes a first region having a first grayscale (eg, 55G) and a second region having a second grayscale (eg, 120G) greater than the first grayscale (eg, 55G). It includes two regions, and when the boundary region EG2 is formed between the first region and the second region in the input image data IMG, one of the first regions in the output image data OIMG The first region first boundary pixel group (eg, two pixels) closest to the boundary has a first region first boundary gradation (eg, 51G) smaller than the first gradation (eg, 55G), and the second region Among them, the first boundary pixel group (eg, two pixels) of the second region closest to the boundary may have a second region first boundary grayscale (eg, 135G) greater than the second grayscale (eg, 120G).

상기 출력 영상 데이터(OIMG)의 상기 제1 영역에서 상기 계조는 상기 경계로부터 멀어질수록 증가할 수 있고, 상기 제2 영역에서 상기 계조는 상기 경계로부터 멀어질수록 감소할 수 있다.In the first region of the output image data OIMG, the grayscale may increase as it moves away from the boundary, and in the second region, the grayscale may decrease as it moves away from the boundary.

상기 입력 영상 데이터(IMG) 내에서 상기 제1 영역과 상기 제2 영역 사이에 상기 경계 영역(EG2)이 형성될 때, 상기 출력 영상 데이터(OIMG)에서 상기 제1 영역 중 상기 제1 영역 제1 경계 픽셀 그룹(예컨대, 2개의 픽셀)에 이웃한 제1 영역 제2 경계 픽셀 그룹(예컨대, 2개의 픽셀)은 상기 제1 계조(예컨대, 55G)보다 작고 상기 제1 영역 제1 경계 계조(예컨대, 51G)보다 큰 제1 영역 제2 경계 계조(예컨대, 53G)를 갖고, 상기 제2 영역 중 상기 제2 영역 제1 경계 픽셀 그룹(예컨대, 2개의 픽셀)에 이웃한 제2 영역 제2 경계 픽셀 그룹(예컨대, 2개의 픽셀)은 상기 제2 계조(예컨대, 120G)보다 크고 상기 제2 영역 제1 경계 계조(예컨대, 135G)보다 작은 제2 영역 제2 경계 계조(예컨대, 127G)를 가질 수 있다. When the boundary region EG2 is formed between the first region and the second region in the input image data IMG, the first region of the first region in the output image data OIMG A first region second boundary pixel group (eg, two pixels) adjacent to the boundary pixel group (eg, two pixels) is smaller than the first grayscale (eg, 55G) and the first region first boundary grayscale (eg, two pixels) . A group of pixels (eg, two pixels) may have a second region second boundary gradation (eg, 127G) greater than the second gradation (eg, 120G) and smaller than the first boundary gradation (eg, 135G) of the second region. can

도 28은 도 1b의 구동 제어부(200)의 일례를 나타내는 블록도이다.28 is a block diagram illustrating an example of the driving control unit 200 of FIG. 1B .

본 실시예에 따른 개용 표시 장치 및 개용 표시 장치의 구동 방법은 에지 보정부가 개 모드에서 선택적으로 동작하는 것을 제외하면, 도 14 내지 도 27의 개용 표시 장치 및 개용 표시 장치의 구동 방법과 실질적으로 동일하므로, 동일 또는 유사한 구성 요소에 대해서는 동일한 참조 번호를 사용하고, 중복되는 설명은 생략한다.The dog display device and the dog display device driving method according to the present embodiment are substantially the same as the dog display device and the dog display device driving method of FIGS. 14 to 27 , except that the edge correction unit selectively operates in the open mode. Therefore, the same reference numbers are used for the same or similar components, and overlapping descriptions are omitted.

도 1a 내지 도 28을 참조하면, 상기 구동 제어부(200)는 상기 입력 영상 데이터(IMG) 및 모드 신호(MODE)를 수신하고 상기 에지 보정을 수행하여 상기 출력 영상 데이터(OIMG)를 출력하는 에지 보정부(260A)를 포함할 수 있다. 1A to 28 , the driving controller 200 receives the input image data IMG and the mode signal MODE, performs the edge correction, and outputs the output image data OIMG. Government 260A may be included.

상기 에지 보정부(260A)는 개 모드에서 상기 입력 영상 데이터(IMG)의 에지 보정을 수행할 수 있고, 사람 모드에서 상기 입력 영상 데이터(IMG)의 에지 보정을 수행하지 않을 수 있다. The edge corrector 260A may perform edge correction of the input image data IMG in the dog mode, and may not perform edge correction of the input image data IMG in the human mode.

개 모드에서 상기 에지 보정부(260A)는 상기 입력 영상 데이터(IMG)의 에지 영역을 강조하는 상기 에지 보정을 수행하여, 상기 출력 영상 데이터(OIMG)를 생성할 수 있다. In the open mode, the edge correction unit 260A may generate the output image data OIMG by performing the edge correction for emphasizing an edge region of the input image data IMG.

반면, 사람 모드에서 상기 에지 보정부(260A)는 상기 입력 영상 데이터(IMG)를 상기 출력 영상 데이터(OIMG)로 출력할 수 있다. On the other hand, in the human mode, the edge corrector 260A may output the input image data IMG as the output image data OIMG.

본 실시예에 따르면, 개의 시각적 특성에 맞게 입력 영상 데이터(IMG)의 에지 보정을 수행하므로, 영상을 시청하는 개의 몰입도를 높일 수 있다. 또한, 상기 개용 표시 장치는 개 모드에서 에지 보정을 수행하고, 사람 모드에서 에지 보정을 수행하지 않으므로, 하나의 표시 장치를 개와 사람이 함께 이용할 수 있다.According to the present embodiment, since the edge correction of the input image data IMG is performed according to the visual characteristics of the dog, the degree of immersion of the dog watching the image may be increased. Also, since the display device for dogs performs edge correction in the dog mode and does not perform edge correction in the human mode, a single display device can be used by both dogs and humans.

도 29는 도 1b의 구동 제어부(200)의 일례를 나타내는 블록도이다.29 is a block diagram illustrating an example of the driving control unit 200 of FIG. 1B .

도 1a 내지 도 29를 참조하면, 상기 구동 제어부(200)는 상기 입력 영상 데이터(IMG) 및 모드 신호(MODE)를 수신하고 상기 출력 영상 데이터(OIMG)를 출력하는 휘도 보정부(280)를 포함할 수 있다. 1A to 29 , the driving control unit 200 includes a luminance correction unit 280 that receives the input image data IMG and a mode signal MODE and outputs the output image data OIMG. can do.

도 7에서 보듯이, 개의 경우, 휘도의 다이나믹 레인지가 사람에 비해 상대적으로 작으므로, 영상 내에서 휘도 차에 따른 물체의 인지가 저하될 수 있으며, 이에 따라 개의 영상에 대한 몰입도가 감소할 수 있다.As shown in FIG. 7 , in the case of a dog, since the dynamic range of luminance is relatively small compared to humans, the recognition of an object according to the difference in luminance in the image may be lowered, and accordingly, the degree of immersion in the image of the dog may decrease. have.

상기 휘도 보정부(280)는 개 모드에서 출력 영상 데이터(OIMG)의 최소 휘도와 최대 휘도 사이의 차이를 증가시켜 영상 내에서의 휘도 차이를 개가 상대적으로 잘 인지하도록 할 수 있다. The luminance compensator 280 may increase the difference between the minimum luminance and the maximum luminance of the output image data OIMG in the dog mode so that the dog can relatively well recognize the luminance difference in the image.

즉, 개 모드에서 상기 출력 영상 데이터(OIMG)의 최대 휘도는 사람 모드에서 상기 출력 영상 데이터(OIMG)의 최대 휘도보다 클 수 있다. That is, the maximum luminance of the output image data OIMG in the open mode may be greater than the maximum luminance of the output image data OIMG in the human mode.

예를 들어, 개 모드에서 상기 출력 영상 데이터(OIMG)의 최대 휘도는 500 nit이고, 사람 모드에서 상기 출력 영상 데이터(OIMG)의 최대 휘도는 200 nit일 수 있다.For example, in the dog mode, the maximum luminance of the output image data OIMG may be 500 nits, and in the human mode, the maximum luminance of the output image data OIMG may be 200 nits.

본 실시예에 따르면, 개의 시각적 특성에 맞게 개 모드에서 영상 데이터의 최대 휘도를 사람 모드에서 영상 데이터의 최대 휘도보다 높게 설정할 수 있다. 따라서, 영상을 시청하는 개의 몰입도를 높일 수 있다.According to the present embodiment, the maximum luminance of the image data in the dog mode may be set higher than the maximum luminance of the image data in the human mode to match the visual characteristics of the dog. Accordingly, it is possible to increase the immersion level of the dog watching the image.

도 30은 도 1b의 구동 제어부(200)의 일례를 나타내는 블록도이다. 도 31은 도 30의 구동 주파수 제어부(290)의 동작의 일례를 나타내는 도면이다. 도 32는 도 30의 구동 주파수 제어부(290)의 동작의 일례를 나타내는 도면이다. 도 33은 도 30의 구동 주파수 제어부(290)의 동작의 일례를 나타내는 도면이다.30 is a block diagram illustrating an example of the driving control unit 200 of FIG. 1B . FIG. 31 is a diagram showing an example of the operation of the driving frequency control unit 290 of FIG. 30 . FIG. 32 is a diagram showing an example of the operation of the driving frequency control unit 290 of FIG. 30 . FIG. 33 is a diagram illustrating an example of the operation of the driving frequency control unit 290 of FIG. 30 .

도 1a 내지 도 33을 참조하면, 상기 구동 제어부(200)는 상기 입력 영상 데이터(IMG)의 제1 프레임 영상(I1) 및 제2 프레임 영상(I2) 사이에 추가 영상(IC)을 삽입하여 상기 출력 영상 데이터(OIMG)를 생성하는 구동 주파수 제어부(290)를 포함할 수 있다. 1A to 33 , the driving control unit 200 inserts an additional image IC between a first frame image I1 and a second frame image I2 of the input image data IMG. It may include a driving frequency controller 290 that generates the output image data OIMG.

개의 경우, 동체 시력이 매우 우수하여, 낮은 구동 주파수의 영상을 연속된 이미지로 인식하지 못하고, 플리커(flicker)로 인식하는 문제가 있다. 따라서, 상기 구동 주파수 제어부(290)는 입력 영상 데이터(IMG)의 구동 주파수가 낮은 경우, 상기 입력 영상 데이터(IMG)의 구동 주파수를 일정 주파수 이상으로 증가시킬 수 있다. In the case of a dog, there is a problem in that an image of a low driving frequency is not recognized as a continuous image, but is recognized as a flicker because the body acuity is very good. Accordingly, when the driving frequency of the input image data IMG is low, the driving frequency controller 290 may increase the driving frequency of the input image data IMG to a predetermined frequency or higher.

예를 들어, 상기 입력 영상 데이터(IMG)의 주파수가 60Hz인 경우, 상기 구동 주파수 제어부(290)는 상기 입력 영상 데이터(IMG)의 제1 프레임 영상(I1) 및 제2 프레임 영상(I2) 사이에 하나의 추가 영상(IC)을 삽입하여 120Hz의 출력 영상 데이터(OIMG)를 생성할 수 있다.For example, when the frequency of the input image data IMG is 60 Hz, the driving frequency control unit 290 is configured to be configured between the first frame image I1 and the second frame image I2 of the input image data IMG. By inserting one additional image IC into the , output image data OIMG of 120 Hz may be generated.

예를 들어, 상기 입력 영상 데이터(IMG)의 주파수가 30Hz인 경우, 상기 구동 주파수 제어부(290)는 상기 입력 영상 데이터(IMG)의 제1 프레임 영상(I1) 및 제2 프레임 영상(I2) 사이에 3개의 추가 영상(IC)을 삽입하여 120Hz의 출력 영상 데이터(OIMG)를 생성할 수 있다.For example, when the frequency of the input image data IMG is 30 Hz, the driving frequency control unit 290 is configured to be configured between the first frame image I1 and the second frame image I2 of the input image data IMG. It is possible to generate output image data (OIMG) of 120 Hz by inserting three additional images (ICs) into the .

도 31에서, 상기 추가 영상(IC)은 상기 제1 프레임 영상(I1)의 물체의 위치 및 상기 제2 프레임 영상(I2) 내에서 상기 물체의 위치의 사이(점선으로 나타낸 물체의 경로 상)에 상기 물체가 위치하는 움직임 보상 영상인 경우를 예시하였다. 도 31의 상기 제1 프레임 영상(I1) 내에서 동그란 물체가 화면의 좌측 하부에 배치되며, 상기 제2 프레임 영상(I2) 내에서 동그란 물체가 화면의 우측 상부에 배치된다. 이 때, 상기 추가 영상(IC) 내에서는 동그란 물체가 화면의 중심에 배치되게 하여, 움직임 보상 영상을 생성할 수 있다. 도 31에서 점선은 물체의 경로를 나타내기 위한 보조선이며, 실제 영상에 포함된 것은 아닐 수 있다. In FIG. 31 , the additional image IC is located between the position of the object in the first frame image I1 and the position of the object in the second frame image I2 (on the path of the object indicated by the dotted line). A case of a motion compensation image in which the object is located has been exemplified. In the first frame image I1 of FIG. 31 , a round object is disposed on the lower left side of the screen, and in the second frame image I2 , a round object is disposed on the upper right side of the screen. In this case, a motion compensation image may be generated by placing a round object in the center of the screen in the additional image IC. In FIG. 31 , the dotted line is an auxiliary line for indicating the path of the object, and may not be included in the actual image.

도 32에서, 상기 추가 영상(IC)은 상기 제1 프레임 영상(I1) 또는 상기 제2 프레임 영상(I2)을 복사한 복사 영상인 경우를 예시하였다. 구체적으로, 도 32의 상기 추가 영상(IC)은 도 32의 상기 제1 프레임 영상(I1)의 복사 영상인 것을 예시하였다. 도 32에서 점선은 물체의 경로를 나타내기 위한 보조선이며, 실제 영상에 포함된 것은 아닐 수 있다.In FIG. 32 , the additional image IC is a copy image obtained by copying the first frame image I1 or the second frame image I2 . Specifically, it is exemplified that the additional image IC of FIG. 32 is a copy image of the first frame image I1 of FIG. 32 . In FIG. 32 , the dotted line is an auxiliary line for indicating the path of the object, and may not be included in the actual image.

도 33에서, 상기 추가 영상(IC)은 상기 제1 프레임 영상(I1) 및 상기 제2 프레임 영상(I2)과 무관하게 생성될 수 있음을 예시하였다. 도 33에서 점선은 물체의 경로를 나타내기 위한 보조선이며, 실제 영상에 포함된 것은 아닐 수 있다. 예를 들어, 상기 추가 영상(IC)은 주인의 얼굴 사진일 수 있다. 영상의 중간 중간에 주인의 얼굴 사진이 삽입되는 경우, 개의 주의를 끌 수 있으므로, 영상에 대한 몰입도를 크게 향상시킬 수 있다. 33 , it is exemplified that the additional image IC may be generated regardless of the first frame image I1 and the second frame image I2 . In FIG. 33 , the dotted line is an auxiliary line for indicating the path of the object, and may not be included in the actual image. For example, the additional image IC may be a photograph of the owner's face. When a picture of the owner's face is inserted in the middle of the image, it can attract the dog's attention, thereby greatly improving the immersion in the image.

상기 추가 영상(IC)은 주인의 얼굴 사진으로만 한정되지 않으며, 개의 주의를 끌기 위해 미리 생성된 영상일 수 있다. 상기 추가 영상(IC)은 개에게 주입하고자 하는 교육용 영상이나 광고용 영상일 수도 있다. The additional image IC is not limited to a photograph of the owner's face, and may be an image generated in advance to attract the dog's attention. The additional image IC may be an educational image or an advertisement image to be injected into the dog.

상기 추가 영상(IC)은 도 31의 움직임 보상 영상, 도 32의 복사 영상, 도 33의 주의 집중 영상(주인의 얼굴 사진, 교육용 영상, 광고용 영상 등) 중 2개 이상을 포함할 수 있다. The additional image IC may include two or more of the motion compensation image of FIG. 31 , the copy image of FIG. 32 , and the attention-focusing image of FIG. 33 (a photograph of the owner's face, an image for education, an image for advertisement, etc.).

또한, 상기 추가 영상(IC)은 도 31의 움직임 보상 영상, 도 32의 복사 영상, 도 33의 주의 집중 영상(주인의 얼굴 사진, 교육용 영상, 광고용 영상 등) 중 2개 이상이 합성된 영상을 포함할 수도 있다. In addition, the additional image (IC) is an image in which two or more of the motion compensation image of Fig. 31, the copy image of Fig. 32, and the attention image of Fig. 33 (the owner's face photo, educational image, advertisement image, etc.) are synthesized may include

예를 들어, 상기 추가 영상(IC)은 상기 제1 프레임 영상(I1)의 물체의 위치 및 상기 제2 프레임 영상(I2) 내에서 상기 물체의 위치의 사이에 상기 물체가 위치하는 움직임 보상 영상 및 주인의 얼굴 사진의 합성 영상일 수 있다. For example, the additional image IC includes a motion compensation image in which the object is located between the position of the object in the first frame image I1 and the position of the object in the second frame image I2; It may be a composite image of a photograph of the owner's face.

예를 들어, 상기 추가 영상(IC)은 상기 제1 프레임 영상(I1) 또는 상기 제2 프레임 영상(I2)을 복사한 복사 영상 및 주인의 얼굴 사진의 합성 영상일 수 있다. For example, the additional image IC may be a composite image of a copy image obtained by copying the first frame image I1 or the second frame image I2 and a photograph of the owner's face.

도 34는 도 1b의 구동 제어부(200)의 일례를 나타내는 블록도이다.34 is a block diagram illustrating an example of the driving control unit 200 of FIG. 1B .

본 실시예에 따른 개용 표시 장치 및 개용 표시 장치의 구동 방법은 구동 주파수 제어부가 개 모드에서 선택적으로 동작하는 것을 제외하면, 도 30 내지 도 33의 개용 표시 장치 및 개용 표시 장치의 구동 방법과 실질적으로 동일하므로, 동일 또는 유사한 구성 요소에 대해서는 동일한 참조 번호를 사용하고, 중복되는 설명은 생략한다.The dog display device and the dog display device driving method according to the present embodiment are substantially the same as the dog display device and the dog display device driving method of FIGS. 30 to 33 , except that the driving frequency controller selectively operates in the dog mode. Since they are the same, the same reference numbers are used for the same or similar components, and overlapping descriptions are omitted.

도 1a 내지 도 34를 참조하면, 상기 구동 제어부(200)는 상기 입력 영상 데이터(IMG) 및 모드 신호(MODE)를 수신하고 상기 출력 영상 데이터(OIMG)를 출력하는 구동 주파수 제어부(290A)를 포함할 수 있다. 1A to 34 , the driving control unit 200 includes a driving frequency control unit 290A that receives the input image data IMG and a mode signal MODE and outputs the output image data OIMG. can do.

상기 구동 주파수 제어부(290A)는 개 모드에서 상기 입력 영상 데이터(IMG)의 구동 주파수 변환을 수행할 수 있고, 사람 모드에서 상기 입력 영상 데이터(IMG)의 구동 주파수 변환을 수행하지 않을 수 있다. The driving frequency controller 290A may perform driving frequency conversion of the input image data IMG in the dog mode, and may not perform the driving frequency conversion of the input image data IMG in the human mode.

상기 개 모드에서 상기 구동 주파수 제어부(290A)는 제1 프레임 영상(I1) 및 제2 프레임 영상(I2) 사이에 추가 영상(IC)을 삽입하여 상기 출력 영상 데이터(OIMG)를 생성할 수 있다. 반면, 상기 사람 모드에서 상기 구동 주파수 제어부(290A)는 상기 입력 영상 데이터(IMG)를 상기 출력 영상 데이터(OIMG)로 출력할 수 있다. In the open mode, the driving frequency controller 290A may generate the output image data OIMG by inserting an additional image IC between the first frame image I1 and the second frame image I2 . On the other hand, in the human mode, the driving frequency controller 290A may output the input image data IMG as the output image data OIMG.

상기 개 모드에서 상기 출력 영상 데이터(OIMG)의 구동 주파수는 상기 사람 모드에서 상기 출력 영상 데이터(OIMG)의 구동 주파수보다 클 수 있다. A driving frequency of the output image data OIMG in the open mode may be greater than a driving frequency of the output image data OIMG in the human mode.

본 실시예에 따르면, 개의 시각적 특성에 맞게 입력 영상 데이터(IMG)의 구동 주파수 변환을 수행하므로, 영상을 시청하는 개의 몰입도를 높일 수 있다. 또한, 상기 개용 표시 장치는 개 모드에서 구동 주파수 변환을 수행하고, 사람 모드에서 구동 주파수 변환을 수행하지 않으므로, 하나의 표시 장치를 개와 사람이 함께 이용할 수 있다.According to the present embodiment, since the driving frequency conversion of the input image data IMG is performed according to the visual characteristics of the dog, the degree of immersion of the dog watching the image may be increased. Also, since the display device for dogs performs driving frequency conversion in dog mode and does not perform driving frequency conversion in human mode, a single display device can be used by both dogs and humans.

본 발명은 개용 표시 장치 및 이를 포함하는 전자 기기에 적용될 수 있다. 예를 들어, 본 발명은 디지털 TV, 3D TV, 휴대폰, 스마트폰, 태블릿 컴퓨터, VR 기기, PC, 가정용 전자기기, 노트북 컴퓨터, PDA, PMP, 디지털 카메라, 음악 재생기, 휴대용 게임 콘솔, 내비게이션 등에 적용될 수 있다.The present invention can be applied to a dog display device and an electronic device including the same. For example, the present invention may be applied to digital TV, 3D TV, mobile phone, smart phone, tablet computer, VR device, PC, home electronic device, notebook computer, PDA, PMP, digital camera, music player, portable game console, navigation, etc. can

이상 실시예들을 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.Although it has been described with reference to the above embodiments, it will be understood by those skilled in the art that various modifications and changes can be made to the present invention without departing from the spirit and scope of the present invention as set forth in the claims below. will be able

100: 표시 패널 200: 구동 제어부
220, 220A: 컬러 보정부
240, 240A: 콘트라스트/감마 보정부
260, 260A: 에지 보정부 262: 영상 분석부
264: 보정 적용부 265: 에지 판단부
266: 에지 오버드라이브부 280: 휘도 보정부
290, 290A: 구동 주파수 제어부 300: 게이트 구동부
400: 감마 기준 전압 생성부 500: 데이터 구동부
100: display panel 200: driving control unit
220, 220A: color correction unit
240, 240A: Contrast/Gamma Correction Unit
260, 260A: edge correction unit 262: image analysis unit
264: correction application unit 265: edge determination unit
266: edge overdrive unit 280: luminance correction unit
290, 290A: driving frequency control unit 300: gate driving unit
400: gamma reference voltage generator 500: data driver

Claims (29)

표시 패널;
개의 시각적 특성을 기초로 컬러 보정, 콘트라스트 보정, 감마 보정, 에지 보정, 휘도 보정 및 구동 주파수 변환 중 적어도 어느 하나를 수행하여 입력 영상 데이터를 출력 영상 데이터로 변환하는 구동 제어부; 및
상기 출력 영상 데이터를 기초로 데이터 전압을 생성하여 상기 표시 패널에 출력하는 데이터 구동부를 포함하고,
상기 구동 제어부는 상기 입력 영상 데이터 및 모드 신호를 수신하고 상기 에지 보정을 수행하여 상기 출력 영상 데이터를 출력하는 에지 보정부를 포함하고,
개 모드에서 상기 에지 보정부는 상기 입력 영상 데이터의 에지 영역을 강조하는 상기 에지 보정을 수행하고,
사람 모드에서 상기 에지 보정부는 상기 입력 영상 데이터를 상기 출력 영상 데이터로 출력하는 것을 특징으로 하는 개용 표시 장치.
display panel;
a driving controller configured to convert input image data into output image data by performing at least one of color correction, contrast correction, gamma correction, edge correction, luminance correction, and driving frequency conversion based on the visual characteristics of the dog; and
and a data driver generating a data voltage based on the output image data and outputting it to the display panel;
The driving control unit includes an edge correction unit for receiving the input image data and the mode signal, performing the edge correction to output the output image data,
In the open mode, the edge correction unit performs the edge correction for emphasizing an edge region of the input image data,
In the human mode, the edge correction unit outputs the input image data as the output image data.
삭제delete 삭제delete 제1항에 있어서,
상기 구동 제어부는 상기 입력 영상 데이터 및 상기 모드 신호를 수신하고 상기 컬러 보정을 수행하여 상기 출력 영상 데이터를 출력하는 컬러 보정부를 포함하며,
상기 개 모드에서 상기 컬러 보정부는 입력 레드 데이터를 출력 레드 데이터 및 블루 보상 데이터로 변환하거나, 입력 그린 데이터를 출력 그린 데이터 및 상기 블루 보상 데이터로 변환하고,
상기 사람 모드에서 상기 컬러 보정부는 상기 입력 영상 데이터를 상기 출력 영상 데이터로 출력하는 것을 특징으로 하는 개용 표시 장치.
According to claim 1,
The driving control unit includes a color correction unit that receives the input image data and the mode signal, performs the color correction, and outputs the output image data,
In the open mode, the color correction unit converts input red data into output red data and blue compensation data, or converts input green data into output green data and the blue compensation data,
In the human mode, the color correction unit outputs the input image data as the output image data.
제1항에 있어서,
상기 구동 제어부는 상기 입력 영상 데이터를 수신하고 계조 휘도 곡선을 기초로 상기 콘트라스트 보정을 수행하여 상기 출력 영상 데이터를 출력하는 콘트라스트/감마 보정부를 포함하며,
상기 입력 영상 데이터는 제1 계조 영역을 갖는 제1 데이터, 상기 제1 계조 영역보다 큰 계조를 갖는 제2 계조 영역을 갖는 제2 데이터 및 상기 제2 계조 영역보다 큰 계조를 갖는 제3 계조 영역을 갖는 제3 데이터를 포함하고,
상기 제2 계조 영역에 대응하는 상기 계조 휘도 곡선의 제2 기울기는 상기 제1 계조 영역에 대응하는 상기 계조 휘도 곡선의 제1 기울기보다 큰 것을 특징으로 하는 개용 표시 장치.
According to claim 1,
The driving control unit includes a contrast/gamma correction unit that receives the input image data and outputs the output image data by performing the contrast correction based on the grayscale luminance curve,
The input image data includes first data having a first grayscale region, second data having a second grayscale region having a greater grayscale than the first grayscale region, and a third grayscale region having a greater grayscale than the second grayscale region. and third data having
and a second slope of the grayscale luminance curve corresponding to the second grayscale region is greater than a first slope of the grayscale luminance curve corresponding to the first grayscale region.
제5항에 있어서,
상기 제2 계조 영역에 대응하는 상기 계조 휘도 곡선의 상기 제2 기울기는 상기 제3 계조 영역에 대응하는 상기 계조 휘도 곡선의 제3 기울기보다 큰 것을 특징으로 하는 개용 표시 장치.
6. The method of claim 5,
and the second slope of the grayscale luminance curve corresponding to the second grayscale region is greater than a third slope of the grayscale luminance curve corresponding to the third grayscale region.
제1항에 있어서,
상기 구동 제어부는 상기 입력 영상 데이터 및 상기 모드 신호를 수신하고 상기 콘트라스트 보정을 수행하여 상기 출력 영상 데이터를 출력하는 콘트라스트/감마 보정부를 포함하며,
상기 입력 영상 데이터는 제1 계조 영역을 갖는 제1 데이터, 상기 제1 계조 영역보다 큰 계조를 갖는 제2 계조 영역을 갖는 제2 데이터 및 상기 제2 계조 영역보다 큰 계조를 갖는 제3 계조 영역을 갖는 제3 데이터를 포함하고,
상기 개 모드에서 상기 콘트라스트/감마 보정부는 상기 제1 계조 영역에 대응하여 제1 기울기를 갖고, 상기 제2 계조 영역에 대응하여 상기 제1 기울기보다 큰 제2 기울기를 갖는 계조 휘도 곡선을 이용하여 상기 콘트라스트 보정을 수행하고,
상기 사람 모드에서 상기 콘트라스트/감마 보정부는 상기 입력 영상 데이터를 상기 출력 영상 데이터로 출력하는 것을 특징으로 하는 개용 표시 장치.
According to claim 1,
The driving control unit includes a contrast/gamma correction unit receiving the input image data and the mode signal, performing the contrast correction, and outputting the output image data,
The input image data includes first data having a first grayscale region, second data having a second grayscale region having a greater grayscale than the first grayscale region, and a third grayscale region having a greater grayscale than the second grayscale region. and third data having
In the open mode, the contrast/gamma correction unit uses a grayscale luminance curve having a first gradient corresponding to the first grayscale region and a second gradient greater than the first gradient corresponding to the second grayscale region. Contrast correction is performed,
In the human mode, the contrast/gamma correction unit outputs the input image data as the output image data.
표시 패널;
개의 시각적 특성을 기초로 컬러 보정, 콘트라스트 보정, 감마 보정, 에지 보정, 휘도 보정 및 구동 주파수 변환 중 적어도 어느 하나를 수행하여 입력 영상 데이터를 출력 영상 데이터로 변환하는 구동 제어부; 및
상기 출력 영상 데이터를 기초로 데이터 전압을 생성하여 상기 표시 패널에 출력하는 데이터 구동부를 포함하고,
상기 구동 제어부는 상기 입력 영상 데이터를 수신하고 상기 에지 보정을 수행하여 상기 출력 영상 데이터를 출력하는 에지 보정부를 포함하고,
상기 에지 보정부는
상기 입력 영상 데이터가 정지 영상인지 동영상인지 판단하는 영상 분석부; 및
상기 입력 영상 데이터가 정지 영상일 때, 상기 에지 보정을 수행하고, 상기 입력 영상 데이터가 동영상일 때, 상기 에지 보정을 수행하지 않는 보정 적용부를 포함하는 것을 특징으로 하는 개용 표시 장치.
display panel;
a driving controller configured to convert input image data into output image data by performing at least one of color correction, contrast correction, gamma correction, edge correction, luminance correction, and driving frequency conversion based on the visual characteristics of the dog; and
and a data driver generating a data voltage based on the output image data and outputting it to the display panel;
The driving control unit includes an edge correction unit that receives the input image data and outputs the output image data by performing the edge correction,
The edge correction unit
an image analysis unit for determining whether the input image data is a still image or a moving image; and
and a correction applying unit that performs the edge correction when the input image data is a still image, and does not perform the edge correction when the input image data is a moving image.
표시 패널;
개의 시각적 특성을 기초로 컬러 보정, 콘트라스트 보정, 감마 보정, 에지 보정, 휘도 보정 및 구동 주파수 변환 중 적어도 어느 하나를 수행하여 입력 영상 데이터를 출력 영상 데이터로 변환하는 구동 제어부; 및
상기 출력 영상 데이터를 기초로 데이터 전압을 생성하여 상기 표시 패널에 출력하는 데이터 구동부를 포함하고,
상기 구동 제어부는 상기 입력 영상 데이터를 수신하고 상기 에지 보정을 수행하여 상기 출력 영상 데이터를 출력하는 에지 보정부를 포함하고,
상기 에지 보정부는
상기 입력 영상 데이터를 분석하는 영상 분석부; 및
이전 프레임 데이터와 현재 프레임 데이터 사이에 데이터가 변화된 픽셀의 개수가 문턱값보다 작을 때, 상기 에지 보정을 수행하고, 상기 이전 프레임 데이터와 상기 현재 프레임 데이터 사이에 데이터가 변화된 픽셀의 개수가 상기 문턱값보다 크거나 같을 때, 상기 에지 보정을 수행하지 않는 보정 적용부를 포함하는 것을 특징으로 하는 개용 표시 장치.
display panel;
a driving controller configured to convert input image data into output image data by performing at least one of color correction, contrast correction, gamma correction, edge correction, luminance correction, and driving frequency conversion based on the visual characteristics of the dog; and
and a data driver generating a data voltage based on the output image data and outputting it to the display panel;
The driving control unit includes an edge correction unit that receives the input image data and outputs the output image data by performing the edge correction,
The edge correction unit
an image analyzer analyzing the input image data; and
When the number of pixels whose data is changed between the previous frame data and the current frame data is less than a threshold value, the edge correction is performed, and the number of pixels whose data is changed between the previous frame data and the current frame data is the threshold value and a correction applying unit that does not perform the edge correction when greater than or equal to.
표시 패널;
개의 시각적 특성을 기초로 컬러 보정, 콘트라스트 보정, 감마 보정, 에지 보정, 휘도 보정 및 구동 주파수 변환 중 적어도 어느 하나를 수행하여 입력 영상 데이터를 출력 영상 데이터로 변환하는 구동 제어부; 및
상기 출력 영상 데이터를 기초로 데이터 전압을 생성하여 상기 표시 패널에 출력하는 데이터 구동부를 포함하고,
상기 구동 제어부는 상기 입력 영상 데이터를 수신하고 상기 에지 보정을 수행하여 상기 출력 영상 데이터를 출력하는 에지 보정부를 포함하고,
상기 에지 보정부는
상기 입력 영상 데이터 내에 주인의 얼굴이 있는지 판단하는 영상 분석부; 및
상기 입력 영상 데이터 내에 상기 주인의 얼굴이 있을 때, 상기 에지 보정을 수행하고, 상기 입력 영상 데이터 내에 상기 주인의 얼굴이 없을 때, 상기 에지 보정을 수행하지 않는 보정 적용부를 포함하는 것을 특징으로 하는 개용 표시 장치.
display panel;
a driving controller configured to convert input image data into output image data by performing at least one of color correction, contrast correction, gamma correction, edge correction, luminance correction, and driving frequency conversion based on the visual characteristics of the dog; and
and a data driver generating a data voltage based on the output image data and outputting it to the display panel;
The driving control unit includes an edge correction unit that receives the input image data and outputs the output image data by performing the edge correction,
The edge correction unit
an image analysis unit for determining whether the owner's face is present in the input image data; and
and a correction applying unit that performs the edge correction when there is the face of the owner in the input image data, and does not perform the edge correction when the face of the owner is not in the input image data. display device.
제1항에 있어서,
상기 에지 보정부는
상기 입력 영상 데이터를 분석하는 영상 분석부; 및
상기 에지 보정을 선택적으로 적용하는 보정 적용부를 포함하고,
상기 보정 적용부는
상기 입력 영상 데이터 내에서 에지의 위치를 검출하는 에지 판단부; 및
상기 에지에 대응하는 경계 영역에서 계조의 차이를 증가시켜 에지를 강조하는 에지 오버드라이브부를 포함하는 것을 특징으로 하는 개용 표시 장치.
According to claim 1,
The edge correction unit
an image analyzer analyzing the input image data; and
Comprising a correction applying unit for selectively applying the edge correction,
The correction applying unit
an edge determination unit detecting a position of an edge in the input image data; and
and an edge overdrive unit for emphasizing an edge by increasing a difference in grayscale in a boundary region corresponding to the edge.
표시 패널;
개의 시각적 특성을 기초로 컬러 보정, 콘트라스트 보정, 감마 보정, 에지 보정, 휘도 보정 및 구동 주파수 변환 중 적어도 어느 하나를 수행하여 입력 영상 데이터를 출력 영상 데이터로 변환하는 구동 제어부; 및
상기 출력 영상 데이터를 기초로 데이터 전압을 생성하여 상기 표시 패널에 출력하는 데이터 구동부를 포함하고,
상기 구동 제어부는 상기 입력 영상 데이터를 수신하고 상기 에지 보정을 수행하여 상기 출력 영상 데이터를 출력하는 에지 보정부를 포함하고,
상기 에지 보정부는
상기 입력 영상 데이터를 분석하는 영상 분석부; 및
상기 에지 보정을 선택적으로 적용하는 보정 적용부를 포함하고,
상기 보정 적용부는
상기 입력 영상 데이터 내에서 에지의 위치를 검출하는 에지 판단부; 및
상기 에지에 대응하는 경계 영역에서 계조의 차이를 증가시켜 에지를 강조하는 에지 오버드라이브부를 포함하며,
상기 입력 영상 데이터가 제1 계조를 갖는 제1 영역 및 상기 제1 계조보다 큰 제2 계조를 갖는 제2 영역을 포함하고, 상기 입력 영상 데이터 내에서 상기 제1 영역과 상기 제2 영역 사이에 상기 경계 영역이 형성될 때, 상기 출력 영상 데이터에서 상기 제1 영역 중 경계에 가장 가까운 제1 영역 제1 경계 픽셀은 상기 제1 계조보다 작은 제1 영역 제1 경계 계조를 갖고, 상기 제2 영역 중 상기 경계에 가장 가까운 제2 영역 제1 경계 픽셀은 상기 제2 계조보다 큰 제2 영역 제1 경계 계조를 갖는 것을 특징으로 하는 개용 표시 장치.
display panel;
a driving controller configured to convert input image data into output image data by performing at least one of color correction, contrast correction, gamma correction, edge correction, luminance correction, and driving frequency conversion based on the visual characteristics of the dog; and
and a data driver generating a data voltage based on the output image data and outputting it to the display panel;
The driving control unit includes an edge correction unit that receives the input image data and outputs the output image data by performing the edge correction,
The edge correction unit
an image analyzer analyzing the input image data; and
Comprising a correction applying unit for selectively applying the edge correction,
The correction applying unit
an edge determination unit detecting a position of an edge in the input image data; and
an edge overdrive unit for emphasizing an edge by increasing a difference in gradation in a boundary region corresponding to the edge;
The input image data includes a first area having a first grayscale and a second area having a second grayscale greater than the first grayscale, and the input image data is disposed between the first area and the second area in the input image data. When the boundary region is formed, a first boundary pixel of a first region closest to the boundary among the first regions in the output image data has a first boundary grayscale smaller than the first grayscale, and among the second region The display device according to claim 1, wherein the first boundary pixel of the second region closest to the boundary has a first boundary grayscale of the second region greater than the second grayscale.
제12항에 있어서, 상기 입력 영상 데이터 내에서 상기 제1 영역과 상기 제2 영역 사이에 상기 경계 영역이 형성될 때, 상기 출력 영상 데이터에서 상기 제1 영역 중 상기 제1 영역 제1 경계 픽셀에 이웃한 제1 영역 제2 경계 픽셀은 상기 제1 계조보다 작고 상기 제1 영역 제1 경계 계조보다 큰 제1 영역 제2 경계 계조를 갖고, 상기 제2 영역 중 상기 제2 영역 제1 경계 픽셀에 이웃한 제2 영역 제2 경계 픽셀은 상기 제2 계조보다 크고 상기 제2 영역 제1 경계 계조보다 작은 제2 영역 제2 경계 계조를 갖는 것을 특징으로 하는 개용 표시 장치.13. The method of claim 12, wherein when the boundary region is formed between the first region and the second region in the input image data, in the output image data, in the output image data, the first boundary pixel of the first region A second boundary pixel of the first region adjacent to the first region has a second boundary grayscale that is smaller than the first grayscale and greater than the first boundary grayscale of the first area, and is located in the first boundary pixel of the second area among the second areas. The display device according to claim 1, wherein a second boundary pixel of a second area adjacent to the second area has a second boundary grayscale that is greater than the second grayscale and smaller than the first boundary grayscale of the second area. 표시 패널;
개의 시각적 특성을 기초로 컬러 보정, 콘트라스트 보정, 감마 보정, 에지 보정, 휘도 보정 및 구동 주파수 변환 중 적어도 어느 하나를 수행하여 입력 영상 데이터를 출력 영상 데이터로 변환하는 구동 제어부; 및
상기 출력 영상 데이터를 기초로 데이터 전압을 생성하여 상기 표시 패널에 출력하는 데이터 구동부를 포함하고,
상기 구동 제어부는 상기 입력 영상 데이터를 수신하고 상기 에지 보정을 수행하여 상기 출력 영상 데이터를 출력하는 에지 보정부를 포함하고,
상기 에지 보정부는
상기 입력 영상 데이터를 분석하는 영상 분석부; 및
상기 에지 보정을 선택적으로 적용하는 보정 적용부를 포함하고,
상기 보정 적용부는
상기 입력 영상 데이터 내에서 에지의 위치를 검출하는 에지 판단부; 및
상기 에지에 대응하는 경계 영역에서 계조의 차이를 증가시켜 에지를 강조하는 에지 오버드라이브부를 포함하며,
상기 입력 영상 데이터가 제1 계조를 갖는 제1 영역 및 상기 제1 계조보다 큰 제2 계조를 갖는 제2 영역을 포함하고, 상기 입력 영상 데이터 내에서 상기 제1 영역과 상기 제2 영역 사이에 상기 경계 영역이 형성될 때, 상기 출력 영상 데이터에서 상기 제1 영역 중 경계에 가장 가까운 제1 영역 제1 경계 픽셀 그룹은 상기 제1 계조보다 작은 제1 영역 제1 경계 계조를 갖고, 상기 제2 영역 중 상기 경계에 가장 가까운 제2 영역 제1 경계 픽셀 그룹은 상기 제2 계조보다 큰 제2 영역 제1 경계 계조를 갖는 것을 특징으로 하는 개용 표시 장치.
display panel;
a driving controller configured to convert input image data into output image data by performing at least one of color correction, contrast correction, gamma correction, edge correction, luminance correction, and driving frequency conversion based on the visual characteristics of the dog; and
and a data driver generating a data voltage based on the output image data and outputting it to the display panel;
The driving control unit includes an edge correction unit that receives the input image data and outputs the output image data by performing the edge correction,
The edge correction unit
an image analyzer analyzing the input image data; and
Comprising a correction applying unit for selectively applying the edge correction,
The correction applying unit
an edge determination unit detecting a position of an edge in the input image data; and
an edge overdrive unit for emphasizing an edge by increasing a difference in gradation in a boundary region corresponding to the edge;
The input image data includes a first area having a first grayscale and a second area having a second grayscale greater than the first grayscale, and the input image data is disposed between the first area and the second area in the input image data. When a boundary region is formed, a first boundary pixel group in a first region closest to a boundary among the first regions in the output image data has a first boundary grayscale smaller than the first grayscale, and a first boundary grayscale in the second region and a first boundary pixel group in a second region closest to the boundary has a first boundary grayscale in a second region greater than the second grayscale.
제14항에 있어서, 상기 입력 영상 데이터 내에서 상기 제1 영역과 상기 제2 영역 사이에 상기 경계 영역이 형성될 때, 상기 출력 영상 데이터에서 상기 제1 영역 중 상기 제1 영역 제1 경계 픽셀 그룹에 이웃한 제1 영역 제2 경계 픽셀 그룹은 상기 제1 계조보다 작고 상기 제1 영역 제1 경계 계조보다 큰 제1 영역 제2 경계 계조를 갖고, 상기 제2 영역 중 상기 제2 영역 제1 경계 픽셀 그룹에 이웃한 제2 영역 제2 경계 픽셀 그룹은 상기 제2 계조보다 크고 상기 제2 영역 제1 경계 계조보다 작은 제2 영역 제2 경계 계조를 갖는 것을 특징으로 하는 개용 표시 장치.The first boundary pixel group of claim 14 , wherein when the boundary region is formed between the first region and the second region in the input image data, the first region among the first regions in the output image data A second boundary pixel group of a first region adjacent to , has a first region second boundary grayscale that is smaller than the first grayscale and greater than a first boundary grayscale of the first region, and has a first boundary of the second area among the second areas The display device of claim 1, wherein a second boundary pixel group of a second area adjacent to the pixel group has a second boundary grayscale that is greater than the second grayscale and smaller than the first boundary grayscale of the second area. 제1항에 있어서,
상기 에지 보정부에서 사용되는 에지 보정 필터는
Figure 112022068594831-pat00007
인 것을 특징으로 하는 개용 표시 장치.
According to claim 1,
The edge correction filter used in the edge correction unit is
Figure 112022068594831-pat00007
Dog display device, characterized in that.
제1항에 있어서,
상기 에지 보정부에서 사용되는 에지 보정 필터는
Figure 112022068594831-pat00008
인 것을 특징으로 하는 개용 표시 장치.
According to claim 1,
The edge correction filter used in the edge correction unit is
Figure 112022068594831-pat00008
Dog display device, characterized in that.
제1항에 있어서,
상기 에지 보정부에서 사용되는 에지 보정 필터는
Figure 112022068594831-pat00009
인 것을 특징으로 하는 개용 표시 장치.
According to claim 1,
The edge correction filter used in the edge correction unit is
Figure 112022068594831-pat00009
Dog display device, characterized in that.
삭제delete 제1항에 있어서, 상기 구동 제어부는 상기 입력 영상 데이터 및 상기 모드 신호를 수신하고 상기 출력 영상 데이터를 출력하는 휘도 보정부를 포함하고,
상기 개 모드에서 상기 출력 영상 데이터의 최대 휘도는 상기 사람 모드에서 상기 출력 영상 데이터의 최대 휘도보다 큰 것을 특징으로 하는 개용 표시 장치.
According to claim 1, wherein the driving control unit comprises a luminance correction unit for receiving the input image data and the mode signal, and outputting the output image data,
and a maximum luminance of the output image data in the dog mode is greater than a maximum luminance of the output image data in the human mode.
제1항에 있어서, 상기 구동 제어부는 상기 입력 영상 데이터의 제1 프레임 영상 및 제2 프레임 영상 사이에 추가 영상을 삽입하여 상기 출력 영상 데이터를 생성하는 구동 주파수 제어부를 포함하는 것을 특징으로 하는 개용 표시 장치.The dog display according to claim 1, wherein the driving control unit includes a driving frequency control unit for generating the output image data by inserting an additional image between a first frame image and a second frame image of the input image data. Device. 제21항에 있어서, 상기 추가 영상은 주인의 얼굴 사진인 것을 특징으로 하는 개용 표시 장치.The display device for dogs according to claim 21, wherein the additional image is a photograph of the owner's face. 제21항에 있어서, 상기 추가 영상은 개의 주의를 끌기 위해 미리 생성된 영상이며, 상기 제1 프레임 영상 및 상기 제2 프레임 영상과 무관한 영상인 것을 특징으로 하는 개용 표시 장치.The display device according to claim 21, wherein the additional image is an image previously generated to attract the dog's attention, and is an image irrelevant to the first frame image and the second frame image. 제21항에 있어서, 상기 추가 영상은
상기 제1 프레임 영상의 물체의 위치 및 상기 제2 프레임 영상 내에서 상기 물체의 위치의 사이에 상기 물체가 위치하는 움직임 보상 영상; 및
주인의 얼굴 사진 또는 개의 주의를 끌기 위해 상기 제1 프레임 영상 및 상기 제2 프레임 영상과 무관하게 생성된 영상을 포함하는 것을 특징으로 하는 개용 표시 장치.
The method of claim 21, wherein the additional image is
a motion compensation image in which the object is located between the position of the object in the first frame image and the position of the object in the second frame image; and
and an image generated independently of the first frame image and the second frame image in order to draw attention of the owner's face or the dog.
제21항에 있어서, 상기 추가 영상은
상기 제1 프레임 영상의 물체의 위치 및 상기 제2 프레임 영상 내에서 상기 물체의 위치의 사이에 상기 물체가 위치하는 움직임 보상 영상 및 주인의 얼굴 사진의 합성 영상인 것을 특징으로 하는 개용 표시 장치.
The method of claim 21, wherein the additional image is
and a composite image of a motion compensation image in which the object is located between the position of the object in the first frame image and the position of the object in the second frame image and a photograph of the owner's face.
제21항에 있어서, 상기 추가 영상은
상기 제1 프레임 영상 또는 상기 제2 프레임 영상을 복사한 복사 영상; 및
주인의 얼굴 사진 또는 개의 주의를 끌기 위해 상기 제1 프레임 영상 및 상기 제2 프레임 영상과 무관하게 생성된 영상을 포함하는 것을 특징으로 하는 개용 표시 장치.
The method of claim 21, wherein the additional image is
a copy image obtained by copying the first frame image or the second frame image; and
and an image generated independently of the first frame image and the second frame image in order to draw attention of the owner's face or the dog.
제21항에 있어서, 상기 추가 영상은
상기 제1 프레임 영상 또는 상기 제2 프레임 영상을 복사한 복사 영상 및 주인의 얼굴 사진의 합성 영상인 것을 특징으로 하는 개용 표시 장치.
The method of claim 21, wherein the additional image is
The dog display device, characterized in that it is a composite image of a copy image copied from the first frame image or the second frame image and a photograph of the owner's face.
제1항에 있어서, 상기 구동 제어부는 상기 입력 영상 데이터 및 상기 모드 신호를 수신하고 상기 출력 영상 데이터를 출력하는 구동 주파수 제어부를 포함하고,
상기 개 모드에서 상기 출력 영상 데이터의 구동 주파수는 상기 사람 모드에서 상기 출력 영상 데이터의 구동 주파수보다 큰 것을 특징으로 하는 개용 표시 장치.
According to claim 1, wherein the driving control unit comprises a driving frequency control unit for receiving the input image data and the mode signal and outputting the output image data,
and a driving frequency of the output image data in the dog mode is greater than a driving frequency of the output image data in the human mode.
개의 시각적 특성을 기초로 컬러 보정, 콘트라스트 보정, 감마 보정, 에지 보정, 휘도 보정 및 구동 주파수 변환 중 적어도 어느 하나를 수행하여 입력 영상 데이터를 출력 영상 데이터로 변환하는 단계;
상기 출력 영상 데이터를 기초로 데이터 신호를 생성하는 단계;
상기 데이터 신호를 데이터 전압으로 변환하는 단계; 및
상기 데이터 전압을 표시 패널에 출력하는 단계를 포함하고,
상기 입력 영상 데이터는 입력 레드 데이터, 입력 그린 데이터 및 입력 블루 데이터를 포함하고,
상기 출력 영상 데이터는 출력 레드 데이터, 블루 보상 데이터, 출력 그린 데이터 및 출력 블루 데이터를 포함하며,
상기 입력 영상 데이터를 출력 영상 데이터로 변환하는 단계는 상기 입력 레드 데이터를 상기 출력 레드 데이터 및 상기 블루 보상 데이터로 변환하거나, 상기 입력 그린 데이터를 상기 출력 그린 데이터 및 상기 블루 보상 데이터로 변환하는 것을 특징으로 하는 개용 표시 장치의 구동 방법.
converting input image data into output image data by performing at least one of color correction, contrast correction, gamma correction, edge correction, luminance correction, and driving frequency transformation based on the visual characteristics of the dog;
generating a data signal based on the output image data;
converting the data signal into a data voltage; and
outputting the data voltage to a display panel;
The input image data includes input red data, input green data, and input blue data,
The output image data includes output red data, blue compensation data, output green data, and output blue data,
The converting of the input image data into the output image data may include converting the input red data into the output red data and the blue compensation data, or converting the input green data into the output green data and the blue compensation data. A method of driving a display device for dogs.
KR1020220016419A 2022-02-08 2022-02-08 Display apparatus for dog and method of driving the same KR102423052B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020220016419A KR102423052B1 (en) 2022-02-08 2022-02-08 Display apparatus for dog and method of driving the same
PCT/KR2023/001577 WO2023153723A1 (en) 2022-02-08 2023-02-03 Display device for dog and method for driving same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220016419A KR102423052B1 (en) 2022-02-08 2022-02-08 Display apparatus for dog and method of driving the same

Publications (2)

Publication Number Publication Date
KR102423052B1 true KR102423052B1 (en) 2022-07-22
KR102423052B9 KR102423052B9 (en) 2023-04-12

Family

ID=82606071

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220016419A KR102423052B1 (en) 2022-02-08 2022-02-08 Display apparatus for dog and method of driving the same

Country Status (2)

Country Link
KR (1) KR102423052B1 (en)
WO (1) WO2023153723A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023153723A1 (en) * 2022-02-08 2023-08-17 주식회사 써니웨이브텍 Display device for dog and method for driving same

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004111989A1 (en) * 2003-06-16 2004-12-23 Dai Nippon Printing Co., Ltd. Tone reproduction characteristics measuring device for color monitor
KR20170015716A (en) * 2015-07-30 2017-02-09 삼성디스플레이 주식회사 Display apparatus
KR20170020665A (en) * 2015-08-13 2017-02-23 삼성디스플레이 주식회사 Display device and driving method thereof
KR20200117650A (en) * 2019-04-05 2020-10-14 삼성전자주식회사 Image processing apparatus and image processing method thereof
KR20210074017A (en) * 2019-12-11 2021-06-21 대한민국(농촌진흥청장) System for authenticating the biological information of dog

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102423052B1 (en) * 2022-02-08 2022-07-22 주식회사 써니웨이브텍 Display apparatus for dog and method of driving the same

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004111989A1 (en) * 2003-06-16 2004-12-23 Dai Nippon Printing Co., Ltd. Tone reproduction characteristics measuring device for color monitor
KR20170015716A (en) * 2015-07-30 2017-02-09 삼성디스플레이 주식회사 Display apparatus
KR20170020665A (en) * 2015-08-13 2017-02-23 삼성디스플레이 주식회사 Display device and driving method thereof
KR20200117650A (en) * 2019-04-05 2020-10-14 삼성전자주식회사 Image processing apparatus and image processing method thereof
KR20210074017A (en) * 2019-12-11 2021-06-21 대한민국(농촌진흥청장) System for authenticating the biological information of dog

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023153723A1 (en) * 2022-02-08 2023-08-17 주식회사 써니웨이브텍 Display device for dog and method for driving same

Also Published As

Publication number Publication date
WO2023153723A1 (en) 2023-08-17
KR102423052B9 (en) 2023-04-12

Similar Documents

Publication Publication Date Title
US7339565B2 (en) Method and apparatus for driving liquid crystal display device
US7466301B2 (en) Method of driving a display adaptive for making a stable brightness of a back light unit
JP4679876B2 (en) Image display method and display apparatus, and driving apparatus and method thereof
US8743152B2 (en) Display apparatus, method of driving display apparatus, drive-use integrated circuit, driving method employed by drive-use integrated circuit, and signal processing method
CN101562002B (en) Controller, hold-type display device, electronic apparatus and signal adjusting method
KR101543277B1 (en) Method of driving a light-source
US20050104842A1 (en) Method and apparatus for driving liquid crystal display
US8760386B2 (en) Display device and method for driving the same
KR101212158B1 (en) Liquid crystal display device and method for driving the same
KR101319321B1 (en) Driving circuit for liquid crystal display device and method for driving the same
KR20160048311A (en) Method of data conversion and data converter
KR101878362B1 (en) Image display device and method of driving the same
WO2022057495A1 (en) Grayscale data determination method and apparatus, and device and screen drive board
CN110784701B (en) Display apparatus and image processing method thereof
KR20150096000A (en) display device and driving method thereof
CN111752517B (en) Method, terminal and computer readable storage medium capable of projecting screen to far-end display screen
KR102423052B1 (en) Display apparatus for dog and method of driving the same
CN110599938B (en) Display panel and picture display method
KR102575261B1 (en) Display Driving Device and Driving Method for Adjusting Brightness of Image based on Ambient Illumination
US9734772B2 (en) Display device
KR101528146B1 (en) Driving apparatus for image display device and method for driving the same
US20150356933A1 (en) Display device
KR20220012583A (en) Display Device and Vehicle Display Device using the same
KR101761413B1 (en) Image quality enhancement method and display device using the same
CN101923834B (en) Liquid crystal display device capable of reducing motion blur

Legal Events

Date Code Title Description
AMND Amendment
E601 Decision to refuse application
X091 Application refused [patent]
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant
G170 Re-publication after modification of scope of protection [patent]
G170 Re-publication after modification of scope of protection [patent]