WO2023153723A1 - Display device for dog and method for driving same - Google Patents

Display device for dog and method for driving same Download PDF

Info

Publication number
WO2023153723A1
WO2023153723A1 PCT/KR2023/001577 KR2023001577W WO2023153723A1 WO 2023153723 A1 WO2023153723 A1 WO 2023153723A1 KR 2023001577 W KR2023001577 W KR 2023001577W WO 2023153723 A1 WO2023153723 A1 WO 2023153723A1
Authority
WO
WIPO (PCT)
Prior art keywords
image data
data
grayscale
correction
region
Prior art date
Application number
PCT/KR2023/001577
Other languages
French (fr)
Korean (ko)
Inventor
유봉현
김다미
Original Assignee
주식회사 써니웨이브텍
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 써니웨이브텍 filed Critical 주식회사 써니웨이브텍
Publication of WO2023153723A1 publication Critical patent/WO2023153723A1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A01AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
    • A01KANIMAL HUSBANDRY; AVICULTURE; APICULTURE; PISCICULTURE; FISHING; REARING OR BREEDING ANIMALS, NOT OTHERWISE PROVIDED FOR; NEW BREEDS OF ANIMALS
    • A01K15/00Devices for taming animals, e.g. nose-rings or hobbles; Devices for overturning animals in general; Training or exercising equipment; Covering boxes
    • A01K15/02Training or exercising equipment, e.g. mazes or labyrinths for animals ; Electric shock devices ; Toys specially adapted for animals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/20Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/10Intensity circuits
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/64Circuits for processing colour signals

Definitions

  • the present invention relates to a display device for a dog and a method for driving the same, and more particularly, performs at least one of color correction, contrast correction, gamma correction, edge correction, luminance correction, and driving frequency conversion of input image data to suit the visual characteristics of a dog. It relates to a display device for dogs and a method of driving the same.
  • Humans have cone cells that perform the function of detecting color. Humans have three types of cone cells, each capable of recognizing red, green, and blue. That is, a person can recognize various colors by mixing red, green, and blue in an appropriate ratio.
  • dogs have two types of cone cells. For example, dogs can perceive red and green as yellow, and can distinguish colors only from the combination of blue and yellow. Also, unlike humans, dogs can distinguish colors more easily when they are closer to ultraviolet light. That is, unlike humans, dogs have the highest color sensitivity to blue.
  • the dog since the dog's visual characteristics for contrast recognition, edge recognition, luminance recognition, video recognition, etc. are different from those of humans, the dog loses interest in the conventional display device for humans.
  • an object of the present invention is to provide a display device for dogs that converts input image data in consideration of the visual characteristics of dogs.
  • Another object of the present invention is to provide a method for driving the dog display device.
  • a dog display device includes a display panel, a driving control unit, and a data driving unit.
  • the drive controller converts input image data into output image data by performing at least one of color correction, contrast correction, gamma correction, edge correction, luminance correction, and driving frequency conversion based on the dog's visual characteristics.
  • the data driver generates a data voltage based on the output image data and outputs it to the display panel.
  • the drive control unit may include a color correction unit that receives the input image data, performs the color correction, and outputs the output image data.
  • the input image data may include input red data, input green data, and input blue data.
  • the output image data may include output red data, blue compensation data, output green data, and output blue data.
  • the color correction unit may convert the input red data into the output red data and the blue compensation data.
  • the drive control unit may include a color correction unit that receives the input image data, performs the color correction, and outputs the output image data.
  • the input image data may include input red data, input green data, and input blue data.
  • the output image data may include output red data, blue compensation data, output green data, and output blue data.
  • the color correction unit may convert the input green data into the output green data and the blue compensation data.
  • the driving control unit may include a color correction unit that receives the input image data and the mode signal, performs the color correction, and outputs the output image data.
  • the color compensator may convert input red data into output red data and blue compensation data, or convert input green data into output green data and the blue compensation data.
  • the color correction unit may output the input image data as the output image data.
  • the drive control unit may include a contrast/gamma correction unit that receives the input image data, performs the contrast correction based on a grayscale luminance curve, and outputs the output image data.
  • the input image data includes first data having a first grayscale region, second data having a second grayscale region having a higher grayscale than the first grayscale region, and third grayscale regions having a higher grayscale than the second grayscale region. It may include third data having.
  • a second slope of the grayscale luminance curve corresponding to the second grayscale region may be greater than a first slope of the grayscale luminance curve corresponding to the first grayscale region.
  • the second slope of the grayscale luminance curve corresponding to the second grayscale region may be greater than the third slope of the grayscale luminance curve corresponding to the third grayscale region.
  • the drive control unit may include a contrast/gamma correction unit that receives the input image data and the mode signal, performs the contrast correction, and outputs the output image data.
  • the input image data includes first data having a first grayscale region, second data having a second grayscale region having a higher grayscale than the first grayscale region, and third grayscale regions having a higher grayscale than the second grayscale region. It may include third data having.
  • the contrast/gamma compensator uses a grayscale luminance curve having a first slope corresponding to the first grayscale region and a second slope greater than the first slope corresponding to the second grayscale region to determine the contrast. correction can be made.
  • the contrast/gamma correction unit may output the input image data as the output image data.
  • the drive control unit may include an edge correction unit that receives the input image data, performs the edge correction, and outputs the output image data.
  • the edge correction unit includes an image analysis unit that determines whether the input image data is a still image or a moving image, performs the edge correction when the input image data is a still image, and performs the edge correction when the input image data is a moving image. It may include a correction application that does not perform.
  • the drive control unit may include an edge correction unit that receives the input image data, performs the edge correction, and outputs the output image data.
  • the edge correction unit performs the edge correction when the number of pixels whose data has changed between the image analysis unit that analyzes the input image data and the previous frame data and the current frame data is less than a threshold value, and the previous frame data and the current frame data.
  • a correction application unit not performing the edge correction may be included when the number of pixels whose data is changed between the current frame data is greater than or equal to the threshold value.
  • the drive control unit may include an edge correction unit that receives the input image data, performs the edge correction, and outputs the output image data.
  • the edge correction unit performs the edge correction when an image analysis unit determines whether the owner's face is present in the input image data and the owner's face is present in the input image data, and the owner's face is included in the input image data When there is none, a correction application unit that does not perform the edge correction may be included.
  • the drive control unit may include an edge correction unit that receives the input image data, performs the edge correction, and outputs the output image data.
  • the edge correction unit may include an image analysis unit analyzing the input image data and a correction application unit selectively applying the edge correction.
  • the correction applying unit may include an edge determining unit detecting a position of an edge in the input image data and an edge overdrive unit emphasizing an edge by increasing a difference in gray level in a boundary area corresponding to the edge.
  • the input image data includes a first region having a first grayscale and a second region having a second grayscale greater than the first grayscale, and the first region in the input image data
  • the boundary region is formed between the region and the second region
  • the first boundary pixel of the first region closest to the boundary among the first regions in the output image data is smaller than the first grayscale of the first boundary of the first region.
  • a first boundary pixel of a second region that has a grayscale and is closest to the boundary among the second regions may have a first boundary grayscale of the second region that is greater than the second grayscale.
  • the boundary area when the boundary area is formed between the first area and the second area in the input image data, the first area first of the first area in the output image data
  • a second boundary pixel of the first region adjacent to the boundary pixel has a first region second boundary gradation smaller than the first gradation and greater than the first boundary gradation of the first region, and the second region first boundary gradation of the second region
  • a second boundary pixel of a second region adjacent to a boundary pixel may have a second boundary grayscale greater than the second grayscale and smaller than the first boundary grayscale of the second region.
  • the input image data includes a first region having a first grayscale and a second region having a second grayscale greater than the first grayscale, and the first region in the input image data
  • the first region first boundary pixel group closest to the boundary among the first regions in the output image data has a first region first grayscale smaller than the first grayscale.
  • a second region first boundary pixel group having a boundary grayscale and closest to the boundary among the second regions may have a first boundary grayscale greater than the second region.
  • the first area first of the first area in the output image data has a first region second boundary gradation smaller than the first gradation and greater than the first boundary gradation of the first region, and the second region of the second region
  • a second boundary pixel group in a second region adjacent to the first boundary pixel group may have a second boundary grayscale greater than the second grayscale and smaller than the first boundary grayscale in the second region.
  • the drive control unit may include an edge correction unit that receives the input image data, performs the edge correction, and outputs the output image data.
  • the edge correction filter used in the edge correction unit is can be
  • the drive control unit may include an edge correction unit that receives the input image data, performs the edge correction, and outputs the output image data.
  • the edge correction filter used in the edge correction unit is can be
  • the driving control unit may include an edge correction unit that receives the input image data, performs the edge correction, and outputs the output image data.
  • the edge correction filter used in the edge correction unit is can be
  • the driving control unit may include an edge correction unit that receives the input image data and the mode signal, performs the edge correction, and outputs the output image data.
  • the edge correction unit may perform the edge correction to emphasize an edge area of the input image data.
  • the edge correction unit may output the input image data as the output image data.
  • the drive control unit may include a luminance correction unit that receives the input image data and the mode signal and outputs the output image data.
  • the maximum luminance of the output image data in the dog mode may be greater than the maximum luminance of the output image data in the human mode.
  • the driving controller may include a driving frequency controller generating the output image data by inserting an additional image between a first frame image and a second frame image of the input image data.
  • the additional image may be a face picture of the owner.
  • the additional video is a previously created video to attract the dog's attention, and may be an video unrelated to the first frame video and the second frame video.
  • the additional image is a motion compensation image in which the object is located between a position of the object in the first frame image and a position of the object in the second frame image, and a photograph of the owner's face
  • an image generated independently of the first frame image and the second frame image may be included to attract the dog's attention.
  • the additional image is a motion compensation image in which the object is located between a position of the object in the first frame image and a position of the object in the second frame image, and a photograph of the owner's face It may be a composite image of
  • the additional image is a copy image obtained by copying the first frame image or the second frame image, a photograph of the owner's face, or the first frame image and the second frame image to attract the dog's attention. Images generated independently of images may be included.
  • the additional image may be a composite image of a copy image obtained by copying the first frame image or the second frame image and a photograph of the owner's face.
  • the driving controller may include a driving frequency controller that receives the input image data and the mode signal and outputs the output image data.
  • a driving frequency of the output image data in the dog mode may be greater than a driving frequency of the output image data in the human mode.
  • a method of driving a display device for a dog includes at least one of color correction, contrast correction, gamma correction, edge correction, luminance correction, and driving frequency conversion based on the visual characteristics of the dog. Converting input image data into output image data by performing one of the following steps, generating a data signal based on the output image data, converting the data signal into a data voltage, and outputting the data voltage to a display panel. Include steps.
  • the display device for dogs and the method for driving the display device for dogs since color correction of input image data is performed according to the visual characteristics of the dog, the degree of immersion of the dog watching the video can be increased. Also, since the display device for dogs performs color correction in the dog mode and does not perform color correction in the human mode, a single display device can be used by both dogs and humans.
  • the display device for dogs performs contrast correction in dog mode, gamma correction suitable for dog characteristics, and performs gamma correction suitable for human characteristics without performing contrast correction in human mode.
  • the device can be used by both dogs and humans.
  • the edge correction of the input image data is performed according to the dog's visual characteristics, the degree of immersion of the dog watching the video can be increased. Also, since the display device for dogs performs edge correction in the dog mode and does not perform edge correction in the human mode, a single display device can be used by both dogs and humans.
  • the maximum luminance of the image data in the dog mode may be set higher than the maximum luminance of the image data in the human mode according to the visual characteristics of the dog. Therefore, the degree of immersion of the dog watching the video can be increased.
  • the display device for dogs since driving frequency conversion of the input image data is performed according to the dog's visual characteristics, the degree of immersion of the dog watching the video can be increased.
  • the display device for dogs since the display device for dogs performs driving frequency conversion in the dog mode and does not perform driving frequency conversion in the human mode, a single display device can be used by both dogs and humans.
  • FIG. 1A is a diagram illustrating an example in which a dog display device according to an embodiment of the present invention is used.
  • FIG. 1B is a block diagram illustrating a dog display device according to an exemplary embodiment of the present invention.
  • FIG. 2 is a block diagram illustrating an example of a driving control unit of FIG. 1 .
  • FIG. 3 is a block diagram illustrating an example of a driving control unit of FIG. 1 .
  • FIG. 4 is a block diagram showing an example of a driving control unit of FIG. 1 .
  • FIG. 5 is a graph illustrating a contrast correction operation of the contrast/gamma correction unit of FIG. 4 .
  • FIG. 6 is a diagram illustrating input image data input to the contrast/gamma correction unit of FIG. 4 .
  • FIG. 7 is a diagram illustrating input image data of FIG. 6 recognized by a dog.
  • FIG. 8 is a diagram illustrating output image data of the contrast/gamma correction unit of FIG. 4 recognized by a dog.
  • FIG. 9 is a graph illustrating a gamma correction operation of the contrast/gamma correction unit of FIG. 4 .
  • FIG. 10 is a table showing a gamma correction operation of the contrast/gamma correction unit of FIG. 4 .
  • 11A, 11B, and 11C are graphs illustrating gamma correction operations according to comparative examples.
  • 12A, 12B, and 12C are graphs illustrating gamma correction operations according to an exemplary embodiment.
  • FIG. 13 is a block diagram illustrating an example of a driving control unit of FIG. 1 .
  • FIG. 14 is a block diagram illustrating an example of a drive control unit of FIG. 1 .
  • FIG. 15 is a block diagram illustrating an example of the edge correction unit of FIG. 14 .
  • FIG. 16 is a block diagram illustrating an example of a filter used in the correction applying unit of FIG. 15 .
  • FIG. 17 is a block diagram illustrating an example of a filter used in the correction application unit of FIG. 15 .
  • FIG. 18 is a block diagram illustrating an example of a filter used in the correction applying unit of FIG. 15 .
  • 19 is a conceptual diagram showing spatial frequencies of a dog's vision and a human's.
  • FIG. 20 is a diagram illustrating input image data of the edge correction unit of FIG. 14 .
  • FIG. 21 is a diagram illustrating input image data of FIG. 20 recognized by a dog.
  • FIG. 22 is a diagram illustrating output image data of the edge correction unit of FIG. 14 .
  • FIG. 23 is a diagram illustrating output image data of FIG. 22 recognized by a dog.
  • FIG. 24 is a block diagram illustrating an example of a correction application unit of FIG. 15 .
  • FIG. 25 is a diagram illustrating an edge area of input image data determined by the edge determination unit of FIG. 24 .
  • FIG. 26 is a conceptual diagram illustrating an example of an operation of the edge overdrive unit of FIG. 24 .
  • FIG. 27 is a conceptual diagram illustrating an example of an operation of the edge overdrive unit of FIG. 24 .
  • FIG. 28 is a block diagram showing an example of a driving control unit of FIG. 1 .
  • FIG. 29 is a block diagram showing an example of a driving control unit of FIG. 1 .
  • FIG. 30 is a block diagram illustrating an example of a drive control unit of FIG. 1 .
  • FIG. 31 is a diagram showing an example of an operation of the driving frequency controller of FIG. 30 .
  • FIG. 32 is a diagram showing an example of an operation of the driving frequency controller of FIG. 30 .
  • FIG. 33 is a diagram showing an example of an operation of the driving frequency controller of FIG. 30 .
  • FIG. 34 is a block diagram showing an example of a driving control unit of FIG. 1 .
  • first and second may be used to describe various components, but the components should not be limited by the terms. The terms may be used for the purpose of distinguishing one component from another. For example, a first element may be termed a second element, and similarly, a second element may be termed a first element, without departing from the scope of the present invention.
  • functions or operations specified in a specific block may occur in a different order from the order specified in the flowchart. For example, two successive blocks may actually be performed substantially concurrently, or the blocks may be performed backwards depending on the function or operation involved.
  • 1A is a diagram illustrating an example in which a dog display device according to an embodiment of the present invention is used.
  • 1B is a block diagram illustrating a dog display device according to an exemplary embodiment of the present invention.
  • the display device for dogs is installed at a position (or height) that a dog can see, and can display an image based on image data considering the dog's visual characteristics. Concentration on the dog's image can be improved by displaying the image based on the image data considering the dog's visual characteristics. It is described in detail below.
  • the dog display device includes a display panel 100 and a display panel driver.
  • the display panel driver includes a drive controller 200, a gate driver 300, a gamma reference voltage generator 400, and a data driver 500.
  • the driving control unit 200 and the data driving unit 500 may be integrally formed.
  • the driving controller 200, the gamma reference voltage generator 400, and the data driver 500 may be integrally formed.
  • a driving module in which at least the driving control unit 200 and the data driving unit 500 are integrally formed may be named a timing controller embedded data driver (TED).
  • the display panel 100 includes a display portion AA displaying an image and a peripheral portion PA disposed adjacent to the display portion AA.
  • the display panel 100 includes a plurality of gate lines GL, a plurality of data lines DL, and a plurality of pixels electrically connected to each of the gate lines GL and the data lines DL ( include P).
  • the gate lines GL extend in a first direction D1
  • the data lines DL extend in a second direction D2 crossing the first direction D1.
  • the driving controller 200 performs at least one of color correction, contrast correction, gamma correction, edge correction, luminance correction, and driving frequency conversion of the input image data according to the visual characteristics of the dog.
  • the driving controller 200 may receive input image data IMG and input control signal CONT from an external device (not shown).
  • the input image data IMG may include red image data, green image data, and blue image data.
  • the input image data IMG may include white image data.
  • the input image data IMG may include magenta image data, yellow image data, and cyan image data.
  • the input control signal CONT may include a master clock signal and a data enable signal.
  • the input control signal CONT may further include a vertical synchronization signal and a horizontal synchronization signal.
  • the driving controller 200 generates a first control signal CONT1, a second control signal CONT2, a third control signal CONT3 and data based on the input image data IMG and the input control signal CONT.
  • a signal DATA may be generated.
  • the driving control unit 200 generates the first control signal CONT1 for controlling the operation of the gate driving unit 300 based on the input control signal CONT and outputs the first control signal CONT1 to the gate driving unit 300 .
  • the first control signal CONT1 may include a vertical start signal and a gate clock signal.
  • the drive controller 200 generates the second control signal CONT2 for controlling the operation of the data driver 500 based on the input control signal CONT and outputs the second control signal CONT2 to the data driver 500 .
  • the second control signal CONT2 may include a horizontal start signal and a load signal.
  • the driving controller 200 generates a data signal DATA based on the input image data IMG.
  • the driving controller 200 outputs the data signal DATA to the data driver 500 .
  • the drive control unit 200 generates the third control signal CONT3 for controlling the operation of the gamma reference voltage generator 400 based on the input control signal CONT, so that the gamma reference voltage generator ( 400).
  • the driving control unit 200 will be described later in detail with reference to FIGS. 2 to 34 .
  • the gate driver 300 generates gate signals for driving the gate lines GL in response to the first control signal CONT1 received from the driving controller 200 .
  • the gate driver 300 outputs the gate signals to the gate lines GL.
  • the gate driver 300 may sequentially output the gate signals to the gate lines GL.
  • the gate driver 300 may be mounted on the peripheral portion PA of the display panel 100 .
  • the gate driver 300 may be integrated on the peripheral portion PA of the display panel 100 .
  • the gate driver 300 may not be disposed on the display panel 100 but may be disposed outside the display panel 100 and electrically connected to the display panel 100 .
  • the gamma reference voltage generator 400 may generate the gamma reference voltage VGREF in response to the third control signal CONT3 received from the driving controller 200 .
  • the gamma reference voltage generator 400 may provide the gamma reference voltage VGREF to the data driver 500 .
  • the gamma reference voltage VGREF may have a value corresponding to each data signal DATA.
  • the gamma reference voltage generator 400 may be disposed within the drive control unit 200 or within the data driver 500 .
  • the data driver 500 receives the second control signal CONT2 and the data signal DATA from the drive control unit 200, and generates the gamma reference voltage VGREF from the gamma reference voltage generator 400. can be input.
  • the data driver 500 may convert the data signal DATA into an analog data voltage using the gamma reference voltage VGREF.
  • the data driver 500 may output the data voltage to the data line DL.
  • the driving controller 200 may convert input image data into output image data by performing at least one of color correction, contrast correction, gamma correction, edge correction, luminance correction, and driving frequency conversion based on the visual characteristics of the dog. .
  • the data driver 500 may generate a data voltage based on the output image data and output the generated data voltage to the display panel 100 .
  • the driving controller 200 may generate the data signal DATA based on the output image data.
  • the data driver 500 may convert the data voltage into the data voltage and output the converted data voltage to the display panel 100 .
  • FIG. 2 is a block diagram showing an example of the drive control unit 200 of FIG. 1 .
  • the drive controller 200 may include a color corrector 220 .
  • the color correction unit 220 may receive the input image data IMG, perform color correction, and output the output image data OIMG.
  • the input image data IMG may include input red data, input green data, and input blue data
  • the output image data OIMG may include output red data, blue compensation data, output green data, and output blue data. there is.
  • the color correction unit 220 may convert the input red data into the output red data and the blue compensation data.
  • the input red data and the output red data may have the same value
  • the input green data and the output green data may have the same value
  • the input blue data and the output blue data may have the same value.
  • the output image data OIMG further includes the blue compensation data compared to the input image data IMG
  • the output image data OIMG may be an image in which blue is emphasized compared to the input image data IMG.
  • the blue compensation data may be determined based on the input red data.
  • the color correction unit 220 may convert the input green data into the output green data and the blue compensation data.
  • the input red data and the output red data may have the same value
  • the input green data and the output green data may have the same value
  • the input blue data and the output blue data may have the same value.
  • the output image data OIMG further includes the blue compensation data compared to the input image data IMG
  • the output image data OIMG may be an image in which blue is emphasized compared to the input image data IMG.
  • the blue compensation data may be determined based on the input green data.
  • the color correction unit 220 may generate output image data OIMG in which a blue ratio is increased compared to the input image data IMG.
  • FIG. 3 is a block diagram showing an example of the driving control unit 200 of FIG. 1 .
  • the dog display device and the method of driving the dog display device according to the present embodiment are substantially the same as the dog display device and the dog display device driving method of FIG. Alternatively, the same reference numerals are used for similar components, and overlapping descriptions are omitted.
  • the driving controller 200 receives the input image data IMG and the mode signal MODE, performs the color correction, and outputs the output image data OIMG.
  • the mode signal MODE may include government 220A.
  • the color correction unit 220A may perform color correction of the input image data IMG in the dog mode, and may not perform color correction of the input image data IMG in the human mode.
  • the color correction unit 220A converts input red data into output red data and blue compensation data or converts input green data into output green data and the blue compensation data to obtain the output image data OIMG. can create
  • the color correction unit 220A may output the input image data IMG as the output image data OIMG.
  • color correction of the input image data is performed according to the visual characteristics of the dog, so that the degree of immersion of the dog watching the video can be increased. Also, since the display device for dogs performs color correction in the dog mode and does not perform color correction in the human mode, a single display device can be used by both dogs and humans.
  • FIG. 4 is a block diagram showing an example of the driving control unit 200 of FIG. 1 .
  • FIG. 5 is a graph illustrating a contrast correction operation of the contrast/gamma correction unit 240 of FIG. 4 .
  • FIG. 6 is a diagram illustrating input image data IMG input to the contrast/gamma correction unit 240 of FIG. 4 .
  • 7 is a diagram illustrating input image data IMG of FIG. 6 recognized by a dog.
  • 8 is a diagram showing output image data OIMG of the contrast/gamma correction unit 240 of FIG. 4 recognized by a dog.
  • the drive control unit 200 receives the input image data IMG and performs the contrast correction and the gamma correction based on the gradation luminance curve to obtain the output image data OIMG.
  • a contrast/gamma correction unit 240 for outputting may be included.
  • the contrast/gamma compensator 240 may increase the luminance difference according to the gray level difference in the middle gray level region GR2 so that the dog can relatively well recognize the luminance difference in the middle gray level region GR2.
  • the input image data IMG includes first data having a first grayscale region GR1 (low grayscale region) and a second grayscale region GR2 (middle grayscale region) having a higher grayscale than the first grayscale region GR1. and third data having a third grayscale region (GR3, high grayscale region) having a higher grayscale than the second grayscale region GR2.
  • a second slope of the grayscale luminance curve corresponding to the second grayscale region GR2 may be greater than a first slope of the grayscale luminance curve corresponding to the first grayscale region GR1. Also, the second slope of the grayscale luminance curve corresponding to the second grayscale region GR2 may be greater than the third slope of the grayscale luminance curve corresponding to the third grayscale region GR3.
  • the output image data OIMG shows an image recognized by the dog as the output image data OIMG, in which the contrast of the input image data IMG is corrected by the contrast/gamma corrector 240.
  • the level at which a dog perceives contrast by the halftone correction of the contrast/gamma corrector 240 may be similar to the level at which a person perceives contrast from the input image data IMG.
  • FIG. 9 is a graph illustrating a gamma correction operation of the contrast/gamma correction unit 240 of FIG. 4 .
  • FIG. 10 is a table showing the gamma correction operation of the contrast/gamma correction unit 240 of FIG. 4 .
  • 11A, 11B, and 11C are graphs illustrating gamma correction operations according to comparative examples.
  • 12A, 12B, and 12C are graphs illustrating gamma correction operations according to an exemplary embodiment.
  • the contrast/gamma correction unit 240 may perform gamma correction based on the S-shaped gamma curve of FIG. 9 .
  • the horizontal axis represents the gradation
  • the vertical axis represents the luminance corresponding to the gradation
  • the dotted line in FIG. 9 shows a case where the luminance according to the gradation is linear
  • the solid line in FIG. A gamma curve of this embodiment representing the luminance is shown.
  • a gamma curve representing the luminance according to the gray level may be nonlinear.
  • Grayscale values and luminance values of points 1 to 10 in FIG. 9 are shown in a table in FIG. 10 .
  • the gray level of point 1 may be gray level 0, and the normalized luminance may be 0.
  • the gray level of the second point may be 31 gray levels, and the normalized luminance may be 0.01.
  • the gray level of point 3 is 69 gray levels, and the normalized luminance may be 0.02.
  • the gradation at point 4 is 102 gradations, and the normalized luminance may be 0.07.
  • the gradation at point 5 is 133 gradations, and the normalized luminance may be 0.17.
  • the gradation at point 6 is 163 gradations, and the normalized luminance may be 0.43.
  • the gradation at point 7 is 179 gradations, and the normalized luminance may be 0.68.
  • the gradation at point 8 is 224 gradations, and the normalized luminance may be 0.99.
  • the gray level of the 9th point may be 240 gray levels, and the normalized luminance may be 1.00.
  • the gradation of the 10th point may be 255 gradations, and the normalized luminance may be 1.00.
  • the slope of the gamma curve has a relatively small value in the low grayscale region (eg, from point 1 to point 5), and in the middle grayscale region (eg, point 5).
  • the slope of the gamma curve may have a relatively large value at a point 8 from the first point), and the slope of the gamma curve may have a relatively small value at a high grayscale region (eg, points 8 to 10).
  • gamma correction may be performed using a red gamma curve ( FIG. 11A ), a green gamma curve ( FIG. 11B ), and a blue gamma curve ( FIG. 11C ).
  • the color correction unit 220 may receive the input image data IMG, perform color correction, and output the output image data OIMG.
  • the input image data IMG includes input red data R, input green data G, and input blue data B
  • the output image data OIMG includes output red data R and blue compensation data. (B′), output green data (G) and output blue data (B).
  • a first gamma curve (Fig. 12a) using a second gamma curve (FIG. 12B) for gamma correction of the output green data (G) and a third gamma curve (FIG. 12C) for gamma correction of the output blue data (B).
  • a second gamma curve (FIG. 12B) for gamma correction of the output green data (G)
  • a third gamma curve (FIG. 12C) for gamma correction of the output blue data (B).
  • FIG. 13 is a block diagram showing an example of the driving control unit 200 of FIG. 1 .
  • the dog display device and the method of driving the dog display device according to the present embodiment are substantially the same as the dog display device and the dog display device driving method of FIG. , Same reference numerals are used for the same or similar components, and overlapping descriptions are omitted.
  • the drive controller 200 receives the input image data IMG and the mode signal MODE and performs the contrast correction and the gamma correction to obtain the output image data OIMG.
  • a contrast/gamma correction unit 240A for outputting may be included.
  • the contrast/gamma corrector 240A may perform contrast correction of the input image data IMG in the dog mode, and may not perform contrast correction of the input image data IMG in the human mode.
  • the contrast/gamma compensator 240A has a first gradient corresponding to the first grayscale area and a second gradient greater than the first gradient corresponding to the second grayscale area.
  • the contrast correction may be performed using Also, the second slope of the gray luminance curve corresponding to the second gray region may be greater than the third slope of the gray luminance curve corresponding to the third gray region.
  • the contrast/gamma correction unit 240A may output the input image data IMG as the output image data OIMG.
  • the contrast/gamma correction unit 240A uses the first gamma curve (R+B'), the second gamma curve (G), and the third gamma curve (B) of FIGS. 12A to 12C in the dog mode to input the input
  • Gamma correction of the image data (IMG) may be performed, and the input image may be gamma corrected using the red gamma curve (R), the green gamma curve (G), and the blue gamma curve (B) of FIGS. 11A to 11C in the human mode.
  • Gamma correction of the data IMG may be performed.
  • the display device for dogs since contrast correction and gamma correction are performed on the input image data (IMG) according to the dog's visual characteristics, the degree of immersion of the dog watching the video can be increased.
  • the display device for dogs performs contrast correction in dog mode, gamma correction suitable for dog characteristics, and performs gamma correction suitable for human characteristics without performing contrast correction in human mode.
  • the device can be used by both dogs and humans.
  • FIG. 14 is a block diagram showing an example of the drive control unit 200 of FIG. 1 .
  • FIG. 15 is a block diagram showing an example of the edge correction unit 260 of FIG. 14 .
  • FIG. 16 is a block diagram illustrating an example of a filter used in the correction applying unit 264 of FIG. 14 .
  • FIG. 17 is a block diagram illustrating an example of a filter used in the correction applying unit 264 of FIG. 14 .
  • FIG. 18 is a block diagram illustrating an example of a filter used in the correction applying unit 264 of FIG. 14 .
  • 19 is a conceptual diagram showing spatial frequencies of a dog's vision and a human's.
  • FIG. 20 is a diagram illustrating input image data IMG of the edge correction unit 260 of FIG. 14 .
  • FIG. 20 is a diagram illustrating input image data IMG of the edge correction unit 260 of FIG. 14 .
  • FIG. 21 is a diagram illustrating input image data (IMG) of FIG. 20 recognized by a dog.
  • FIG. 22 is a diagram illustrating output image data OIMG of the edge correction unit 260 of FIG. 14 .
  • 23 is a diagram illustrating output image data OIMG of FIG. 22 recognized by a dog.
  • the driving control unit 200 includes an edge correction unit 260 that receives the input image data IMG, performs the edge correction, and outputs the output image data OIMG. can do.
  • the degree of recognition of an object edge in an image is relatively lower than that of a human, and thus, the recognition of an object in an image may be degraded, and thus the degree of immersion in the dog's image may be reduced.
  • the edge correction unit 260 can enhance the edge in the image so that the dog can recognize the edge of the object relatively well.
  • the edge corrector 260 may include an image analyzer 262 that analyzes the input image data IMG and a correction that selectively applies the edge correction based on the analysis result of the image analyzer 262.
  • An application portion 264 may be included.
  • the correction application unit 264 may selectively apply edge correction when the input image data IMG is a still image.
  • the image analyzer 262 may determine whether the input image data IMG is a still image or a moving image.
  • the correction application unit 264 may perform the edge correction when the input image data IMG is a still image, and may not perform the edge correction when the input image data IMG is a moving image.
  • edge correction may be selectively applied when the input image data IMG is a still image.
  • the image analyzer 262 may compare previous frame data and current frame data of the input image data IMG to determine whether the input image data IMG is a still image or a moving image.
  • the image analyzer 262 may determine that the input image data IMG is a still image. On the other hand, if the previous frame data and the current frame data are different, the image analyzer 262 may determine that the input image data IMG is a video.
  • the correction application unit 264 may selectively apply edge correction when the degree of change of the image in the input image data IMG is small.
  • the image analyzer 262 may determine whether the degree of change of the image in the input image data IMG is large or small based on the number of pixels whose data has changed between the previous frame data and the current frame data. there is.
  • the correction application unit 264 may perform the edge correction.
  • the correction application unit 264 may not perform the edge correction.
  • the correction application unit 264 may selectively apply edge correction when the owner's face is present in the input image data IMG.
  • the image analyzer 262 may determine whether there is a face of the owner in the input image data IMG.
  • the correction application unit 264 performs the edge correction when there is the owner's face in the input image data IMG, and when there is no owner's face in the input image data IMG, the edge correction may not perform.
  • the dog When the owner's face is included in the input image data IMG, the dog exhibits a relatively high degree of immersion. However, if the contour of the owner's face is not well recognized, such an effect of improving immersion may not be obtained. Therefore, when the owner's face is present in the input image data IMG, the dog's image immersion can be improved by performing the edge correction.
  • the image analyzer 262 may compare the input image data IMG with a previously input face picture of the owner to determine whether the owner's face is present in the input image data IMG.
  • the correction application unit 264 An edge of the input image data IMG may be corrected using an edge correction filter of .
  • the edge correction filter of FIG. 16 may also be referred to as an image sharpening filter.
  • the edge correction filter is a matrix of 3 rows and 3 columns, and the edge correction is performed by multiplying 9 values in the matrix by the center pixel and 8 neighboring pixels, respectively, and updating the summed value to the location of the center pixel. can do.
  • the correction application unit 264 An edge of the input image data IMG may be corrected using an edge correction filter of .
  • the edge correction filter of FIG. 17 may also be referred to as an edge enhancement filter.
  • the edge correction filter is a matrix of 3 rows and 3 columns, and the edge correction is performed by multiplying 9 values in the matrix by each of 8 pixels adjacent to the center pixel and updating the summed value to the location of the center pixel can do.
  • the correction application unit 264 An edge of the input image data IMG may be corrected using an edge correction filter of .
  • the edge correction filter of FIG. 18 may also be referred to as an edge enhancement filter.
  • the edge correction filter is a matrix of 5 rows and 5 columns, and the edge correction is performed by multiplying 25 values in the matrix by the center pixel and 24 neighboring pixels, respectively, and updating the summed value to the location of the center pixel. can do.
  • the unit of spatial frequency may be a cycle per degree (CPD) expressed as a repetition period of a distinguishable object that comes within a range of 1 degree (h) of the field of view.
  • CPD cycle per degree
  • the spatial frequency resolution of the picture on the right may be twice as large as the spatial frequency resolution of the picture on the left.
  • a dog may have a spatial frequency resolution of 1/3 of that of a human. Therefore, in the case of a dog, the edge of an object may not be clearly distinguished.
  • 20 shows the input image data IMG of the edge correction unit 260.
  • 21 shows the input image data (IMG) of the edge correction unit 260 recognized by the dog, and the dog's interest in the image may decrease because the edge of the image is blurred.
  • 22 shows output image data OIMG of the edge correction unit 260. It can be seen that the edge portion of the output image data OIMG of FIG. 22 is more emphasized than that of the input image data IMG of FIG. 20 .
  • 23 shows the output image data OIMG of the edge correction unit 260 recognized by the dog, and the degree to which the dog recognizes an edge from the output image data OIMG by the edge correction unit 260 is the human input image From the data IMG, it can be confirmed that the edge recognition level increases at a similar level.
  • FIG. 24 is a block diagram showing an example of the correction application unit 264 of FIG. 15 .
  • FIG. 25 is a diagram illustrating an edge area of the input image data IMG determined by the edge determiner 265 of FIG. 24 .
  • FIG. 26 is a conceptual diagram showing an example of an operation of the edge overdrive unit 266 of FIG. 24 .
  • FIG. 27 is a conceptual diagram showing an example of the operation of the edge overdrive unit 266 of FIG. 24 .
  • the dog display device and the method of driving the dog display device according to the present embodiment are substantially the same as the dog display device and the dog display device driving method of FIGS.
  • the same reference numbers are used for elements, and overlapping descriptions are omitted.
  • the correction application unit 264 determines the edge region EG of the input image data IMG, and determines the gradation of the portion corresponding to the edge region EG. can be corrected.
  • the correction application unit 264 may include an edge determining unit 265 that detects the position of an edge in the input image data IMG and increases a gray level difference in a boundary area EG corresponding to the edge. It may include an edge overdrive unit 266 for emphasizing the edge.
  • 25 shows the edge of the input image data IMG determined by the edge determiner 265.
  • one cell may mean one pixel.
  • the input image data IMG has a first region having a first grayscale (eg, 55G) and a second grayscale (eg, 120G) greater than the first grayscale (eg, 55G).
  • the first boundary pixel of the first region closest to the boundary has the first boundary grayscale (eg, 51G) of the first region smaller than the first grayscale (eg, 55G), and the second region closest to the boundary among the second regions
  • An area first boundary pixel may have a second area first boundary grayscale (eg, 135G) greater than the second grayscale (eg, 120G).
  • the grayscale In the first area of the output image data OIMG, the grayscale may increase as the distance from the boundary increases, and in the second area, the grayscale may decrease as distance from the boundary increases.
  • the second boundary pixel of the first region adjacent to the boundary pixel has a first region second boundary grayscale (eg, 53G) smaller than the first grayscale (eg, 55G) and greater than the first boundary grayscale (eg, 51G) of the first region. ), and the second boundary pixel of the second region adjacent to the first boundary pixel of the second region of the second region is greater than the second grayscale (eg, 120G) and the first boundary grayscale of the second region (eg, 120G).
  • 135G) may have a second boundary grayscale (eg, 127G) of the second region.
  • one cell may mean one pixel.
  • the border area EG2 is formed to be larger than the border area EG of FIG. 26 , and a plurality of border pixels having the same border grayscale may be formed.
  • the input image data IMG has a first region having a first grayscale (eg, 55G) and a second grayscale (eg, 120G) greater than the first grayscale (eg, 55G). 2 regions, and when the boundary region EG2 is formed between the first region and the second region in the input image data IMG, one of the first region in the output image data OIMG
  • the first region first boundary pixel group (eg, two pixels) closest to the boundary has a first region first boundary grayscale (eg, 51G) smaller than the first grayscale (eg, 55G), and the second region
  • a first boundary pixel group (eg, two pixels) of the second region closest to the boundary may have a first boundary grayscale (eg, 135G) of the second region that is greater than the second grayscale (eg, 120G).
  • the grayscale In the first area of the output image data OIMG, the grayscale may increase as the distance from the boundary increases, and in the second area, the grayscale may decrease as distance from the boundary increases.
  • the second boundary pixel group (eg, two pixels) of the first region adjacent to the boundary pixel group (eg, two pixels) is smaller than the first grayscale (eg, 55G) and the first boundary grayscale (eg, 55G) of the first region .
  • the pixel group (eg, two pixels) has a second region second boundary grayscale (eg, 127G) greater than the second grayscale (eg, 120G) and smaller than the first boundary grayscale (eg, 135G) of the second region.
  • FIG. 28 is a block diagram showing an example of the drive control unit 200 of FIG. 1 .
  • the dog display device and the method of driving the dog display device according to the present embodiment are substantially the same as the dog display device and the dog display device driving method of FIGS. 14 to 27 except that the edge corrector selectively operates in the dog mode. Therefore, the same reference numerals are used for the same or similar components, and overlapping descriptions are omitted.
  • the driving control unit 200 receives the input image data IMG and the mode signal MODE, performs the edge correction, and outputs the output image data OIMG. government 260A.
  • the edge correction unit 260A may perform edge correction of the input image data IMG in the dog mode, and may not perform edge correction of the input image data IMG in the human mode.
  • the edge correction unit 260A may generate the output image data OIMG by performing the edge correction to emphasize the edge area of the input image data IMG.
  • the edge correction unit 260A may output the input image data IMG as the output image data OIMG.
  • the edge correction of the input image data IMG is performed according to the dog's visual characteristics, the degree of immersion of the dog watching the video can be increased. Also, since the display device for dogs performs edge correction in the dog mode and does not perform edge correction in the human mode, a single display device can be used by both dogs and humans.
  • FIG. 29 is a block diagram showing an example of the drive control unit 200 of FIG. 1 .
  • the drive control unit 200 includes a luminance correction unit 280 that receives the input image data IMG and the mode signal MODE and outputs the output image data OIMG. can do.
  • the luminance compensator 280 may increase the difference between the minimum luminance and the maximum luminance of the output image data OIMG in the dog mode so that the dog relatively well recognizes the luminance difference in the image.
  • the maximum luminance of the output image data OIMG in the dog mode may be greater than the maximum luminance of the output image data OIMG in the human mode.
  • the maximum luminance of the output image data OIMG in the dog mode may be 500 nit
  • the maximum luminance of the output image data OIMG in the human mode may be 200 nit.
  • the maximum luminance of the image data in the dog mode can be set higher than the maximum luminance of the image data in the human mode according to the visual characteristics of the dog. Therefore, it is possible to increase the degree of immersion of the dog watching the video.
  • FIG. 30 is a block diagram showing an example of the driving control unit 200 of FIG. 1 .
  • FIG. 31 is a diagram showing an example of the operation of the driving frequency controller 290 of FIG. 30 .
  • FIG. 32 is a diagram showing an example of the operation of the driving frequency controller 290 of FIG. 30 .
  • FIG. 33 is a diagram showing an example of the operation of the driving frequency controller 290 of FIG. 30 .
  • the driving controller 200 inserts an additional image IC between the first frame image I1 and the second frame image I2 of the input image data IMG to A driving frequency controller 290 generating output image data OIMG may be included.
  • the driving frequency controller 290 may increase the driving frequency of the input image data IMG to a predetermined frequency or higher.
  • the driving frequency controller 290 controls the interval between the first frame image I1 and the second frame image I2 of the input image data IMG.
  • An output image data OIMG of 120 Hz may be generated by inserting one additional image IC into the .
  • the driving frequency controller 290 controls the interval between the first frame image I1 and the second frame image I2 of the input image data IMG.
  • 120Hz output image data (OIMG) can be generated by inserting three additional images (IC).
  • the additional image IC is displayed between the position of the object in the first frame image I1 and the position of the object in the second frame image I2 (on the path of the object indicated by a dotted line).
  • a case of a motion compensation image in which the object is located is exemplified.
  • a round object is disposed on the lower left side of the screen
  • a round object is disposed on the upper right side of the screen.
  • a motion compensation image may be generated by placing a round object in the center of the screen in the additional image IC.
  • dotted lines are auxiliary lines for indicating the path of an object, and may not be included in the actual image.
  • the additional image IC is a copy image obtained by copying the first frame image I1 or the second frame image I2 is exemplified.
  • the additional image IC of FIG. 32 is a duplicate image of the first frame image I1 of FIG. 32 .
  • dotted lines are auxiliary lines for indicating the path of an object, and may not be included in the actual image.
  • the additional image IC may be generated independently of the first frame image I1 and the second frame image I2.
  • dotted lines are auxiliary lines for indicating the path of an object, and may not be included in the actual image.
  • the additional image IC may be a face picture of the owner. When a picture of the owner's face is inserted in the middle of the video, the dog's attention can be attracted, so the degree of immersion in the video can be greatly improved.
  • the additional image IC is not limited to the face picture of the owner, and may be a pre-generated image to attract the dog's attention.
  • the additional image IC may be an educational image or an advertisement image to be injected into the dog.
  • the additional image IC may include two or more of the motion compensation image of FIG. 31, the copy image of FIG. 32, and the attention-focused image of FIG.
  • the additional image IC is a synthesized image of two or more of the motion compensation image of FIG. 31, the copy image of FIG. 32, and the attention-focused image of FIG. may also include
  • the additional image IC may be a motion compensation image in which the object is located between the position of the object in the first frame image I1 and the position of the object in the second frame image I2, and It may be a composite image of the owner's face picture.
  • the additional image IC may be a synthesized image of a copy image obtained by copying the first frame image I1 or the second frame image I2 and a photograph of the owner's face.
  • FIG. 34 is a block diagram showing an example of the drive control unit 200 of FIG. 1 .
  • the dog display device and method of driving the dog display device according to the present embodiment are substantially similar to the dog display device and the dog display device driving method of FIGS. 30 to 33 except that the driving frequency controller selectively operates in the dog mode. Since they are the same, the same reference numerals are used for the same or similar components, and overlapping descriptions are omitted.
  • the driving controller 200 includes a driving frequency controller 290A that receives the input image data IMG and mode signal MODE and outputs the output image data OIMG. can do.
  • the driving frequency controller 290A may perform driving frequency conversion of the input image data IMG in the dog mode, and may not perform driving frequency conversion of the input image data IMG in the human mode.
  • the driving frequency controller 290A may insert an additional image IC between the first frame image I1 and the second frame image I2 to generate the output image data OIMG.
  • the driving frequency controller 290A may output the input image data IMG as the output image data OIMG.
  • a driving frequency of the output image data OIMG in the dog mode may be greater than a driving frequency of the output image data OIMG in the human mode.
  • the degree of immersion of the dog watching the video can be increased.
  • the display device for dogs since the display device for dogs performs driving frequency conversion in the dog mode and does not perform driving frequency conversion in the human mode, a single display device can be used by both dogs and humans.
  • the present invention can be applied to a dog display device and an electronic device including the display device.
  • the present invention can be applied to digital TVs, 3D TVs, mobile phones, smart phones, tablet computers, VR devices, PCs, home electronic devices, notebook computers, PDAs, PMPs, digital cameras, music players, portable game consoles, navigation devices, and the like.
  • digital TVs 3D TVs
  • mobile phones smart phones
  • tablet computers VR devices
  • PCs home electronic devices
  • notebook computers PDAs, PMPs
  • digital cameras music players, portable game consoles, navigation devices, and the like.
  • 260, 260A edge correction unit 262: image analysis unit
  • edge overdrive unit 280 luminance correction unit
  • driving frequency controller 300 gate driver

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Environmental Sciences (AREA)
  • Computer Hardware Design (AREA)
  • Zoology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Animal Husbandry (AREA)
  • Health & Medical Sciences (AREA)
  • Animal Behavior & Ethology (AREA)
  • Physical Education & Sports Medicine (AREA)
  • General Health & Medical Sciences (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Control Of Indicators Other Than Cathode Ray Tubes (AREA)
  • Telephone Function (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)
  • Orthopedics, Nursing, And Contraception (AREA)

Abstract

A display device for a dog comprises a display panel, a driving control unit, and a data driving unit. The driving control unit converts input image data into output image data by performing at least one of color correction, contrast correction, gamma correction, edge correction, luminance correction, and driving frequency conversion on the basis of visual characteristics of a dog. The data driving unit generates a data voltage on the basis of the output image data and outputs the data voltage to the display panel.

Description

개용 표시 장치 및 이의 구동 방법Display device for dogs and method for driving the same
본 발명은 개용 표시 장치 및 이의 구동 방법에 관한 것으로, 보다 상세하게는 개의 시각적 특성에 맞게 입력 영상 데이터의 컬러 보정, 콘트라스트 보정, 감마 보정, 에지 보정, 휘도 보정 및 구동 주파수 변환 중 적어도 하나를 수행하는 개용 표시 장치 및 이의 구동 방법에 관한 것이다.The present invention relates to a display device for a dog and a method for driving the same, and more particularly, performs at least one of color correction, contrast correction, gamma correction, edge correction, luminance correction, and driving frequency conversion of input image data to suit the visual characteristics of a dog. It relates to a display device for dogs and a method of driving the same.
사람은 색상을 감지하는 기능을 수행하는 원추세포를 갖는다. 사람은 세 종류의 원추세포들을 가지며, 각각 적색, 녹색, 청색을 인식할 수 있다. 즉, 사람은 적색, 녹색, 청색을 적당한 비율로 섞어서 다양한 색상을 인식할 수 있다.Humans have cone cells that perform the function of detecting color. Humans have three types of cone cells, each capable of recognizing red, green, and blue. That is, a person can recognize various colors by mixing red, green, and blue in an appropriate ratio.
반면에, 개는 두 종류의 원추세포를 갖는다. 예를 들어, 개는 적색과 녹색을 황색으로 인식할 수 있고, 청색과 황색의 조합으로만 색상을 구분할 수 있다. 또한, 사람과 달리, 개는 자외선에 가까울수록 색 구분을 쉽게 한다. 즉, 사람과 달리, 개는 색의 민감도(sensitivity)가 청색에서 제일 높다.On the other hand, dogs have two types of cone cells. For example, dogs can perceive red and green as yellow, and can distinguish colors only from the combination of blue and yellow. Also, unlike humans, dogs can distinguish colors more easily when they are closer to ultraviolet light. That is, unlike humans, dogs have the highest color sensitivity to blue.
또한, 개의 콘트라스트 인식, 에지 인식, 휘도 인식, 동영상 인식 등에 대한 시각적 특성이 사람의 시각적 특성과 달라, 종래의 사람용 표시 장치를 개가 시청하는 경우, 흥미를 잃게 되는 문제가 있다. In addition, since the dog's visual characteristics for contrast recognition, edge recognition, luminance recognition, video recognition, etc. are different from those of humans, the dog loses interest in the conventional display device for humans.
이에 본 발명의 기술적 과제는 이러한 점에서 착안된 것으로, 본 발명의 목적은 개의 시각적 특성을 고려하여 입력 영상 데이터를 변환하는 개용 표시 장치를 제공하는 것이다.Therefore, the technical problem of the present invention has been focused on this point, and an object of the present invention is to provide a display device for dogs that converts input image data in consideration of the visual characteristics of dogs.
본 발명의 다른 목적은 상기 개용 표시 장치를 구동하는 방법을 제공하는 것이다.Another object of the present invention is to provide a method for driving the dog display device.
상기한 본 발명의 목적을 실현하기 위한 일 실시예에 따른 개용 표시 장치는 표시 패널, 구동 제어부 및 데이터 구동부를 포함한다. 상기 구동 제어부는 개의 시각적 특성을 기초로 컬러 보정, 콘트라스트 보정, 감마 보정, 에지 보정, 휘도 보정 및 구동 주파수 변환 중 적어도 어느 하나를 수행하여 입력 영상 데이터를 출력 영상 데이터로 변환한다. 상기 데이터 구동부는 상기 출력 영상 데이터를 기초로 데이터 전압을 생성하여 상기 표시 패널에 출력한다. A dog display device according to an embodiment for realizing the above object of the present invention includes a display panel, a driving control unit, and a data driving unit. The drive controller converts input image data into output image data by performing at least one of color correction, contrast correction, gamma correction, edge correction, luminance correction, and driving frequency conversion based on the dog's visual characteristics. The data driver generates a data voltage based on the output image data and outputs it to the display panel.
본 발명의 일 실시예에 있어서, 상기 구동 제어부는 상기 입력 영상 데이터를 수신하고 상기 컬러 보정을 수행하여 상기 출력 영상 데이터를 출력하는 컬러 보정부를 포함할 수 있다. 상기 입력 영상 데이터는 입력 레드 데이터, 입력 그린 데이터 및 입력 블루 데이터를 포함할 수 있다. 상기 출력 영상 데이터는 출력 레드 데이터, 블루 보상 데이터, 출력 그린 데이터 및 출력 블루 데이터를 포함할 수 있다. 상기 컬러 보정부는 상기 입력 레드 데이터를 상기 출력 레드 데이터 및 상기 블루 보상 데이터로 변환할 수 있다. In one embodiment of the present invention, the drive control unit may include a color correction unit that receives the input image data, performs the color correction, and outputs the output image data. The input image data may include input red data, input green data, and input blue data. The output image data may include output red data, blue compensation data, output green data, and output blue data. The color correction unit may convert the input red data into the output red data and the blue compensation data.
본 발명의 일 실시예에 있어서, 상기 구동 제어부는 상기 입력 영상 데이터를 수신하고 상기 컬러 보정을 수행하여 상기 출력 영상 데이터를 출력하는 컬러 보정부를 포함할 수 있다. 상기 입력 영상 데이터는 입력 레드 데이터, 입력 그린 데이터 및 입력 블루 데이터를 포함할 수 있다. 상기 출력 영상 데이터는 출력 레드 데이터, 블루 보상 데이터, 출력 그린 데이터 및 출력 블루 데이터를 포함할 수 있다. 상기 컬러 보정부는 상기 입력 그린 데이터를 상기 출력 그린 데이터 및 상기 블루 보상 데이터로 변환할 수 있다. In one embodiment of the present invention, the drive control unit may include a color correction unit that receives the input image data, performs the color correction, and outputs the output image data. The input image data may include input red data, input green data, and input blue data. The output image data may include output red data, blue compensation data, output green data, and output blue data. The color correction unit may convert the input green data into the output green data and the blue compensation data.
본 발명의 일 실시예에 있어서, 상기 구동 제어부는 상기 입력 영상 데이터 및 모드 신호를 수신하고 상기 컬러 보정을 수행하여 상기 출력 영상 데이터를 출력하는 컬러 보정부를 포함할 수 있다. 개 모드에서 상기 컬러 보정부는 입력 레드 데이터를 출력 레드 데이터 및 블루 보상 데이터로 변환하거나, 입력 그린 데이터를 출력 그린 데이터 및 상기 블루 보상 데이터로 변환할 수 있다. 사람 모드에서 상기 컬러 보정부는 상기 입력 영상 데이터를 상기 출력 영상 데이터로 출력할 수 있다. In one embodiment of the present invention, the driving control unit may include a color correction unit that receives the input image data and the mode signal, performs the color correction, and outputs the output image data. In the open mode, the color compensator may convert input red data into output red data and blue compensation data, or convert input green data into output green data and the blue compensation data. In the human mode, the color correction unit may output the input image data as the output image data.
본 발명의 일 실시예에 있어서, 상기 구동 제어부는 상기 입력 영상 데이터를 수신하고 계조 휘도 곡선을 기초로 상기 콘트라스트 보정을 수행하여 상기 출력 영상 데이터를 출력하는 콘트라스트/감마 보정부를 포함할 수 있다. 상기 입력 영상 데이터는 제1 계조 영역을 갖는 제1 데이터, 상기 제1 계조 영역보다 큰 계조를 갖는 제2 계조 영역을 갖는 제2 데이터 및 상기 제2 계조 영역보다 큰 계조를 갖는 제3 계조 영역을 갖는 제3 데이터를 포함할 수 있다. 상기 제2 계조 영역에 대응하는 상기 계조 휘도 곡선의 제2 기울기는 상기 제1 계조 영역에 대응하는 상기 계조 휘도 곡선의 제1 기울기보다 클 수 있다. In one embodiment of the present invention, the drive control unit may include a contrast/gamma correction unit that receives the input image data, performs the contrast correction based on a grayscale luminance curve, and outputs the output image data. The input image data includes first data having a first grayscale region, second data having a second grayscale region having a higher grayscale than the first grayscale region, and third grayscale regions having a higher grayscale than the second grayscale region. It may include third data having. A second slope of the grayscale luminance curve corresponding to the second grayscale region may be greater than a first slope of the grayscale luminance curve corresponding to the first grayscale region.
본 발명의 일 실시예에 있어서, 상기 제2 계조 영역에 대응하는 상기 계조 휘도 곡선의 상기 제2 기울기는 상기 제3 계조 영역에 대응하는 상기 계조 휘도 곡선의 제3 기울기보다 클 수 있다. In an exemplary embodiment of the present invention, the second slope of the grayscale luminance curve corresponding to the second grayscale region may be greater than the third slope of the grayscale luminance curve corresponding to the third grayscale region.
본 발명의 일 실시예에 있어서, 상기 구동 제어부는 상기 입력 영상 데이터 및 모드 신호를 수신하고 상기 콘트라스트 보정을 수행하여 상기 출력 영상 데이터를 출력하는 콘트라스트/감마 보정부를 포함할 수 있다. 상기 입력 영상 데이터는 제1 계조 영역을 갖는 제1 데이터, 상기 제1 계조 영역보다 큰 계조를 갖는 제2 계조 영역을 갖는 제2 데이터 및 상기 제2 계조 영역보다 큰 계조를 갖는 제3 계조 영역을 갖는 제3 데이터를 포함할 수 있다. 개 모드에서 상기 콘트라스트/감마 보정부는 상기 제1 계조 영역에 대응하여 제1 기울기를 갖고, 상기 제2 계조 영역에 대응하여 상기 제1 기울기보다 큰 제2 기울기를 갖는 계조 휘도 곡선을 이용하여 상기 콘트라스트 보정을 수행할 수 있다. 사람 모드에서 상기 콘트라스트/감마 보정부는 상기 입력 영상 데이터를 상기 출력 영상 데이터로 출력할 수 있다. In one embodiment of the present invention, the drive control unit may include a contrast/gamma correction unit that receives the input image data and the mode signal, performs the contrast correction, and outputs the output image data. The input image data includes first data having a first grayscale region, second data having a second grayscale region having a higher grayscale than the first grayscale region, and third grayscale regions having a higher grayscale than the second grayscale region. It may include third data having. In the open mode, the contrast/gamma compensator uses a grayscale luminance curve having a first slope corresponding to the first grayscale region and a second slope greater than the first slope corresponding to the second grayscale region to determine the contrast. correction can be made. In the human mode, the contrast/gamma correction unit may output the input image data as the output image data.
본 발명의 일 실시예에 있어서, 상기 구동 제어부는 상기 입력 영상 데이터를 수신하고 상기 에지 보정을 수행하여 상기 출력 영상 데이터를 출력하는 에지 보정부를 포함할 수 있다. 상기 에지 보정부는 상기 입력 영상 데이터가 정지 영상인지 동영상인지 판단하는 영상 분석부 및 상기 입력 영상 데이터가 정지 영상일 때, 상기 에지 보정을 수행하고, 상기 입력 영상 데이터가 동영상일 때, 상기 에지 보정을 수행하지 않는 보정 적용부를 포함할 수 있다. In one embodiment of the present invention, the drive control unit may include an edge correction unit that receives the input image data, performs the edge correction, and outputs the output image data. The edge correction unit includes an image analysis unit that determines whether the input image data is a still image or a moving image, performs the edge correction when the input image data is a still image, and performs the edge correction when the input image data is a moving image. It may include a correction application that does not perform.
본 발명의 일 실시예에 있어서, 상기 구동 제어부는 상기 입력 영상 데이터를 수신하고 상기 에지 보정을 수행하여 상기 출력 영상 데이터를 출력하는 에지 보정부를 포함할 수 있다. 상기 에지 보정부는 상기 입력 영상 데이터를 분석하는 영상 분석부 및 이전 프레임 데이터와 현재 프레임 데이터 사이에 데이터가 변화된 픽셀의 개수가 문턱값보다 작을 때, 상기 에지 보정을 수행하고, 상기 이전 프레임 데이터와 상기 현재 프레임 데이터 사이에 데이터가 변화된 픽셀의 개수가 상기 문턱값보다 크거나 같을 때, 상기 에지 보정을 수행하지 않는 보정 적용부를 포함할 수 있다. In one embodiment of the present invention, the drive control unit may include an edge correction unit that receives the input image data, performs the edge correction, and outputs the output image data. The edge correction unit performs the edge correction when the number of pixels whose data has changed between the image analysis unit that analyzes the input image data and the previous frame data and the current frame data is less than a threshold value, and the previous frame data and the current frame data. A correction application unit not performing the edge correction may be included when the number of pixels whose data is changed between the current frame data is greater than or equal to the threshold value.
본 발명의 일 실시예에 있어서, 상기 구동 제어부는 상기 입력 영상 데이터를 수신하고 상기 에지 보정을 수행하여 상기 출력 영상 데이터를 출력하는 에지 보정부를 포함할 수 있다. 상기 에지 보정부는 상기 입력 영상 데이터 내에 주인의 얼굴이 있는지 판단하는 영상 분석부 및 상기 입력 영상 데이터 내에 상기 주인의 얼굴이 있을 때, 상기 에지 보정을 수행하고, 상기 입력 영상 데이터 내에 상기 주인의 얼굴이 없을 때, 상기 에지 보정을 수행하지 않는 보정 적용부를 포함할 수 있다. In one embodiment of the present invention, the drive control unit may include an edge correction unit that receives the input image data, performs the edge correction, and outputs the output image data. The edge correction unit performs the edge correction when an image analysis unit determines whether the owner's face is present in the input image data and the owner's face is present in the input image data, and the owner's face is included in the input image data When there is none, a correction application unit that does not perform the edge correction may be included.
본 발명의 일 실시예에 있어서, 상기 구동 제어부는 상기 입력 영상 데이터를 수신하고 상기 에지 보정을 수행하여 상기 출력 영상 데이터를 출력하는 에지 보정부를 포함할 수 있다. 상기 에지 보정부는 상기 입력 영상 데이터를 분석하는 영상 분석부 및 상기 에지 보정을 선택적으로 적용하는 보정 적용부를 포함할 수 있다. 상기 보정 적용부는 상기 입력 영상 데이터 내에서 에지의 위치를 검출하는 에지 판단부 및 상기 에지에 대응하는 경계 영역에서 계조의 차이를 증가시켜 에지를 강조하는 에지 오버드라이브부를 포함할 수 있다.In one embodiment of the present invention, the drive control unit may include an edge correction unit that receives the input image data, performs the edge correction, and outputs the output image data. The edge correction unit may include an image analysis unit analyzing the input image data and a correction application unit selectively applying the edge correction. The correction applying unit may include an edge determining unit detecting a position of an edge in the input image data and an edge overdrive unit emphasizing an edge by increasing a difference in gray level in a boundary area corresponding to the edge.
본 발명의 일 실시예에 있어서, 상기 입력 영상 데이터가 제1 계조를 갖는 제1 영역 및 상기 제1 계조보다 큰 제2 계조를 갖는 제2 영역을 포함하고, 상기 입력 영상 데이터 내에서 상기 제1 영역과 상기 제2 영역 사이에 상기 경계 영역이 형성될 때, 상기 출력 영상 데이터에서 상기 제1 영역 중 경계에 가장 가까운 제1 영역 제1 경계 픽셀은 상기 제1 계조보다 작은 제1 영역 제1 경계 계조를 갖고, 상기 제2 영역 중 상기 경계에 가장 가까운 제2 영역 제1 경계 픽셀은 상기 제2 계조보다 큰 제2 영역 제1 경계 계조를 가질 수 있다. In one embodiment of the present invention, the input image data includes a first region having a first grayscale and a second region having a second grayscale greater than the first grayscale, and the first region in the input image data When the boundary region is formed between the region and the second region, the first boundary pixel of the first region closest to the boundary among the first regions in the output image data is smaller than the first grayscale of the first boundary of the first region. A first boundary pixel of a second region that has a grayscale and is closest to the boundary among the second regions may have a first boundary grayscale of the second region that is greater than the second grayscale.
본 발명의 일 실시예에 있어서, 상기 입력 영상 데이터 내에서 상기 제1 영역과 상기 제2 영역 사이에 상기 경계 영역이 형성될 때, 상기 출력 영상 데이터에서 상기 제1 영역 중 상기 제1 영역 제1 경계 픽셀에 이웃한 제1 영역 제2 경계 픽셀은 상기 제1 계조보다 작고 상기 제1 영역 제1 경계 계조보다 큰 제1 영역 제2 경계 계조를 갖고, 상기 제2 영역 중 상기 제2 영역 제1 경계 픽셀에 이웃한 제2 영역 제2 경계 픽셀은 상기 제2 계조보다 크고 상기 제2 영역 제1 경계 계조보다 작은 제2 영역 제2 경계 계조를 가질 수 있다. In one embodiment of the present invention, when the boundary area is formed between the first area and the second area in the input image data, the first area first of the first area in the output image data A second boundary pixel of the first region adjacent to the boundary pixel has a first region second boundary gradation smaller than the first gradation and greater than the first boundary gradation of the first region, and the second region first boundary gradation of the second region A second boundary pixel of a second region adjacent to a boundary pixel may have a second boundary grayscale greater than the second grayscale and smaller than the first boundary grayscale of the second region.
본 발명의 일 실시예에 있어서, 상기 입력 영상 데이터가 제1 계조를 갖는 제1 영역 및 상기 제1 계조보다 큰 제2 계조를 갖는 제2 영역을 포함하고, 상기 입력 영상 데이터 내에서 상기 제1 영역과 상기 제2 영역 사이에 상기 경계 영역이 형성될 때, 상기 출력 영상 데이터에서 상기 제1 영역 중 경계에 가장 가까운 제1 영역 제1 경계 픽셀 그룹은 상기 제1 계조보다 작은 제1 영역 제1 경계 계조를 갖고, 상기 제2 영역 중 상기 경계에 가장 가까운 제2 영역 제1 경계 픽셀 그룹은 상기 제2 계조보다 큰 제2 영역 제1 경계 계조를 가질 수 있다. In one embodiment of the present invention, the input image data includes a first region having a first grayscale and a second region having a second grayscale greater than the first grayscale, and the first region in the input image data When the boundary region is formed between the region and the second region, the first region first boundary pixel group closest to the boundary among the first regions in the output image data has a first region first grayscale smaller than the first grayscale. A second region first boundary pixel group having a boundary grayscale and closest to the boundary among the second regions may have a first boundary grayscale greater than the second region.
본 발명의 일 실시예에 있어서, 상기 입력 영상 데이터 내에서 상기 제1 영역과 상기 제2 영역 사이에 상기 경계 영역이 형성될 때, 상기 출력 영상 데이터에서 상기 제1 영역 중 상기 제1 영역 제1 경계 픽셀 그룹에 이웃한 제1 영역 제2 경계 픽셀 그룹은 상기 제1 계조보다 작고 상기 제1 영역 제1 경계 계조보다 큰 제1 영역 제2 경계 계조를 갖고, 상기 제2 영역 중 상기 제2 영역 제1 경계 픽셀 그룹에 이웃한 제2 영역 제2 경계 픽셀 그룹은 상기 제2 계조보다 크고 상기 제2 영역 제1 경계 계조보다 작은 제2 영역 제2 경계 계조를 가질 수 있다. In one embodiment of the present invention, when the boundary area is formed between the first area and the second area in the input image data, the first area first of the first area in the output image data A first region second boundary pixel group adjacent to a boundary pixel group has a first region second boundary gradation smaller than the first gradation and greater than the first boundary gradation of the first region, and the second region of the second region A second boundary pixel group in a second region adjacent to the first boundary pixel group may have a second boundary grayscale greater than the second grayscale and smaller than the first boundary grayscale in the second region.
본 발명의 일 실시예에 있어서, 상기 구동 제어부는 상기 입력 영상 데이터를 수신하고 상기 에지 보정을 수행하여 상기 출력 영상 데이터를 출력하는 에지 보정부를 포함할 수 있다. 상기 에지 보정부에서 사용되는 에지 보정 필터는
Figure PCTKR2023001577-appb-img-000001
일 수 있다.
In one embodiment of the present invention, the drive control unit may include an edge correction unit that receives the input image data, performs the edge correction, and outputs the output image data. The edge correction filter used in the edge correction unit is
Figure PCTKR2023001577-appb-img-000001
can be
본 발명의 일 실시예에 있어서, 상기 구동 제어부는 상기 입력 영상 데이터를 수신하고 상기 에지 보정을 수행하여 상기 출력 영상 데이터를 출력하는 에지 보정부를 포함할 수 있다. 상기 에지 보정부에서 사용되는 에지 보정 필터는
Figure PCTKR2023001577-appb-img-000002
일 수 있다.
In one embodiment of the present invention, the drive control unit may include an edge correction unit that receives the input image data, performs the edge correction, and outputs the output image data. The edge correction filter used in the edge correction unit is
Figure PCTKR2023001577-appb-img-000002
can be
본 발명의 일 실시예에 있어서, 상기 구동 제어부는 상기 입력 영상 데이터를 수신하고 상기 에지 보정을 수행하여 상기 출력 영상 데이터를 출력하는 에지 보정부를 포함할 수 있다. 상기 에지 보정부에서 사용되는 에지 보정 필터는
Figure PCTKR2023001577-appb-img-000003
일 수 있다.
In one embodiment of the present invention, the driving control unit may include an edge correction unit that receives the input image data, performs the edge correction, and outputs the output image data. The edge correction filter used in the edge correction unit is
Figure PCTKR2023001577-appb-img-000003
can be
본 발명의 일 실시예에 있어서, 상기 구동 제어부는 상기 입력 영상 데이터 및 모드 신호를 수신하고 상기 에지 보정을 수행하여 상기 출력 영상 데이터를 출력하는 에지 보정부를 포함할 수 있다. 개 모드에서 상기 에지 보정부는 상기 입력 영상 데이터의 에지 영역을 강조하는 상기 에지 보정을 수행할 수 있다. 사람 모드에서 상기 에지 보정부는 상기 입력 영상 데이터를 상기 출력 영상 데이터로 출력할 수 있다. In one embodiment of the present invention, the driving control unit may include an edge correction unit that receives the input image data and the mode signal, performs the edge correction, and outputs the output image data. In the dog mode, the edge correction unit may perform the edge correction to emphasize an edge area of the input image data. In the human mode, the edge correction unit may output the input image data as the output image data.
본 발명의 일 실시예에 있어서, 상기 구동 제어부는 상기 입력 영상 데이터 및 모드 신호를 수신하고 상기 출력 영상 데이터를 출력하는 휘도 보정부를 포함할 수 있다. 개 모드에서 상기 출력 영상 데이터의 최대 휘도는 사람 모드에서 상기 출력 영상 데이터의 최대 휘도보다 클 수 있다. In one embodiment of the present invention, the drive control unit may include a luminance correction unit that receives the input image data and the mode signal and outputs the output image data. The maximum luminance of the output image data in the dog mode may be greater than the maximum luminance of the output image data in the human mode.
본 발명의 일 실시예에 있어서, 상기 구동 제어부는 상기 입력 영상 데이터의 제1 프레임 영상 및 제2 프레임 영상 사이에 추가 영상을 삽입하여 상기 출력 영상 데이터를 생성하는 구동 주파수 제어부를 포함할 수 있다. In an embodiment of the present invention, the driving controller may include a driving frequency controller generating the output image data by inserting an additional image between a first frame image and a second frame image of the input image data.
본 발명의 일 실시예에 있어서, 상기 추가 영상은 주인의 얼굴 사진일 수 있다. In one embodiment of the present invention, the additional image may be a face picture of the owner.
본 발명의 일 실시예에 있어서, 상기 추가 영상은 개의 주의를 끌기 위해 미리 생성된 영상이며, 상기 제1 프레임 영상 및 상기 제2 프레임 영상과 무관한 영상일 수 있다. In one embodiment of the present invention, the additional video is a previously created video to attract the dog's attention, and may be an video unrelated to the first frame video and the second frame video.
본 발명의 일 실시예에 있어서, 상기 추가 영상은 상기 제1 프레임 영상의 물체의 위치 및 상기 제2 프레임 영상 내에서 상기 물체의 위치의 사이에 상기 물체가 위치하는 움직임 보상 영상 및 주인의 얼굴 사진 또는 개의 주의를 끌기 위해 상기 제1 프레임 영상 및 상기 제2 프레임 영상과 무관하게 생성된 영상을 포함할 수 있다. In one embodiment of the present invention, the additional image is a motion compensation image in which the object is located between a position of the object in the first frame image and a position of the object in the second frame image, and a photograph of the owner's face Alternatively, an image generated independently of the first frame image and the second frame image may be included to attract the dog's attention.
본 발명의 일 실시예에 있어서, 상기 추가 영상은 상기 제1 프레임 영상의 물체의 위치 및 상기 제2 프레임 영상 내에서 상기 물체의 위치의 사이에 상기 물체가 위치하는 움직임 보상 영상 및 주인의 얼굴 사진의 합성 영상일 수 있다. In one embodiment of the present invention, the additional image is a motion compensation image in which the object is located between a position of the object in the first frame image and a position of the object in the second frame image, and a photograph of the owner's face It may be a composite image of
본 발명의 일 실시예에 있어서, 상기 추가 영상은 상기 제1 프레임 영상 또는 상기 제2 프레임 영상을 복사한 복사 영상 및 주인의 얼굴 사진 또는 개의 주의를 끌기 위해 상기 제1 프레임 영상 및 상기 제2 프레임 영상과 무관하게 생성된 영상을 포함할 수 있다. In one embodiment of the present invention, the additional image is a copy image obtained by copying the first frame image or the second frame image, a photograph of the owner's face, or the first frame image and the second frame image to attract the dog's attention. Images generated independently of images may be included.
본 발명의 일 실시예에 있어서, 상기 추가 영상은 상기 제1 프레임 영상 또는 상기 제2 프레임 영상을 복사한 복사 영상 및 주인의 얼굴 사진의 합성 영상일 수 있다. In one embodiment of the present invention, the additional image may be a composite image of a copy image obtained by copying the first frame image or the second frame image and a photograph of the owner's face.
본 발명의 일 실시예에 있어서, 상기 구동 제어부는 상기 입력 영상 데이터 및 모드 신호를 수신하고 상기 출력 영상 데이터를 출력하는 구동 주파수 제어부를 포함할 수 있다. 개 모드에서 상기 출력 영상 데이터의 구동 주파수는 사람 모드에서 상기 출력 영상 데이터의 구동 주파수보다 클 수 있다. In one embodiment of the present invention, the driving controller may include a driving frequency controller that receives the input image data and the mode signal and outputs the output image data. A driving frequency of the output image data in the dog mode may be greater than a driving frequency of the output image data in the human mode.
상기한 본 발명의 다른 목적을 실현하기 위한 일 실시예에 따른 개용 표시 장치의 구동 방법은 개의 시각적 특성을 기초로 컬러 보정, 콘트라스트 보정, 감마 보정, 에지 보정, 휘도 보정 및 구동 주파수 변환 중 적어도 어느 하나를 수행하여 입력 영상 데이터를 출력 영상 데이터로 변환하는 단계, 상기 출력 영상 데이터를 기초로 데이터 신호를 생성하는 단계, 상기 데이터 신호를 데이터 전압으로 변환하는 단계 및 상기 데이터 전압을 표시 패널에 출력하는 단계를 포함한다. A method of driving a display device for a dog according to an embodiment for realizing the above object of the present invention includes at least one of color correction, contrast correction, gamma correction, edge correction, luminance correction, and driving frequency conversion based on the visual characteristics of the dog. Converting input image data into output image data by performing one of the following steps, generating a data signal based on the output image data, converting the data signal into a data voltage, and outputting the data voltage to a display panel. Include steps.
이와 같은 개용 표시 장치 및 상기 개용 표시 장치의 구동 방법에 따르면, 개의 시각적 특성에 맞게 입력 영상 데이터의 컬러 보정을 수행하므로, 영상을 시청하는 개의 몰입도를 높일 수 있다. 또한, 상기 개용 표시 장치는 개 모드에서 컬러 보정을 수행하고, 사람 모드에서 컬러 보정을 수행하지 않으므로, 하나의 표시 장치를 개와 사람이 함께 이용할 수 있다. According to the display device for dogs and the method for driving the display device for dogs, since color correction of input image data is performed according to the visual characteristics of the dog, the degree of immersion of the dog watching the video can be increased. Also, since the display device for dogs performs color correction in the dog mode and does not perform color correction in the human mode, a single display device can be used by both dogs and humans.
또한, 개의 시각적 특성에 맞게 입력 영상 데이터(IMG)의 콘트라스트 보정 및 감마 보정을 수행하므로, 영상을 시청하는 개의 몰입도를 높일 수 있다. 또한, 상기 개용 표시 장치는 개 모드에서 콘트라스트 보정을 수행하고, 개의 특성에 맞는 감마 보정을 수행하며, 사람 모드에서 콘트라스트 보정을 수행하지 않고, 사람의 특성에 맞는 감마 보정을 수행하므로, 하나의 표시 장치를 개와 사람이 함께 이용할 수 있다.In addition, since contrast correction and gamma correction are performed on the input image data (IMG) according to the dog's visual characteristics, the degree of immersion of the dog watching the video can be increased. In addition, the display device for dogs performs contrast correction in dog mode, gamma correction suitable for dog characteristics, and performs gamma correction suitable for human characteristics without performing contrast correction in human mode. The device can be used by both dogs and humans.
또한, 개의 시각적 특성에 맞게 입력 영상 데이터의 에지 보정을 수행하므로, 영상을 시청하는 개의 몰입도를 높일 수 있다. 또한, 상기 개용 표시 장치는 개 모드에서 에지 보정을 수행하고, 사람 모드에서 에지 보정을 수행하지 않으므로, 하나의 표시 장치를 개와 사람이 함께 이용할 수 있다.In addition, since the edge correction of the input image data is performed according to the dog's visual characteristics, the degree of immersion of the dog watching the video can be increased. Also, since the display device for dogs performs edge correction in the dog mode and does not perform edge correction in the human mode, a single display device can be used by both dogs and humans.
또한, 개의 시각적 특성에 맞게 개 모드에서 영상 데이터의 최대 휘도를 사람 모드에서 영상 데이터의 최대 휘도보다 높게 설정할 수 있다. 따라서, 영상을 시청하는 개의 몰입도를 높일 수 있다In addition, the maximum luminance of the image data in the dog mode may be set higher than the maximum luminance of the image data in the human mode according to the visual characteristics of the dog. Therefore, the degree of immersion of the dog watching the video can be increased.
또한, 개의 시각적 특성에 맞게 입력 영상 데이터의 구동 주파수 변환을 수행하므로, 영상을 시청하는 개의 몰입도를 높일 수 있다. 또한, 상기 개용 표시 장치는 개 모드에서 구동 주파수 변환을 수행하고, 사람 모드에서 구동 주파수 변환을 수행하지 않으므로, 하나의 표시 장치를 개와 사람이 함께 이용할 수 있다.In addition, since driving frequency conversion of the input image data is performed according to the dog's visual characteristics, the degree of immersion of the dog watching the video can be increased. In addition, since the display device for dogs performs driving frequency conversion in the dog mode and does not perform driving frequency conversion in the human mode, a single display device can be used by both dogs and humans.
도 1a는 본 발명의 일 실시예에 따른 개용 표시 장치가 사용되는 일 예를 나타내는 도면이다.1A is a diagram illustrating an example in which a dog display device according to an embodiment of the present invention is used.
도 1b는 본 발명의 일 실시예에 따른 개용 표시 장치를 나타내는 블록도이다.1B is a block diagram illustrating a dog display device according to an exemplary embodiment of the present invention.
도 2는 도 1의 구동 제어부의 일례를 나타내는 블록도이다.FIG. 2 is a block diagram illustrating an example of a driving control unit of FIG. 1 .
도 3은 도 1의 구동 제어부의 일례를 나타내는 블록도이다.FIG. 3 is a block diagram illustrating an example of a driving control unit of FIG. 1 .
도 4는 도 1의 구동 제어부의 일례를 나타내는 블록도이다.4 is a block diagram showing an example of a driving control unit of FIG. 1 .
도 5는 도 4의 콘트라스트/감마 보정부의 콘트라스트 보정 동작을 나타내는 그래프이다.FIG. 5 is a graph illustrating a contrast correction operation of the contrast/gamma correction unit of FIG. 4 .
도 6은 도 4의 콘트라스트/감마 보정부에 입력되는 입력 영상 데이터를 나타내는 도면이다.FIG. 6 is a diagram illustrating input image data input to the contrast/gamma correction unit of FIG. 4 .
도 7은 개에게 인식되는 도 6의 입력 영상 데이터를 나타내는 도면이다.FIG. 7 is a diagram illustrating input image data of FIG. 6 recognized by a dog.
도 8은 개에게 인식되는 도 4의 콘트라스트/감마 보정부의 출력 영상 데이터를 나타내는 도면이다.8 is a diagram illustrating output image data of the contrast/gamma correction unit of FIG. 4 recognized by a dog.
도 9는 도 4의 콘트라스트/감마 보정부의 감마 보정 동작을 나타내는 그래프이다.FIG. 9 is a graph illustrating a gamma correction operation of the contrast/gamma correction unit of FIG. 4 .
도 10은 도 4의 콘트라스트/감마 보정부의 감마 보정 동작을 나타내는 표이다.FIG. 10 is a table showing a gamma correction operation of the contrast/gamma correction unit of FIG. 4 .
도 11a, 도 11b 및 도 11c는 비교예에 따른 감마 보정 동작을 나타내는 그래프이다.11A, 11B, and 11C are graphs illustrating gamma correction operations according to comparative examples.
도 12a, 도 12b 및 도 12c는 본 실시예에 따른 감마 보정 동작을 나타내는 그래프이다.12A, 12B, and 12C are graphs illustrating gamma correction operations according to an exemplary embodiment.
도 13은 도 1의 구동 제어부의 일례를 나타내는 블록도이다.FIG. 13 is a block diagram illustrating an example of a driving control unit of FIG. 1 .
도 14는 도 1의 구동 제어부의 일례를 나타내는 블록도이다.FIG. 14 is a block diagram illustrating an example of a drive control unit of FIG. 1 .
도 15는 도 14의 에지 보정부의 일례를 나타내는 블록도이다.FIG. 15 is a block diagram illustrating an example of the edge correction unit of FIG. 14 .
도 16은 도 15의 보정 적용부에서 사용되는 필터의 일례를 나타내는 블록도이다.FIG. 16 is a block diagram illustrating an example of a filter used in the correction applying unit of FIG. 15 .
도 17은 도 15의 보정 적용부에서 사용되는 필터의 일례를 나타내는 블록도이다.FIG. 17 is a block diagram illustrating an example of a filter used in the correction application unit of FIG. 15 .
도 18은 도 15의 보정 적용부에서 사용되는 필터의 일례를 나타내는 블록도이다.FIG. 18 is a block diagram illustrating an example of a filter used in the correction applying unit of FIG. 15 .
도 19는 개의 시각과 사람의 시각의 공간 주파수를 나타내는 개념도이다.19 is a conceptual diagram showing spatial frequencies of a dog's vision and a human's.
도 20은 도 14의 에지 보정부의 입력 영상 데이터를 나타내는 도면이다.FIG. 20 is a diagram illustrating input image data of the edge correction unit of FIG. 14 .
도 21은 개에게 인식되는 도 20의 입력 영상 데이터를 나타내는 도면이다.21 is a diagram illustrating input image data of FIG. 20 recognized by a dog.
도 22는 도 14의 에지 보정부의 출력 영상 데이터를 나타내는 도면이다.FIG. 22 is a diagram illustrating output image data of the edge correction unit of FIG. 14 .
도 23은 개에게 인식되는 도 22의 출력 영상 데이터를 나타내는 도면이다.23 is a diagram illustrating output image data of FIG. 22 recognized by a dog.
도 24는 도 15의 보정 적용부의 일례를 나타내는 블록도이다. FIG. 24 is a block diagram illustrating an example of a correction application unit of FIG. 15 .
도 25는 도 24의 에지 판단부에 의해 판단되는 입력 영상 데이터의 에지 영역을 나타내는 도면이다.FIG. 25 is a diagram illustrating an edge area of input image data determined by the edge determination unit of FIG. 24 .
도 26은 도 24의 에지 오버드라이브부의 동작의 일례를 나타내는 개념도이다.FIG. 26 is a conceptual diagram illustrating an example of an operation of the edge overdrive unit of FIG. 24 .
도 27은 도 24의 에지 오버드라이브부의 동작의 일례를 나타내는 개념도이다.FIG. 27 is a conceptual diagram illustrating an example of an operation of the edge overdrive unit of FIG. 24 .
도 28은 도 1의 구동 제어부의 일례를 나타내는 블록도이다.28 is a block diagram showing an example of a driving control unit of FIG. 1 .
도 29는 도 1의 구동 제어부의 일례를 나타내는 블록도이다.FIG. 29 is a block diagram showing an example of a driving control unit of FIG. 1 .
도 30은 도 1의 구동 제어부의 일례를 나타내는 블록도이다.FIG. 30 is a block diagram illustrating an example of a drive control unit of FIG. 1 .
도 31은 도 30의 구동 주파수 제어부의 동작의 일례를 나타내는 도면이다.FIG. 31 is a diagram showing an example of an operation of the driving frequency controller of FIG. 30 .
도 32는 도 30의 구동 주파수 제어부의 동작의 일례를 나타내는 도면이다.FIG. 32 is a diagram showing an example of an operation of the driving frequency controller of FIG. 30 .
도 33은 도 30의 구동 주파수 제어부의 동작의 일례를 나타내는 도면이다.FIG. 33 is a diagram showing an example of an operation of the driving frequency controller of FIG. 30 .
도 34는 도 1의 구동 제어부의 일례를 나타내는 블록도이다.34 is a block diagram showing an example of a driving control unit of FIG. 1 .
본문에 개시되어 있는 본 발명의 실시예들에 대해서, 특정한 구조적 내지 기능적 설명들은 단지 본 발명의 실시예를 설명하기 위한 목적으로 예시된 것으로, 본 발명의 실시예들은 다양한 형태로 실시될 수 있으며 본문에 설명된 실시예들에 한정되는 것으로 해석되어서는 아니 된다.For the embodiments of the present invention disclosed in the text, specific structural or functional descriptions are only exemplified for the purpose of explaining the embodiments of the present invention, and the embodiments of the present invention may be implemented in various forms and the text It should not be construed as being limited to the embodiments described above.
본 발명은 다양한 변경을 가할 수 있고 여러 가지 형태를 가질 수 있는바, 특정 실시예들을 도면에 예시하고 본문에 상세하게 설명하고자 한다. 그러나 이는 본 발명을 특정한 개시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.Since the present invention can have various changes and various forms, specific embodiments will be illustrated in the drawings and described in detail in the text. However, this is not intended to limit the present invention to a specific form disclosed, and should be understood to include all modifications, equivalents, and substitutes included in the spirit and scope of the present invention.
제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로 사용될 수 있다. 예를 들어, 본 발명의 권리 범위로부터 이탈되지 않은 채 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다.Terms such as first and second may be used to describe various components, but the components should not be limited by the terms. The terms may be used for the purpose of distinguishing one component from another. For example, a first element may be termed a second element, and similarly, a second element may be termed a first element, without departing from the scope of the present invention.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. 구성요소들 간의 관계를 설명하는 다른 표현들, 즉 "~사이에"와 "바로 ~사이에" 또는 "~에 이웃하는"과 "~에 직접 이웃하는" 등도 마찬가지로 해석되어야 한다.It is understood that when an element is referred to as being "connected" or "connected" to another element, it may be directly connected or connected to the other element, but other elements may exist in the middle. It should be. On the other hand, when an element is referred to as “directly connected” or “directly connected” to another element, it should be understood that no other element exists in the middle. Other expressions describing the relationship between elements, such as "between" and "directly between" or "adjacent to" and "directly adjacent to", etc., should be interpreted similarly.
본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 기재된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.Terms used in this application are only used to describe specific embodiments, and are not intended to limit the present invention. Singular expressions include plural expressions unless the context clearly dictates otherwise. In this application, terms such as "comprise" or "have" are intended to indicate that the described feature, number, step, operation, component, part, or combination thereof exists, but that one or more other features or numbers, It should be understood that the presence or addition of steps, operations, components, parts, or combinations thereof is not precluded.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미이다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미인 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless defined otherwise, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which the present invention belongs. Terms such as those defined in commonly used dictionaries should be interpreted as having a meaning consistent with the meaning in the context of the related art, and unless explicitly defined in this application, they are not interpreted in an ideal or excessively formal meaning. .
한편, 어떤 실시예가 달리 구현 가능한 경우에 특정 블록 내에 명기된 기능 또는 동작이 순서도에 명기된 순서와 다르게 일어날 수도 있다. 예를 들어, 연속하는 두 블록이 실제로는 실질적으로 동시에 수행될 수도 있고, 관련된 기능 또는 동작에 따라서는 상기 블록들이 거꾸로 수행될 수도 있다.Meanwhile, when a certain embodiment can be implemented differently, functions or operations specified in a specific block may occur in a different order from the order specified in the flowchart. For example, two successive blocks may actually be performed substantially concurrently, or the blocks may be performed backwards depending on the function or operation involved.
이하, 첨부한 도면들을 참조하여, 본 발명의 바람직한 실시예를 보다 상세하게 설명하고자 한다. 도면상의 동일한 구성요소에 대해서는 동일한 참조부호를 사용하고 동일한 구성요소에 대해서 중복된 설명은 생략한다.Hereinafter, with reference to the accompanying drawings, preferred embodiments of the present invention will be described in more detail. The same reference numerals are used for the same components in the drawings, and redundant descriptions of the same components are omitted.
도 1a는 본 발명의 일 실시예에 따른 개용 표시 장치가 사용되는 일 예를 나타내는 도면이다. 도 1b는 본 발명의 일 실시예에 따른 개용 표시 장치를 나타내는 블록도이다.1A is a diagram illustrating an example in which a dog display device according to an embodiment of the present invention is used. 1B is a block diagram illustrating a dog display device according to an exemplary embodiment of the present invention.
도 1a 및 도 1b를 참조하면, 개용 표시 장치는 개가 볼 수 있는 위치(또는, 높이)에 설치되고, 개의 시각적 특성을 고려한 영상 데이터를 기초로 영상을 표시할 수 있다. 개의 시각적 특성을 고려한 영상 데이터를 기초로 영상을 표시함으로써, 개의 영상에 대한 집중력이 향상될 수 있다. 이하 구체적으로 설명한다.Referring to FIGS. 1A and 1B , the display device for dogs is installed at a position (or height) that a dog can see, and can display an image based on image data considering the dog's visual characteristics. Concentration on the dog's image can be improved by displaying the image based on the image data considering the dog's visual characteristics. It is described in detail below.
상기 개용 표시 장치는 표시 패널(100) 및 표시 패널 구동부를 포함한다. 상기 표시 패널 구동부는 구동 제어부(200), 게이트 구동부(300), 감마 기준 전압 생성부(400) 및 데이터 구동부(500)를 포함한다. The dog display device includes a display panel 100 and a display panel driver. The display panel driver includes a drive controller 200, a gate driver 300, a gamma reference voltage generator 400, and a data driver 500.
예를 들어, 상기 구동 제어부(200) 및 상기 데이터 구동부(500)는 일체로 형성될 수 있다. 예를 들어, 상기 구동 제어부(200), 상기 감마 기준 전압 생성부(400) 및 상기 데이터 구동부(500)는 일체로 형성될 수 있다. 적어도 상기 구동 제어부(200) 및 상기 데이터 구동부(500)가 일체로 형성된 구동 모듈을 타이밍 컨트롤러 임베디드 데이터 구동부(Timing Controller Embedded Data Driver, TED)로 명명할 수 있다. For example, the driving control unit 200 and the data driving unit 500 may be integrally formed. For example, the driving controller 200, the gamma reference voltage generator 400, and the data driver 500 may be integrally formed. A driving module in which at least the driving control unit 200 and the data driving unit 500 are integrally formed may be named a timing controller embedded data driver (TED).
상기 표시 패널(100)은 영상을 표시하는 표시부(AA) 및 상기 표시부(AA)에 이웃하여 배치되는 주변부(PA)를 포함한다. The display panel 100 includes a display portion AA displaying an image and a peripheral portion PA disposed adjacent to the display portion AA.
상기 표시 패널(100)은 복수의 게이트 라인들(GL), 복수의 데이터 라인들(DL) 및 상기 게이트 라인들(GL)과 상기 데이터 라인들(DL) 각각에 전기적으로 연결된 복수의 픽셀들(P)을 포함한다. 상기 게이트 라인들(GL)은 제1 방향(D1)으로 연장되고, 상기 데이터 라인들(DL)은 상기 제1 방향(D1)과 교차하는 제2 방향(D2)으로 연장된다. The display panel 100 includes a plurality of gate lines GL, a plurality of data lines DL, and a plurality of pixels electrically connected to each of the gate lines GL and the data lines DL ( include P). The gate lines GL extend in a first direction D1, and the data lines DL extend in a second direction D2 crossing the first direction D1.
상기 구동 제어부(200)는 개의 시각적 특성에 맞게 입력 영상 데이터의 컬러 보정, 콘트라스트 보정, 감마 보정, 에지 보정, 휘도 보정 및 구동 주파수 변환 중 적어도 하나를 수행한다. The driving controller 200 performs at least one of color correction, contrast correction, gamma correction, edge correction, luminance correction, and driving frequency conversion of the input image data according to the visual characteristics of the dog.
상기 구동 제어부(200)는 외부의 장치(미도시)로부터 입력 영상 데이터(IMG) 및 입력 제어 신호(CONT)를 수신할 수 있다. 예를 들어, 상기 입력 영상 데이터(IMG)는 적색 영상 데이터, 녹색 영상 데이터 및 청색 영상 데이터를 포함할 수 있다. 상기 입력 영상 데이터(IMG)는 백색 영상 데이터를 포함할 수 있다. 상기 입력 영상 데이터(IMG)는 마젠타색(magenta) 영상 데이터, 황색(yellow) 영상 데이터 및 시안색(cyan) 영상 데이터를 포함할 수 있다. 상기 입력 제어 신호(CONT)는 마스터 클럭 신호, 데이터 인에이블 신호를 포함할 수 있다. 상기 입력 제어 신호(CONT)는 수직 동기 신호 및 수평 동기 신호를 더 포함할 수 있다.The driving controller 200 may receive input image data IMG and input control signal CONT from an external device (not shown). For example, the input image data IMG may include red image data, green image data, and blue image data. The input image data IMG may include white image data. The input image data IMG may include magenta image data, yellow image data, and cyan image data. The input control signal CONT may include a master clock signal and a data enable signal. The input control signal CONT may further include a vertical synchronization signal and a horizontal synchronization signal.
상기 구동 제어부(200)는 상기 입력 영상 데이터(IMG) 및 상기 입력 제어 신호(CONT)를 근거로 제1 제어 신호(CONT1), 제2 제어 신호(CONT2), 제3 제어 신호(CONT3) 및 데이터 신호(DATA)를 생성할 수 있다. The driving controller 200 generates a first control signal CONT1, a second control signal CONT2, a third control signal CONT3 and data based on the input image data IMG and the input control signal CONT. A signal DATA may be generated.
상기 구동 제어부(200)는 상기 입력 제어 신호(CONT)를 근거로 상기 게이트 구동부(300)의 동작을 제어하기 위한 상기 제1 제어 신호(CONT1)를 생성하여 상기 게이트 구동부(300)에 출력한다. 상기 제1 제어 신호(CONT1)는 수직 개시 신호 및 게이트 클럭 신호를 포함할 수 있다.The driving control unit 200 generates the first control signal CONT1 for controlling the operation of the gate driving unit 300 based on the input control signal CONT and outputs the first control signal CONT1 to the gate driving unit 300 . The first control signal CONT1 may include a vertical start signal and a gate clock signal.
상기 구동 제어부(200)는 상기 입력 제어 신호(CONT)를 근거로 상기 데이터 구동부(500)의 동작을 제어하기 위한 상기 제2 제어 신호(CONT2)를 생성하여 상기 데이터 구동부(500)에 출력한다. 상기 제2 제어 신호(CONT2)는 수평 개시 신호 및 로드 신호를 포함할 수 있다.The drive controller 200 generates the second control signal CONT2 for controlling the operation of the data driver 500 based on the input control signal CONT and outputs the second control signal CONT2 to the data driver 500 . The second control signal CONT2 may include a horizontal start signal and a load signal.
상기 구동 제어부(200)는 상기 입력 영상 데이터(IMG)를 근거로 데이터 신호(DATA)를 생성한다. 상기 구동 제어부(200)는 상기 데이터 신호(DATA)를 상기 데이터 구동부(500)에 출력한다. The driving controller 200 generates a data signal DATA based on the input image data IMG. The driving controller 200 outputs the data signal DATA to the data driver 500 .
상기 구동 제어부(200)는 상기 입력 제어 신호(CONT)를 근거로 상기 감마 기준 전압 생성부(400)의 동작을 제어하기 위한 상기 제3 제어 신호(CONT3)를 생성하여 상기 감마 기준 전압 생성부(400)에 출력한다. The drive control unit 200 generates the third control signal CONT3 for controlling the operation of the gamma reference voltage generator 400 based on the input control signal CONT, so that the gamma reference voltage generator ( 400).
상기 구동 제어부(200)에 대해서는 도 2 내지 도 34를 참조하여 상세히 후술한다.The driving control unit 200 will be described later in detail with reference to FIGS. 2 to 34 .
상기 게이트 구동부(300)는 상기 구동 제어부(200)로부터 입력 받은 상기 제1 제어 신호(CONT1)에 응답하여 상기 게이트 라인들(GL)을 구동하기 위한 게이트 신호들을 생성한다. 상기 게이트 구동부(300)는 상기 게이트 신호들을 상기 게이트 라인들(GL)에 출력한다. 예를 들어, 상기 게이트 구동부(300)는 상기 게이트 신호들을 상기 게이트 라인들(GL)에 순차적으로 출력할 수 있다. 예를 들어, 상기 게이트 구동부(300)는 상기 표시 패널(100)의 상기 주변부(PA) 상에 실장될 수 있다. 예를 들어, 상기 게이트 구동부(300)는 상기 표시 패널(100)의 상기 주변부(PA) 상에 집적될 수 있다. 이와는 달리, 상기 게이트 구동부(300)는 상기 표시 패널(100) 상에 배치되지 않고, 상기 표시 패널(100)의 외부에 배치되어, 상기 표시 패널(100)과 전기적으로 연결될 수도 있다.The gate driver 300 generates gate signals for driving the gate lines GL in response to the first control signal CONT1 received from the driving controller 200 . The gate driver 300 outputs the gate signals to the gate lines GL. For example, the gate driver 300 may sequentially output the gate signals to the gate lines GL. For example, the gate driver 300 may be mounted on the peripheral portion PA of the display panel 100 . For example, the gate driver 300 may be integrated on the peripheral portion PA of the display panel 100 . Alternatively, the gate driver 300 may not be disposed on the display panel 100 but may be disposed outside the display panel 100 and electrically connected to the display panel 100 .
상기 감마 기준 전압 생성부(400)는 상기 구동 제어부(200)로부터 입력 받은 상기 제3 제어 신호(CONT3)에 응답하여 감마 기준 전압(VGREF)을 생성할 수 있다. 상기 감마 기준 전압 생성부(400)는 상기 감마 기준 전압(VGREF)을 상기 데이터 구동부(500)에 제공할 수 있다. 상기 감마 기준 전압(VGREF)은 각각의 데이터 신호(DATA)에 대응하는 값을 가질 수 있다. The gamma reference voltage generator 400 may generate the gamma reference voltage VGREF in response to the third control signal CONT3 received from the driving controller 200 . The gamma reference voltage generator 400 may provide the gamma reference voltage VGREF to the data driver 500 . The gamma reference voltage VGREF may have a value corresponding to each data signal DATA.
본 발명의 일 실시예에서, 상기 감마 기준 전압 생성부(400)는 상기 구동 제어부(200) 내에 배치되거나 상기 데이터 구동부(500) 내에 배치될 수 있다.In an embodiment of the present invention, the gamma reference voltage generator 400 may be disposed within the drive control unit 200 or within the data driver 500 .
상기 데이터 구동부(500)는 상기 구동 제어부(200)로부터 상기 제2 제어 신호(CONT2) 및 상기 데이터 신호(DATA)를 입력 받고, 상기 감마 기준 전압 생성부(400)로부터 상기 감마 기준 전압(VGREF)을 입력 받을 수 있다. 상기 데이터 구동부(500)는 상기 데이터 신호(DATA)를 상기 감마 기준 전압(VGREF)을 이용하여 아날로그 형태의 데이터 전압으로 변환할 수 있다. 상기 데이터 구동부(500)는 상기 데이터 전압을 상기 데이터 라인(DL)에 출력할 수 있다. The data driver 500 receives the second control signal CONT2 and the data signal DATA from the drive control unit 200, and generates the gamma reference voltage VGREF from the gamma reference voltage generator 400. can be input. The data driver 500 may convert the data signal DATA into an analog data voltage using the gamma reference voltage VGREF. The data driver 500 may output the data voltage to the data line DL.
상기 구동 제어부(200)는 개의 시각적 특성을 기초로 컬러 보정, 콘트라스트 보정, 감마 보정, 에지 보정, 휘도 보정 및 구동 주파수 변환 중 적어도 어느 하나를 수행하여 입력 영상 데이터를 출력 영상 데이터로 변환할 수 있다. 상기 데이터 구동부(500)는 상기 출력 영상 데이터를 기초로 데이터 전압을 생성하여 상기 표시 패널(100)에 출력할 수 있다. The driving controller 200 may convert input image data into output image data by performing at least one of color correction, contrast correction, gamma correction, edge correction, luminance correction, and driving frequency conversion based on the visual characteristics of the dog. . The data driver 500 may generate a data voltage based on the output image data and output the generated data voltage to the display panel 100 .
예를 들어, 상기 구동 제어부(200)는 상기 출력 영상 데이터를 기초로 상기 데이터 신호(DATA)를 생성할 수 있다. 상기 데이터 구동부(500)는 상기 데이터 구동부(500)는 상기 데이터 전압으로 변환하여 상기 표시 패널(100)에 출력할 수 있다. For example, the driving controller 200 may generate the data signal DATA based on the output image data. The data driver 500 may convert the data voltage into the data voltage and output the converted data voltage to the display panel 100 .
도 2는 도 1의 구동 제어부(200)의 일례를 나타내는 블록도이다.FIG. 2 is a block diagram showing an example of the drive control unit 200 of FIG. 1 .
도 1 및 도 2를 참조하면, 상기 구동 제어부(200)는 컬러 보정부(220)를 포함할 수 있다.Referring to FIGS. 1 and 2 , the drive controller 200 may include a color corrector 220 .
예를 들어, 상기 컬러 보정부(220)는 상기 입력 영상 데이터(IMG)를 수신하고 상기 컬러 보정을 수행하여 상기 출력 영상 데이터(OIMG)를 출력할 수 있다.For example, the color correction unit 220 may receive the input image data IMG, perform color correction, and output the output image data OIMG.
상기 입력 영상 데이터(IMG)는 입력 레드 데이터, 입력 그린 데이터 및 입력 블루 데이터를 포함하고, 상기 출력 영상 데이터(OIMG)는 출력 레드 데이터, 블루 보상 데이터, 출력 그린 데이터 및 출력 블루 데이터를 포함할 수 있다.The input image data IMG may include input red data, input green data, and input blue data, and the output image data OIMG may include output red data, blue compensation data, output green data, and output blue data. there is.
예를 들어, 상기 컬러 보정부(220)는 상기 입력 레드 데이터를 상기 출력 레드 데이터 및 상기 블루 보상 데이터로 변환할 수 있다. 여기서, 상기 입력 레드 데이터와 상기 출력 레드 데이터는 동일한 값을 갖고, 상기 입력 그린 데이터와 상기 출력 그린 데이터는 동일한 값을 갖고, 상기 입력 블루 데이터와 상기 출력 블루 데이터는 동일한 값을 가질 수 있다. 상기 출력 영상 데이터(OIMG)는 상기 입력 영상 데이터(IMG)에 비해 상기 블루 보상 데이터를 더 포함하므로, 상기 출력 영상 데이터(OIMG)는 상기 입력 영상 데이터(IMG)에 비해 청색이 강조된 영상일 수 있다. 여기서, 상기 블루 보상 데이터는 상기 입력 레드 데이터를 기초로 결정될 수 있다.For example, the color correction unit 220 may convert the input red data into the output red data and the blue compensation data. Here, the input red data and the output red data may have the same value, the input green data and the output green data may have the same value, and the input blue data and the output blue data may have the same value. Since the output image data OIMG further includes the blue compensation data compared to the input image data IMG, the output image data OIMG may be an image in which blue is emphasized compared to the input image data IMG. . Here, the blue compensation data may be determined based on the input red data.
예를 들어, 상기 컬러 보정부(220)는 상기 입력 그린 데이터를 상기 출력 그린 데이터 및 상기 블루 보상 데이터로 변환할 수 있다. 여기서, 상기 입력 레드 데이터와 상기 출력 레드 데이터는 동일한 값을 갖고, 상기 입력 그린 데이터와 상기 출력 그린 데이터는 동일한 값을 갖고, 상기 입력 블루 데이터와 상기 출력 블루 데이터는 동일한 값을 가질 수 있다. 상기 출력 영상 데이터(OIMG)는 상기 입력 영상 데이터(IMG)에 비해 상기 블루 보상 데이터를 더 포함하므로, 상기 출력 영상 데이터(OIMG)는 상기 입력 영상 데이터(IMG)에 비해 청색이 강조된 영상일 수 있다. 여기서, 상기 블루 보상 데이터는 상기 입력 그린 데이터를 기초로 결정될 수 있다.For example, the color correction unit 220 may convert the input green data into the output green data and the blue compensation data. Here, the input red data and the output red data may have the same value, the input green data and the output green data may have the same value, and the input blue data and the output blue data may have the same value. Since the output image data OIMG further includes the blue compensation data compared to the input image data IMG, the output image data OIMG may be an image in which blue is emphasized compared to the input image data IMG. . Here, the blue compensation data may be determined based on the input green data.
이와 같이, 상기 컬러 보정부(220)는 입력 영상 데이터(IMG)에 비해 청색의 비율이 증가된 출력 영상 데이터(OIMG)를 생성할 수 있다. As such, the color correction unit 220 may generate output image data OIMG in which a blue ratio is increased compared to the input image data IMG.
도 3은 도 1의 구동 제어부(200)의 일례를 나타내는 블록도이다.FIG. 3 is a block diagram showing an example of the driving control unit 200 of FIG. 1 .
본 실시예에 따른 개용 표시 장치 및 개용 표시 장치의 구동 방법은 컬러 보정부가 개 모드에서 선택적으로 동작하는 것을 제외하면, 도 2의 개용 표시 장치 및 개용 표시 장치의 구동 방법과 실질적으로 동일하므로, 동일 또는 유사한 구성 요소에 대해서는 동일한 참조 번호를 사용하고, 중복되는 설명은 생략한다.The dog display device and the method of driving the dog display device according to the present embodiment are substantially the same as the dog display device and the dog display device driving method of FIG. Alternatively, the same reference numerals are used for similar components, and overlapping descriptions are omitted.
도 1 내지 도 3을 참조하면, 상기 구동 제어부(200)는 상기 입력 영상 데이터(IMG) 및 모드 신호(MODE)를 수신하고 상기 컬러 보정을 수행하여 상기 출력 영상 데이터(OIMG)를 출력하는 컬러 보정부(220A)를 포함할 수 있다. 1 to 3 , the driving controller 200 receives the input image data IMG and the mode signal MODE, performs the color correction, and outputs the output image data OIMG. may include government 220A.
상기 컬러 보정부(220A)는 개 모드에서 상기 입력 영상 데이터(IMG)의 컬러 보정을 수행할 수 있고, 사람 모드에서 상기 입력 영상 데이터(IMG)의 컬러 보정을 수행하지 않을 수 있다. The color correction unit 220A may perform color correction of the input image data IMG in the dog mode, and may not perform color correction of the input image data IMG in the human mode.
상기 개 모드에서 상기 컬러 보정부(220A)는 입력 레드 데이터를 출력 레드 데이터 및 블루 보상 데이터로 변환하거나, 입력 그린 데이터를 출력 그린 데이터 및 상기 블루 보상 데이터로 변환하여 상기 출력 영상 데이터(OIMG)를 생성할 수 있다. In the dog mode, the color correction unit 220A converts input red data into output red data and blue compensation data or converts input green data into output green data and the blue compensation data to obtain the output image data OIMG. can create
상기 사람 모드에서 상기 컬러 보정부(220A)는 상기 입력 영상 데이터(IMG)를 상기 출력 영상 데이터(OIMG)로 출력할 수 있다. In the human mode, the color correction unit 220A may output the input image data IMG as the output image data OIMG.
본 실시예에 따르면, 개의 시각적 특성에 맞게 입력 영상 데이터(IMG)의 컬러 보정을 수행하므로, 영상을 시청하는 개의 몰입도를 높일 수 있다. 또한, 상기 개용 표시 장치는 개 모드에서 컬러 보정을 수행하고, 사람 모드에서 컬러 보정을 수행하지 않으므로, 하나의 표시 장치를 개와 사람이 함께 이용할 수 있다.According to this embodiment, color correction of the input image data (IMG) is performed according to the visual characteristics of the dog, so that the degree of immersion of the dog watching the video can be increased. Also, since the display device for dogs performs color correction in the dog mode and does not perform color correction in the human mode, a single display device can be used by both dogs and humans.
도 4는 도 1의 구동 제어부(200)의 일례를 나타내는 블록도이다. 도 5는 도 4의 콘트라스트/감마 보정부(240)의 콘트라스트 보정 동작을 나타내는 그래프이다. 도 6은 도 4의 콘트라스트/감마 보정부(240)에 입력되는 입력 영상 데이터(IMG)를 나타내는 도면이다. 도 7은 개에게 인식되는 도 6의 입력 영상 데이터(IMG)를 나타내는 도면이다. 도 8은 개에게 인식되는 도 4의 콘트라스트/감마 보정부(240)의 출력 영상 데이터(OIMG)를 나타내는 도면이다.FIG. 4 is a block diagram showing an example of the driving control unit 200 of FIG. 1 . FIG. 5 is a graph illustrating a contrast correction operation of the contrast/gamma correction unit 240 of FIG. 4 . FIG. 6 is a diagram illustrating input image data IMG input to the contrast/gamma correction unit 240 of FIG. 4 . 7 is a diagram illustrating input image data IMG of FIG. 6 recognized by a dog. 8 is a diagram showing output image data OIMG of the contrast/gamma correction unit 240 of FIG. 4 recognized by a dog.
도 1 내지 도 8을 참조하면, 상기 구동 제어부(200)는 상기 입력 영상 데이터(IMG)를 수신하고 계조 휘도 곡선을 기초로 상기 콘트라스트 보정 및 상기 감마 보정을 수행하여 상기 출력 영상 데이터(OIMG)를 출력하는 콘트라스트/감마 보정부(240)를 포함할 수 있다. 1 to 8 , the drive control unit 200 receives the input image data IMG and performs the contrast correction and the gamma correction based on the gradation luminance curve to obtain the output image data OIMG. A contrast/gamma correction unit 240 for outputting may be included.
개의 경우, 콘트라스트에 대한 인지 정도가 사람에 비해 상대적으로 떨어지므로, 영상 내에서 휘도 차에 따른 물체의 인지가 저하될 수 있으며, 이에 따라 개의 영상에 대한 몰입도가 감소할 수 있다. 예를 들어, 입력 영상 데이터(IMG)가 도 6과 같은 경우, 개는 콘트라스트에 대한 인지 정도가 사람에 비해 낮아 개에게는 도 7과 같이 인지될 수 있다. In the case of a dog, since the degree of perception of contrast is relatively lower than that of a human, the recognition of an object according to the luminance difference in an image may be deteriorated, and accordingly, the dog's immersion in the image may be reduced. For example, when the input image data IMG is as shown in FIG. 6 , dogs may perceive contrast as shown in FIG. 7 because dogs have a lower perception of contrast than humans.
상기 콘트라스트/감마 보정부(240)는 중간 계조 영역(GR2)에서의 계조 차이에 따른 휘도 차이를 증가시켜 중간 계조 영역(GR2)에서의 휘도 차이를 개가 상대적으로 잘 인지하도록 할 수 있다. The contrast/gamma compensator 240 may increase the luminance difference according to the gray level difference in the middle gray level region GR2 so that the dog can relatively well recognize the luminance difference in the middle gray level region GR2.
도 5는 상기 콘트라스트/감마 보정부(240)에서 상기 콘트라스트 보정을 위해 사용되는 상기 계조 휘도 곡선의 예시를 나타낸다. 상기 입력 영상 데이터(IMG)는 제1 계조 영역(GR1, 저계조 영역)을 갖는 제1 데이터, 상기 제1 계조 영역(GR1)보다 큰 계조를 갖는 제2 계조 영역(GR2, 중간 계조 영역)을 갖는 제2 데이터 및 상기 제2 계조 영역(GR2)보다 큰 계조를 갖는 제3 계조 영역(GR3, 고계조 영역)을 갖는 제3 데이터를 포함할 수 있다. 5 shows an example of the grayscale luminance curve used for the contrast correction in the contrast/gamma corrector 240 . The input image data IMG includes first data having a first grayscale region GR1 (low grayscale region) and a second grayscale region GR2 (middle grayscale region) having a higher grayscale than the first grayscale region GR1. and third data having a third grayscale region (GR3, high grayscale region) having a higher grayscale than the second grayscale region GR2.
상기 제2 계조 영역(GR2)에 대응하는 상기 계조 휘도 곡선의 제2 기울기는 상기 제1 계조 영역(GR1)에 대응하는 상기 계조 휘도 곡선의 제1 기울기보다 클 수 있다. 또한, 상기 제2 계조 영역(GR2)에 대응하는 상기 계조 휘도 곡선의 상기 제2 기울기는 상기 제3 계조 영역(GR3)에 대응하는 상기 계조 휘도 곡선의 제3 기울기보다 클 수 있다.A second slope of the grayscale luminance curve corresponding to the second grayscale region GR2 may be greater than a first slope of the grayscale luminance curve corresponding to the first grayscale region GR1. Also, the second slope of the grayscale luminance curve corresponding to the second grayscale region GR2 may be greater than the third slope of the grayscale luminance curve corresponding to the third grayscale region GR3.
도 8은 상기 콘트라스트/감마 보정부(240)에 의해 상기 입력 영상 데이터(IMG)의 콘트라스트가 보정된 상기 출력 영상 데이터(OIMG)가 개에게 인식되는 영상을 나타낸다. 즉, 상기 콘트라스트/감마 보정부(240)의 중간 계조 보정에 의해 개가 콘트라스트를 인지하는 정도가 사람이 입력 영상 데이터(IMG)로부터 콘트라스트를 인지하는 정도와 유사하게 될 수 있다. 8 shows an image recognized by the dog as the output image data OIMG, in which the contrast of the input image data IMG is corrected by the contrast/gamma corrector 240. In other words, the level at which a dog perceives contrast by the halftone correction of the contrast/gamma corrector 240 may be similar to the level at which a person perceives contrast from the input image data IMG.
도 9는 도 4의 콘트라스트/감마 보정부(240)의 감마 보정 동작을 나타내는 그래프이다. 도 10은 도 4의 콘트라스트/감마 보정부(240)의 감마 보정 동작을 나타내는 표이다. 도 11a, 도 11b 및 도 11c는 비교예에 따른 감마 보정 동작을 나타내는 그래프이다. 도 12a, 도 12b 및 도 12c는 본 실시예에 따른 감마 보정 동작을 나타내는 그래프이다.FIG. 9 is a graph illustrating a gamma correction operation of the contrast/gamma correction unit 240 of FIG. 4 . FIG. 10 is a table showing the gamma correction operation of the contrast/gamma correction unit 240 of FIG. 4 . 11A, 11B, and 11C are graphs illustrating gamma correction operations according to comparative examples. 12A, 12B, and 12C are graphs illustrating gamma correction operations according to an exemplary embodiment.
도 1 내지 도 12c를 참조하면, 상기 콘트라스트/감마 보정부(240)는 도 9의 S자 형상의 감마 곡선을 기초로 감마 보정을 수행할 수 있다. 도 9의 그래프에서 가로 축은 계조를 나타내고, 세로 축은 상기 계조에 대응하는 휘도를 나타내며, 도 9의 점선은 상기 계조에 따른 상기 휘도가 선형적인 경우를 도시하며, 도 9의 실선은 상기 계조에 따른 상기 휘도를 나타내는 본 실시예의 감마 곡선을 도시한다. 본 실시예에서, 상기 계조에 따른 상기 휘도를 나타내는 감마 곡선을 비선형적일 수 있다. Referring to FIGS. 1 to 12C , the contrast/gamma correction unit 240 may perform gamma correction based on the S-shaped gamma curve of FIG. 9 . In the graph of FIG. 9, the horizontal axis represents the gradation, the vertical axis represents the luminance corresponding to the gradation, the dotted line in FIG. 9 shows a case where the luminance according to the gradation is linear, and the solid line in FIG. A gamma curve of this embodiment representing the luminance is shown. In this embodiment, a gamma curve representing the luminance according to the gray level may be nonlinear.
도 9의 1번 내지 10번 지점의 계조값 및 휘도값은 도 10의 표로 나타내었다. 예를 들어, 1번 지점의 계조는 0계조이고, 정규화된 휘도는 0일 수 있다. 예를 들어, 2번 지점의 계조는 31계조이고, 정규화된 휘도는 0.01일 수 있다. 예를 들어, 3번 지점의 계조는 69계조이고, 정규화된 휘도는 0.02일 수 있다. 예를 들어, 4번 지점의 계조는 102계조이고, 정규화된 휘도는 0.07일 수 있다. 예를 들어, 5번 지점의 계조는 133계조이고, 정규화된 휘도는 0.17일 수 있다. 예를 들어, 6번 지점의 계조는 163계조이고, 정규화된 휘도는 0.43일 수 있다. 예를 들어, 7번 지점의 계조는 179계조이고, 정규화된 휘도는 0.68일 수 있다. 예를 들어, 8번 지점의 계조는 224계조이고, 정규화된 휘도는 0.99일 수 있다. 예를 들어, 9번 지점의 계조는 240계조이고, 정규화된 휘도는 1.00일 수 있다. 예를 들어, 10번 지점의 계조는 255계조이고, 정규화된 휘도는 1.00일 수 있다.Grayscale values and luminance values of points 1 to 10 in FIG. 9 are shown in a table in FIG. 10 . For example, the gray level of point 1 may be gray level 0, and the normalized luminance may be 0. For example, the gray level of the second point may be 31 gray levels, and the normalized luminance may be 0.01. For example, the gray level of point 3 is 69 gray levels, and the normalized luminance may be 0.02. For example, the gradation at point 4 is 102 gradations, and the normalized luminance may be 0.07. For example, the gradation at point 5 is 133 gradations, and the normalized luminance may be 0.17. For example, the gradation at point 6 is 163 gradations, and the normalized luminance may be 0.43. For example, the gradation at point 7 is 179 gradations, and the normalized luminance may be 0.68. For example, the gradation at point 8 is 224 gradations, and the normalized luminance may be 0.99. For example, the gray level of the 9th point may be 240 gray levels, and the normalized luminance may be 1.00. For example, the gradation of the 10th point may be 255 gradations, and the normalized luminance may be 1.00.
도 9의 그래프 및 도 10의 표에서 보듯이, 저계조 영역(예컨대, 1번 지점으로부터 5번 지점)에서 상기 감마 곡선의 기울기는 상대적으로 작은 값을 갖고, 중간 계조 영역(예컨대, 5번 지점으로부터 8번 지점)에서 상기 감마 곡선의 기울기는 상대적으로 큰 값을 가지며, 고계조 영역(예컨대, 8번 지점으로부터 10번 지점)에서 상기 감마 곡선의 기울기는 상대적으로 작은 값을 가질 수 있다. As shown in the graph of FIG. 9 and the table of FIG. 10 , the slope of the gamma curve has a relatively small value in the low grayscale region (eg, from point 1 to point 5), and in the middle grayscale region (eg, point 5). The slope of the gamma curve may have a relatively large value at a point 8 from the first point), and the slope of the gamma curve may have a relatively small value at a high grayscale region (eg, points 8 to 10).
도 11a 내지 도 11c를 보면, 종래의 사람용 표시 장치에서는 레드 감마 곡선(도 11a), 그린 감마 곡선(도 11b) 및 블루 감마 곡선(도 11c)을 이용하여 감마 보정을 수행할 수 있다. Referring to FIGS. 11A to 11C , in a conventional human display device, gamma correction may be performed using a red gamma curve ( FIG. 11A ), a green gamma curve ( FIG. 11B ), and a blue gamma curve ( FIG. 11C ).
도 2를 참조하여 설명한 것과 같이, 상기 컬러 보정부(220)는 상기 입력 영상 데이터(IMG)를 수신하고 상기 컬러 보정을 수행하여 상기 출력 영상 데이터(OIMG)를 출력할 수 있다. 상기 입력 영상 데이터(IMG)는 입력 레드 데이터(R), 입력 그린 데이터(G) 및 입력 블루 데이터(B)를 포함하고, 상기 출력 영상 데이터(OIMG)는 출력 레드 데이터(R), 블루 보상 데이터(B'), 출력 그린 데이터(G) 및 출력 블루 데이터(B)를 포함할 수 있다. As described with reference to FIG. 2 , the color correction unit 220 may receive the input image data IMG, perform color correction, and output the output image data OIMG. The input image data IMG includes input red data R, input green data G, and input blue data B, and the output image data OIMG includes output red data R and blue compensation data. (B′), output green data (G) and output blue data (B).
이 때, 도 12a 내지 도 12c에서 보듯이, 본 실시예에 따른 개용 표시 장치에서는 상기 출력 레드 데이터(R) 및 상기 블루 보상 데이터(B')의 감마 보정을 수행하기 위한 제1 감마 곡선(도 12a), 상기 출력 그린 데이터(G)의 감마 보정을 수행하기 위한 제2 감마 곡선(도 12b) 및 상기 출력 블루 데이터(B)의 감마 보정을 수행하기 위한 제3 감마 곡선(도 12c)을 이용하여 감마 보정을 수행할 수 있다. At this time, as shown in FIGS. 12A to 12C , in the dog display device according to the present embodiment, a first gamma curve (Fig. 12a) using a second gamma curve (FIG. 12B) for gamma correction of the output green data (G) and a third gamma curve (FIG. 12C) for gamma correction of the output blue data (B). Thus, gamma correction can be performed.
도 13은 도 1의 구동 제어부(200)의 일례를 나타내는 블록도이다.FIG. 13 is a block diagram showing an example of the driving control unit 200 of FIG. 1 .
본 실시예에 따른 개용 표시 장치 및 개용 표시 장치의 구동 방법은 콘트라스트/감마 보정부가 개 모드에서 선택적으로 동작하는 것을 제외하면, 도 4의 개용 표시 장치 및 개용 표시 장치의 구동 방법과 실질적으로 동일하므로, 동일 또는 유사한 구성 요소에 대해서는 동일한 참조 번호를 사용하고, 중복되는 설명은 생략한다.The dog display device and the method of driving the dog display device according to the present embodiment are substantially the same as the dog display device and the dog display device driving method of FIG. , Same reference numerals are used for the same or similar components, and overlapping descriptions are omitted.
도 1 내지 도 13을 참조하면, 상기 구동 제어부(200)는 상기 입력 영상 데이터(IMG) 및 모드 신호(MODE)를 수신하고 상기 콘트라스트 보정 및 상기 감마 보정을 수행하여 상기 출력 영상 데이터(OIMG)를 출력하는 콘트라스트/감마 보정부(240A)를 포함할 수 있다. 1 to 13 , the drive controller 200 receives the input image data IMG and the mode signal MODE and performs the contrast correction and the gamma correction to obtain the output image data OIMG. A contrast/gamma correction unit 240A for outputting may be included.
상기 콘트라스트/감마 보정부(240A)는 개 모드에서 상기 입력 영상 데이터(IMG)의 콘트라스트 보정을 수행할 수 있고, 사람 모드에서 상기 입력 영상 데이터(IMG)의 콘트라스트 보정을 수행하지 않을 수 있다. The contrast/gamma corrector 240A may perform contrast correction of the input image data IMG in the dog mode, and may not perform contrast correction of the input image data IMG in the human mode.
상기 개 모드에서 상기 콘트라스트/감마 보정부(240A)는 상기 제1 계조 영역에 대응하여 제1 기울기를 갖고, 상기 제2 계조 영역에 대응하여 상기 제1 기울기보다 큰 제2 기울기를 갖는 계조 휘도 곡선을 이용하여 상기 콘트라스트 보정을 수행할 수 있다. 또한, 상기 제2 계조 영역에 대응하는 상기 계조 휘도 곡선의 상기 제2 기울기는 상기 제3 계조 영역에 대응하는 상기 계조 휘도 곡선의 제3 기울기보다 클 수 있다. In the dog mode, the contrast/gamma compensator 240A has a first gradient corresponding to the first grayscale area and a second gradient greater than the first gradient corresponding to the second grayscale area. The contrast correction may be performed using Also, the second slope of the gray luminance curve corresponding to the second gray region may be greater than the third slope of the gray luminance curve corresponding to the third gray region.
상기 사람 모드에서 상기 콘트라스트/감마 보정부(240A)는 상기 입력 영상 데이터(IMG)를 상기 출력 영상 데이터(OIMG)로 출력할 수 있다. In the human mode, the contrast/gamma correction unit 240A may output the input image data IMG as the output image data OIMG.
상기 콘트라스트/감마 보정부(240A)는 개 모드에서 도 12a 내지 도 12c의 제1 감마 곡선(R+B'), 제2 감마 곡선(G) 및 제3 감마 곡선(B)을 이용하여 상기 입력 영상 데이터(IMG)의 감마 보정을 수행할 수 있고, 상기 사람 모드에서 도 11a 내지 도 11c의 레드 감마 곡선(R), 그린 감마 곡선(G) 및 블루 감마 곡선(B)을 이용하여 상기 입력 영상 데이터(IMG)의 감마 보정을 수행할 수 있다.The contrast/gamma correction unit 240A uses the first gamma curve (R+B'), the second gamma curve (G), and the third gamma curve (B) of FIGS. 12A to 12C in the dog mode to input the input Gamma correction of the image data (IMG) may be performed, and the input image may be gamma corrected using the red gamma curve (R), the green gamma curve (G), and the blue gamma curve (B) of FIGS. 11A to 11C in the human mode. Gamma correction of the data IMG may be performed.
본 실시예에 따르면, 개의 시각적 특성에 맞게 입력 영상 데이터(IMG)의 콘트라스트 보정 및 감마 보정을 수행하므로, 영상을 시청하는 개의 몰입도를 높일 수 있다. 또한, 상기 개용 표시 장치는 개 모드에서 콘트라스트 보정을 수행하고, 개의 특성에 맞는 감마 보정을 수행하며, 사람 모드에서 콘트라스트 보정을 수행하지 않고, 사람의 특성에 맞는 감마 보정을 수행하므로, 하나의 표시 장치를 개와 사람이 함께 이용할 수 있다.According to this embodiment, since contrast correction and gamma correction are performed on the input image data (IMG) according to the dog's visual characteristics, the degree of immersion of the dog watching the video can be increased. In addition, the display device for dogs performs contrast correction in dog mode, gamma correction suitable for dog characteristics, and performs gamma correction suitable for human characteristics without performing contrast correction in human mode. The device can be used by both dogs and humans.
도 14는 도 1의 구동 제어부(200)의 일례를 나타내는 블록도이다. 도 15는 도 14의 에지 보정부(260)의 일례를 나타내는 블록도이다. 도 16은 도 14의 보정 적용부(264)에서 사용되는 필터의 일례를 나타내는 블록도이다. 도 17은 도 14의 보정 적용부(264)에서 사용되는 필터의 일례를 나타내는 블록도이다. 도 18은 도 14의 보정 적용부(264)에서 사용되는 필터의 일례를 나타내는 블록도이다. 도 19는 개의 시각과 사람의 시각의 공간 주파수를 나타내는 개념도이다. 도 20은 도 14의 에지 보정부(260)의 입력 영상 데이터(IMG)를 나타내는 도면이다. 도 21은 개에게 인식되는 도 20의 입력 영상 데이터(IMG)를 나타내는 도면이다. 도 22는 도 14의 에지 보정부(260)의 출력 영상 데이터(OIMG)를 나타내는 도면이다. 도 23은 개에게 인식되는 도 22의 출력 영상 데이터(OIMG)를 나타내는 도면이다.FIG. 14 is a block diagram showing an example of the drive control unit 200 of FIG. 1 . FIG. 15 is a block diagram showing an example of the edge correction unit 260 of FIG. 14 . FIG. 16 is a block diagram illustrating an example of a filter used in the correction applying unit 264 of FIG. 14 . FIG. 17 is a block diagram illustrating an example of a filter used in the correction applying unit 264 of FIG. 14 . FIG. 18 is a block diagram illustrating an example of a filter used in the correction applying unit 264 of FIG. 14 . 19 is a conceptual diagram showing spatial frequencies of a dog's vision and a human's. FIG. 20 is a diagram illustrating input image data IMG of the edge correction unit 260 of FIG. 14 . FIG. 21 is a diagram illustrating input image data (IMG) of FIG. 20 recognized by a dog. FIG. 22 is a diagram illustrating output image data OIMG of the edge correction unit 260 of FIG. 14 . 23 is a diagram illustrating output image data OIMG of FIG. 22 recognized by a dog.
도 1 내지 도 23을 참조하면, 상기 구동 제어부(200)는 상기 입력 영상 데이터(IMG)를 수신하고 상기 에지 보정을 수행하여 상기 출력 영상 데이터(OIMG)를 출력하는 에지 보정부(260)를 포함할 수 있다. 1 to 23, the driving control unit 200 includes an edge correction unit 260 that receives the input image data IMG, performs the edge correction, and outputs the output image data OIMG. can do.
개의 경우, 영상 내에서 물체의 에지에 대한 인지 정도가 사람에 비해 상대적으로 떨어지므로, 영상 내에서 물체의 인지가 저하될 수 있으며, 이에 따라 개의 영상에 대한 몰입도가 감소할 수 있다. In the case of a dog, the degree of recognition of an object edge in an image is relatively lower than that of a human, and thus, the recognition of an object in an image may be degraded, and thus the degree of immersion in the dog's image may be reduced.
상기 에지 보정부(260)는 영상 내에서의 에지를 강조하여, 개가 상대적으로 물체의 에지를 잘 인지하도록 할 수 있다. The edge correction unit 260 can enhance the edge in the image so that the dog can recognize the edge of the object relatively well.
예를 들어, 에지 보정부(260)는 상기 입력 영상 데이터(IMG)를 분석하는 영상 분석부(262) 및 상기 영상 분석부(262)의 분석 결과를 기초로 상기 에지 보정을 선택적으로 적용하는 보정 적용부(264)를 포함할 수 있다.For example, the edge corrector 260 may include an image analyzer 262 that analyzes the input image data IMG and a correction that selectively applies the edge correction based on the analysis result of the image analyzer 262. An application portion 264 may be included.
본 발명의 일 실시예에서, 상기 보정 적용부(264)는 상기 입력 영상 데이터(IMG)가 정지 영상인 경우에 선택적으로 에지 보정을 적용할 수 있다. In an embodiment of the present invention, the correction application unit 264 may selectively apply edge correction when the input image data IMG is a still image.
예를 들어, 상기 영상 분석부(262)는 상기 입력 영상 데이터(IMG)가 정지 영상인지 동영상인지 판단할 수 있다. 상기 보정 적용부(264)는 상기 입력 영상 데이터(IMG)가 정지 영상일 때, 상기 에지 보정을 수행하고, 상기 입력 영상 데이터(IMG)가 동영상일 때, 상기 에지 보정을 수행하지 않을 수 있다.For example, the image analyzer 262 may determine whether the input image data IMG is a still image or a moving image. The correction application unit 264 may perform the edge correction when the input image data IMG is a still image, and may not perform the edge correction when the input image data IMG is a moving image.
상기 입력 영상 데이터(IMG)가 정지 영상인 경우에는 개가 물체의 에지에 대해 인지 정도가 떨어지는 특성이 더욱 강하게 나타날 수 있다. 반면, 상기 입력 영상 데이터(IMG)가 동영상인 경우에, 개는 동체 시력이 사람보다 오히려 우수하므로, 상기 에지에 대해 인지 정도가 떨어지는 특성이 문제되는 정도가 감소할 수 있다. 따라서, 상기 입력 영상 데이터(IMG)가 정지 영상인 경우에 선택적으로 에지 보정을 적용할 수 있다. When the input image data IMG is a still image, a dog's ability to recognize the edge of an object may show a stronger characteristic. On the other hand, when the input image data IMG is a moving picture, since a dog has better moving visual acuity than a human, the problem of the characteristic of low perceptual accuracy of the edge may be reduced. Accordingly, edge correction may be selectively applied when the input image data IMG is a still image.
예를 들어, 상기 영상 분석부(262)는 상기 입력 영상 데이터(IMG)의 이전 프레임 데이터와 현재 프레임 데이터를 비교하여 상기 입력 영상 데이터(IMG)가 정지 영상인지 동영상인지 판단할 수 있다.For example, the image analyzer 262 may compare previous frame data and current frame data of the input image data IMG to determine whether the input image data IMG is a still image or a moving image.
상기 이전 프레임 데이터와 현재 프레임 데이터가 동일한 경우, 상기 영상 분석부(262)는 상기 입력 영상 데이터(IMG)가 정지 영상인 것으로 판단할 수 있다. 반면, 상기 이전 프레임 데이터와 현재 프레임 데이터가 상이한 경우, 상기 영상 분석부(262)는 상기 입력 영상 데이터(IMG)가 동영상인 것으로 판단할 수 있다.When the previous frame data and the current frame data are identical, the image analyzer 262 may determine that the input image data IMG is a still image. On the other hand, if the previous frame data and the current frame data are different, the image analyzer 262 may determine that the input image data IMG is a video.
이와 유사하게, 본 발명의 일 실시예에서, 상기 보정 적용부(264)는 상기 입력 영상 데이터(IMG) 내에서의 영상의 변화 정도가 작은 경우에 선택적으로 에지 보정을 적용할 수 있다. Similarly, in one embodiment of the present invention, the correction application unit 264 may selectively apply edge correction when the degree of change of the image in the input image data IMG is small.
예를 들어, 상기 영상 분석부(262)는 이전 프레임 데이터와 현재 프레임 데이터 사이에 데이터가 변화된 픽셀의 개수를 기초로 상기 입력 영상 데이터(IMG) 내에서 영상의 변화 정도가 큰지 작은지 판단할 수 있다.For example, the image analyzer 262 may determine whether the degree of change of the image in the input image data IMG is large or small based on the number of pixels whose data has changed between the previous frame data and the current frame data. there is.
상기 이전 프레임 데이터와 현재 프레임 데이터 사이에 데이터가 변화된 픽셀의 개수가 문턱값보다 작을 때, 상기 보정 적용부(264)는 상기 에지 보정을 수행할 수 있다. 반면, 상기 이전 프레임 데이터와 상기 현재 프레임 데이터 사이에 데이터가 변화된 픽셀의 개수가 상기 문턱값보다 크거나 같을 때, 상기 보정 적용부(264)는 상기 에지 보정을 수행하지 않을 수 있다. When the number of pixels whose data is changed between the previous frame data and the current frame data is less than a threshold value, the correction application unit 264 may perform the edge correction. On the other hand, when the number of pixels whose data has changed between the previous frame data and the current frame data is greater than or equal to the threshold value, the correction application unit 264 may not perform the edge correction.
본 발명의 일 실시예에서, 상기 보정 적용부(264)는 상기 입력 영상 데이터(IMG) 내에 주인의 얼굴이 있는 경우에 선택적으로 에지 보정을 적용할 수 있다. In one embodiment of the present invention, the correction application unit 264 may selectively apply edge correction when the owner's face is present in the input image data IMG.
예를 들어, 상기 영상 분석부(262)는 상기 입력 영상 데이터(IMG) 내에 주인의 얼굴이 있는지 판단할 수 있다. 상기 보정 적용부(264)는 상기 입력 영상 데이터(IMG) 내에 상기 주인의 얼굴이 있을 때, 상기 에지 보정을 수행하고, 상기 입력 영상 데이터(IMG) 내에 상기 주인의 얼굴이 없을 때, 상기 에지 보정을 수행하지 않을 수 있다.For example, the image analyzer 262 may determine whether there is a face of the owner in the input image data IMG. The correction application unit 264 performs the edge correction when there is the owner's face in the input image data IMG, and when there is no owner's face in the input image data IMG, the edge correction may not perform.
상기 입력 영상 데이터(IMG) 내에 주인의 얼굴이 있는 경우, 개는 상대적으로 높은 몰입도를 나타내게 된다. 그러나, 주인의 얼굴의 윤곽이 잘 인지되지 않는 경우 이와 같은 몰입도 향상의 효과를 얻지 못할 수 있다. 따라서, 상기 입력 영상 데이터(IMG) 내에 주인의 얼굴이 있는 경우에 상기 에지 보정을 수행하여 개의 영상 몰입도를 향상시킬 수 있다.When the owner's face is included in the input image data IMG, the dog exhibits a relatively high degree of immersion. However, if the contour of the owner's face is not well recognized, such an effect of improving immersion may not be obtained. Therefore, when the owner's face is present in the input image data IMG, the dog's image immersion can be improved by performing the edge correction.
예를 들어, 상기 영상 분석부(262)는 상기 입력 영상 데이터(IMG)를 미리 입력된 주인의 얼굴 사진과 비교하여 상기 입력 영상 데이터(IMG) 내에 주인의 얼굴이 있는지 판단할 수 있다. For example, the image analyzer 262 may compare the input image data IMG with a previously input face picture of the owner to determine whether the owner's face is present in the input image data IMG.
도 16에서 보듯이, 상기 보정 적용부(264)는
Figure PCTKR2023001577-appb-img-000004
의 에지 보정 필터를 이용하여 상기 입력 영상 데이터(IMG)의 에지를 보정할 수 있다. 도 16의 상기 에지 보정 필터는 영상 샤프닝 필터로 부를 수도 있다. 상기 에지 보정 필터는 3행 3열의 매트릭스이며, 상기 매트릭스 내의 9개의 값들을 중심 픽셀과 이웃한 8개의 픽셀들에 각각 곱셈하여 합산한 값을 상기 중심 픽셀 위치에 업데이트 하는 방식으로 상기 에지 보정을 수행할 수 있다.
As shown in FIG. 16, the correction application unit 264
Figure PCTKR2023001577-appb-img-000004
An edge of the input image data IMG may be corrected using an edge correction filter of . The edge correction filter of FIG. 16 may also be referred to as an image sharpening filter. The edge correction filter is a matrix of 3 rows and 3 columns, and the edge correction is performed by multiplying 9 values in the matrix by the center pixel and 8 neighboring pixels, respectively, and updating the summed value to the location of the center pixel. can do.
도 17에서 보듯이, 상기 보정 적용부(264)는
Figure PCTKR2023001577-appb-img-000005
의 에지 보정 필터를 이용하여 상기 입력 영상 데이터(IMG)의 에지를 보정할 수 있다. 도 17의 상기 에지 보정 필터는 에지 인핸스먼트 필터로 부를 수도 있다. 상기 에지 보정 필터는 3행 3열의 매트릭스이며, 상기 매트릭스 내의 9개의 값들을 중심 픽셀과 이웃한 8개의 픽셀들에 각각 곱셈하여 합산한 값을 상기 중심 픽셀 위치에 업데이트 하는 방식으로 상기 에지 보정을 수행할 수 있다.
As shown in FIG. 17, the correction application unit 264
Figure PCTKR2023001577-appb-img-000005
An edge of the input image data IMG may be corrected using an edge correction filter of . The edge correction filter of FIG. 17 may also be referred to as an edge enhancement filter. The edge correction filter is a matrix of 3 rows and 3 columns, and the edge correction is performed by multiplying 9 values in the matrix by each of 8 pixels adjacent to the center pixel and updating the summed value to the location of the center pixel can do.
도 18에서 보듯이, 상기 보정 적용부(264)는
Figure PCTKR2023001577-appb-img-000006
의 에지 보정 필터를 이용하여 상기 입력 영상 데이터(IMG)의 에지를 보정할 수 있다. 도 18의 상기 에지 보정 필터는 에지 인핸스먼트 필터로 부를 수도 있다. 상기 에지 보정 필터는 5행 5열의 매트릭스이며, 상기 매트릭스 내의 25개의 값들을 중심 픽셀과 이웃한 24개의 픽셀들에 각각 곱셈하여 합산한 값을 상기 중심 픽셀 위치에 업데이트 하는 방식으로 상기 에지 보정을 수행할 수 있다.
As shown in FIG. 18, the correction application unit 264
Figure PCTKR2023001577-appb-img-000006
An edge of the input image data IMG may be corrected using an edge correction filter of . The edge correction filter of FIG. 18 may also be referred to as an edge enhancement filter. The edge correction filter is a matrix of 5 rows and 5 columns, and the edge correction is performed by multiplying 25 values in the matrix by the center pixel and 24 neighboring pixels, respectively, and updating the summed value to the location of the center pixel. can do.
도 19는 개의 시각과 사람의 시각의 공간 주파수의 분해능을 개략적으로 설명하기 위한 도면이다. 공간 주파수의 단위는 시야의 1도 범위(h) 안에 들어오는 구별 가능한 물체의 반복 주기로 표현되는 Cycle per degree (CPD)일 수 있다. 도 19에서 상대적으로 왼쪽에 표시된 그림을 보면, 1도 범위(h) 안에 약 2개의 반복 주기가 배치되며, 상대적으로 오른쪽에 표시된 그림을 보면, 시야의 1도 범위(h) 안에 약 4개의 반복 주기가 배치되는 것으로 도시되었다. 따라서, 도 19에서 왼쪽에 표시된 그림의 공간 주파수 분해능보다 오른쪽에 표시된 그림의 공간 주파수 분해능이 2배 클 수 있다. 19 is a diagram schematically illustrating resolution of spatial frequencies of a dog's vision and a human's vision. The unit of spatial frequency may be a cycle per degree (CPD) expressed as a repetition period of a distinguishable object that comes within a range of 1 degree (h) of the field of view. Looking at the picture shown on the relatively left side of FIG. 19, about 2 repetition periods are arranged within the 1 degree range (h), and looking at the picture shown on the relatively right side, about 4 repetitions are arranged within the 1 degree range (h) of the field of view. Cycles are shown arranged. Therefore, in FIG. 19 , the spatial frequency resolution of the picture on the right may be twice as large as the spatial frequency resolution of the picture on the left.
일반적으로 개는 사람 대비 1/3 수준의 공간 주파수 분해능을 가질 수 있다. 따라서, 개의 경우 물체의 에지가 선명하게 구별되지 않을 수 있다. In general, a dog may have a spatial frequency resolution of 1/3 of that of a human. Therefore, in the case of a dog, the edge of an object may not be clearly distinguished.
도 20은 상기 에지 보정부(260)의 입력 영상 데이터(IMG)를 나타낸다. 도 21은 개에게 인식되는 에지 보정부(260)의 입력 영상 데이터(IMG)를 나타내며, 영상의 에지가 흐릿하여 영상에 대한 개의 흥미가 감소할 수 있다. 도 22는 상기 에지 보정부(260)의 출력 영상 데이터(OIMG)를 나타낸다. 도 22의 출력 영상 데이터(OIMG)는 도 20의 입력 영상 데이터(IMG)에 비해 에지 부분이 더욱 강조된 것을 확인할 수 있다. 도 23은 개에게 인식되는 에지 보정부(260)의 출력 영상 데이터(OIMG)를 나타내며, 상기 에지 보정부(260)에 의해 개가 출력 영상 데이터(OIMG)로부터 에지를 인식하는 정도는 사람이 입력 영상 데이터(IMG)로부터 에지를 인식하는 정도와 유사한 수준으로 증가하는 것을 확인할 수 있다. 20 shows the input image data IMG of the edge correction unit 260. 21 shows the input image data (IMG) of the edge correction unit 260 recognized by the dog, and the dog's interest in the image may decrease because the edge of the image is blurred. 22 shows output image data OIMG of the edge correction unit 260. It can be seen that the edge portion of the output image data OIMG of FIG. 22 is more emphasized than that of the input image data IMG of FIG. 20 . 23 shows the output image data OIMG of the edge correction unit 260 recognized by the dog, and the degree to which the dog recognizes an edge from the output image data OIMG by the edge correction unit 260 is the human input image From the data IMG, it can be confirmed that the edge recognition level increases at a similar level.
도 24는 도 15의 보정 적용부(264)의 일례를 나타내는 블록도이다. 도 25는 도 24의 에지 판단부(265)에 의해 판단되는 입력 영상 데이터(IMG)의 에지 영역을 나타내는 도면이다. 도 26은 도 24의 에지 오버드라이브부(266)의 동작의 일례를 나타내는 개념도이다. 도 27은 도 24의 에지 오버드라이브부(266)의 동작의 일례를 나타내는 개념도이다.FIG. 24 is a block diagram showing an example of the correction application unit 264 of FIG. 15 . FIG. 25 is a diagram illustrating an edge area of the input image data IMG determined by the edge determiner 265 of FIG. 24 . FIG. 26 is a conceptual diagram showing an example of an operation of the edge overdrive unit 266 of FIG. 24 . FIG. 27 is a conceptual diagram showing an example of the operation of the edge overdrive unit 266 of FIG. 24 .
본 실시예에 따른 개용 표시 장치 및 개용 표시 장치의 구동 방법은 보정 적용부의 동작을 제외하면, 도 16 내지 도 23의 개용 표시 장치 및 개용 표시 장치의 구동 방법과 실질적으로 동일하므로, 동일 또는 유사한 구성 요소에 대해서는 동일한 참조 번호를 사용하고, 중복되는 설명은 생략한다.Except for the operation of the correction application unit, the dog display device and the method of driving the dog display device according to the present embodiment are substantially the same as the dog display device and the dog display device driving method of FIGS. The same reference numbers are used for elements, and overlapping descriptions are omitted.
도 1 내지 도 27을 참조하면, 본 실시예에 따른 보정 적용부(264)는 상기 입력 영상 데이터(IMG)의 에지 영역(EG)을 판단하고, 상기 에지 영역(EG)에 대응하는 부분의 계조를 보정할 수 있다. 1 to 27, the correction application unit 264 according to the present embodiment determines the edge region EG of the input image data IMG, and determines the gradation of the portion corresponding to the edge region EG. can be corrected.
예를 들어, 상기 보정 적용부(264)는 상기 입력 영상 데이터(IMG) 내에서 에지의 위치를 검출하는 에지 판단부(265) 및 상기 에지에 대응하는 경계 영역(EG)에서 계조의 차이를 증가시켜 에지를 강조하는 에지 오버드라이브부(266)를 포함할 수 있다. For example, the correction application unit 264 may include an edge determining unit 265 that detects the position of an edge in the input image data IMG and increases a gray level difference in a boundary area EG corresponding to the edge. It may include an edge overdrive unit 266 for emphasizing the edge.
도 25는 상기 에지 판단부(265)에 의해 판단된 상기 입력 영상 데이터(IMG)의 에지를 나타낸다.25 shows the edge of the input image data IMG determined by the edge determiner 265.
도 26에서, 한 칸은 하나의 픽셀을 의미할 수 있다. 도 26을 참조하면, 상기 입력 영상 데이터(IMG)가 제1 계조(예컨대, 55G)를 갖는 제1 영역 및 상기 제1 계조(예컨대, 55G)보다 큰 제2 계조(예컨대, 120G)를 갖는 제2 영역을 포함하고, 상기 입력 영상 데이터(IMG) 내에서 상기 제1 영역과 상기 제2 영역 사이에 상기 경계 영역(EG)이 형성될 때, 상기 출력 영상 데이터(OIMG)에서 상기 제1 영역 중 경계에 가장 가까운 제1 영역 제1 경계 픽셀은 상기 제1 계조(예컨대, 55G)보다 작은 제1 영역 제1 경계 계조(예컨대, 51G)를 갖고, 상기 제2 영역 중 상기 경계에 가장 가까운 제2 영역 제1 경계 픽셀은 상기 제2 계조(예컨대, 120G)보다 큰 제2 영역 제1 경계 계조(예컨대, 135G)를 가질 수 있다. In FIG. 26, one cell may mean one pixel. Referring to FIG. 26 , the input image data IMG has a first region having a first grayscale (eg, 55G) and a second grayscale (eg, 120G) greater than the first grayscale (eg, 55G). 2 regions, and when the boundary region EG is formed between the first region and the second region in the input image data IMG, one of the first region in the output image data OIMG The first boundary pixel of the first region closest to the boundary has the first boundary grayscale (eg, 51G) of the first region smaller than the first grayscale (eg, 55G), and the second region closest to the boundary among the second regions An area first boundary pixel may have a second area first boundary grayscale (eg, 135G) greater than the second grayscale (eg, 120G).
상기 출력 영상 데이터(OIMG)의 상기 제1 영역에서 상기 계조는 상기 경계로부터 멀어질수록 증가할 수 있고, 상기 제2 영역에서 상기 계조는 상기 경계로부터 멀어질수록 감소할 수 있다.In the first area of the output image data OIMG, the grayscale may increase as the distance from the boundary increases, and in the second area, the grayscale may decrease as distance from the boundary increases.
상기 입력 영상 데이터(IMG) 내에서 상기 제1 영역과 상기 제2 영역 사이에 상기 경계 영역(EG)이 형성될 때, 상기 출력 영상 데이터(OIMG)에서 상기 제1 영역 중 상기 제1 영역 제1 경계 픽셀에 이웃한 제1 영역 제2 경계 픽셀은 상기 제1 계조(예컨대, 55G)보다 작고 상기 제1 영역 제1 경계 계조(예컨대, 51G)보다 큰 제1 영역 제2 경계 계조(예컨대, 53G)를 갖고, 상기 제2 영역 중 상기 제2 영역 제1 경계 픽셀에 이웃한 제2 영역 제2 경계 픽셀은 상기 제2 계조(예컨대, 120G)보다 크고 상기 제2 영역 제1 경계 계조(예컨대, 135G)보다 작은 제2 영역 제2 경계 계조(예컨대, 127G)를 가질 수 있다. When the boundary area EG is formed between the first area and the second area in the input image data IMG, the first area first among the first areas in the output image data OIMG. The second boundary pixel of the first region adjacent to the boundary pixel has a first region second boundary grayscale (eg, 53G) smaller than the first grayscale (eg, 55G) and greater than the first boundary grayscale (eg, 51G) of the first region. ), and the second boundary pixel of the second region adjacent to the first boundary pixel of the second region of the second region is greater than the second grayscale (eg, 120G) and the first boundary grayscale of the second region (eg, 120G). 135G) may have a second boundary grayscale (eg, 127G) of the second region.
도 27에서, 한 칸은 하나의 픽셀을 의미할 수 있다. 도 27에서는 경계 영역(EG2)이 도 26의 경계 영역(EG)보다 크게 형성되고, 같은 경계 계조를 갖는 경계 픽셀이 하나가 아닌 복수 개 형성될 수 있다. In FIG. 27 , one cell may mean one pixel. In FIG. 27 , the border area EG2 is formed to be larger than the border area EG of FIG. 26 , and a plurality of border pixels having the same border grayscale may be formed.
도 27을 참조하면, 상기 입력 영상 데이터(IMG)가 제1 계조(예컨대, 55G)를 갖는 제1 영역 및 상기 제1 계조(예컨대, 55G)보다 큰 제2 계조(예컨대, 120G)를 갖는 제2 영역을 포함하고, 상기 입력 영상 데이터(IMG) 내에서 상기 제1 영역과 상기 제2 영역 사이에 상기 경계 영역(EG2)이 형성될 때, 상기 출력 영상 데이터(OIMG)에서 상기 제1 영역 중 경계에 가장 가까운 제1 영역 제1 경계 픽셀 그룹(예컨대, 2개의 픽셀)은 상기 제1 계조(예컨대, 55G)보다 작은 제1 영역 제1 경계 계조(예컨대, 51G)를 갖고, 상기 제2 영역 중 상기 경계에 가장 가까운 제2 영역 제1 경계 픽셀 그룹(예컨대, 2개의 픽셀)은 상기 제2 계조(예컨대, 120G)보다 큰 제2 영역 제1 경계 계조(예컨대, 135G)를 가질 수 있다. Referring to FIG. 27 , the input image data IMG has a first region having a first grayscale (eg, 55G) and a second grayscale (eg, 120G) greater than the first grayscale (eg, 55G). 2 regions, and when the boundary region EG2 is formed between the first region and the second region in the input image data IMG, one of the first region in the output image data OIMG The first region first boundary pixel group (eg, two pixels) closest to the boundary has a first region first boundary grayscale (eg, 51G) smaller than the first grayscale (eg, 55G), and the second region A first boundary pixel group (eg, two pixels) of the second region closest to the boundary may have a first boundary grayscale (eg, 135G) of the second region that is greater than the second grayscale (eg, 120G).
상기 출력 영상 데이터(OIMG)의 상기 제1 영역에서 상기 계조는 상기 경계로부터 멀어질수록 증가할 수 있고, 상기 제2 영역에서 상기 계조는 상기 경계로부터 멀어질수록 감소할 수 있다.In the first area of the output image data OIMG, the grayscale may increase as the distance from the boundary increases, and in the second area, the grayscale may decrease as distance from the boundary increases.
상기 입력 영상 데이터(IMG) 내에서 상기 제1 영역과 상기 제2 영역 사이에 상기 경계 영역(EG2)이 형성될 때, 상기 출력 영상 데이터(OIMG)에서 상기 제1 영역 중 상기 제1 영역 제1 경계 픽셀 그룹(예컨대, 2개의 픽셀)에 이웃한 제1 영역 제2 경계 픽셀 그룹(예컨대, 2개의 픽셀)은 상기 제1 계조(예컨대, 55G)보다 작고 상기 제1 영역 제1 경계 계조(예컨대, 51G)보다 큰 제1 영역 제2 경계 계조(예컨대, 53G)를 갖고, 상기 제2 영역 중 상기 제2 영역 제1 경계 픽셀 그룹(예컨대, 2개의 픽셀)에 이웃한 제2 영역 제2 경계 픽셀 그룹(예컨대, 2개의 픽셀)은 상기 제2 계조(예컨대, 120G)보다 크고 상기 제2 영역 제1 경계 계조(예컨대, 135G)보다 작은 제2 영역 제2 경계 계조(예컨대, 127G)를 가질 수 있다. When the boundary area EG2 is formed between the first area and the second area in the input image data IMG, the first area first among the first areas in the output image data OIMG. The second boundary pixel group (eg, two pixels) of the first region adjacent to the boundary pixel group (eg, two pixels) is smaller than the first grayscale (eg, 55G) and the first boundary grayscale (eg, 55G) of the first region . The pixel group (eg, two pixels) has a second region second boundary grayscale (eg, 127G) greater than the second grayscale (eg, 120G) and smaller than the first boundary grayscale (eg, 135G) of the second region. can
도 28은 도 1의 구동 제어부(200)의 일례를 나타내는 블록도이다.FIG. 28 is a block diagram showing an example of the drive control unit 200 of FIG. 1 .
본 실시예에 따른 개용 표시 장치 및 개용 표시 장치의 구동 방법은 에지 보정부가 개 모드에서 선택적으로 동작하는 것을 제외하면, 도 14 내지 도 27의 개용 표시 장치 및 개용 표시 장치의 구동 방법과 실질적으로 동일하므로, 동일 또는 유사한 구성 요소에 대해서는 동일한 참조 번호를 사용하고, 중복되는 설명은 생략한다.The dog display device and the method of driving the dog display device according to the present embodiment are substantially the same as the dog display device and the dog display device driving method of FIGS. 14 to 27 except that the edge corrector selectively operates in the dog mode. Therefore, the same reference numerals are used for the same or similar components, and overlapping descriptions are omitted.
도 1 내지 도 28을 참조하면, 상기 구동 제어부(200)는 상기 입력 영상 데이터(IMG) 및 모드 신호(MODE)를 수신하고 상기 에지 보정을 수행하여 상기 출력 영상 데이터(OIMG)를 출력하는 에지 보정부(260A)를 포함할 수 있다. 1 to 28, the driving control unit 200 receives the input image data IMG and the mode signal MODE, performs the edge correction, and outputs the output image data OIMG. government 260A.
상기 에지 보정부(260A)는 개 모드에서 상기 입력 영상 데이터(IMG)의 에지 보정을 수행할 수 있고, 사람 모드에서 상기 입력 영상 데이터(IMG)의 에지 보정을 수행하지 않을 수 있다. The edge correction unit 260A may perform edge correction of the input image data IMG in the dog mode, and may not perform edge correction of the input image data IMG in the human mode.
개 모드에서 상기 에지 보정부(260A)는 상기 입력 영상 데이터(IMG)의 에지 영역을 강조하는 상기 에지 보정을 수행하여, 상기 출력 영상 데이터(OIMG)를 생성할 수 있다. In the open mode, the edge correction unit 260A may generate the output image data OIMG by performing the edge correction to emphasize the edge area of the input image data IMG.
반면, 사람 모드에서 상기 에지 보정부(260A)는 상기 입력 영상 데이터(IMG)를 상기 출력 영상 데이터(OIMG)로 출력할 수 있다. On the other hand, in the human mode, the edge correction unit 260A may output the input image data IMG as the output image data OIMG.
본 실시예에 따르면, 개의 시각적 특성에 맞게 입력 영상 데이터(IMG)의 에지 보정을 수행하므로, 영상을 시청하는 개의 몰입도를 높일 수 있다. 또한, 상기 개용 표시 장치는 개 모드에서 에지 보정을 수행하고, 사람 모드에서 에지 보정을 수행하지 않으므로, 하나의 표시 장치를 개와 사람이 함께 이용할 수 있다.According to this embodiment, since the edge correction of the input image data IMG is performed according to the dog's visual characteristics, the degree of immersion of the dog watching the video can be increased. Also, since the display device for dogs performs edge correction in the dog mode and does not perform edge correction in the human mode, a single display device can be used by both dogs and humans.
도 29는 도 1의 구동 제어부(200)의 일례를 나타내는 블록도이다.FIG. 29 is a block diagram showing an example of the drive control unit 200 of FIG. 1 .
도 1 내지 도 29를 참조하면, 상기 구동 제어부(200)는 상기 입력 영상 데이터(IMG) 및 모드 신호(MODE)를 수신하고 상기 출력 영상 데이터(OIMG)를 출력하는 휘도 보정부(280)를 포함할 수 있다. 1 to 29 , the drive control unit 200 includes a luminance correction unit 280 that receives the input image data IMG and the mode signal MODE and outputs the output image data OIMG. can do.
도 7에서 보듯이, 개의 경우, 휘도의 다이나믹 레인지가 사람에 비해 상대적으로 작으므로, 영상 내에서 휘도 차에 따른 물체의 인지가 저하될 수 있으며, 이에 따라 개의 영상에 대한 몰입도가 감소할 수 있다.As shown in FIG. 7 , since the dynamic range of luminance of a dog is relatively small compared to that of a human, recognition of an object according to a difference in luminance in an image may be deteriorated, and as a result, the dog's immersion in the image may decrease. there is.
상기 휘도 보정부(280)는 개 모드에서 출력 영상 데이터(OIMG)의 최소 휘도와 최대 휘도 사이의 차이를 증가시켜 영상 내에서의 휘도 차이를 개가 상대적으로 잘 인지하도록 할 수 있다. The luminance compensator 280 may increase the difference between the minimum luminance and the maximum luminance of the output image data OIMG in the dog mode so that the dog relatively well recognizes the luminance difference in the image.
즉, 개 모드에서 상기 출력 영상 데이터(OIMG)의 최대 휘도는 사람 모드에서 상기 출력 영상 데이터(OIMG)의 최대 휘도보다 클 수 있다. That is, the maximum luminance of the output image data OIMG in the dog mode may be greater than the maximum luminance of the output image data OIMG in the human mode.
예를 들어, 개 모드에서 상기 출력 영상 데이터(OIMG)의 최대 휘도는 500 nit이고, 사람 모드에서 상기 출력 영상 데이터(OIMG)의 최대 휘도는 200 nit일 수 있다.For example, the maximum luminance of the output image data OIMG in the dog mode may be 500 nit, and the maximum luminance of the output image data OIMG in the human mode may be 200 nit.
본 실시예에 따르면, 개의 시각적 특성에 맞게 개 모드에서 영상 데이터의 최대 휘도를 사람 모드에서 영상 데이터의 최대 휘도보다 높게 설정할 수 있다. 따라서, 영상을 시청하는 개의 몰입도를 높일 수 있다.According to this embodiment, the maximum luminance of the image data in the dog mode can be set higher than the maximum luminance of the image data in the human mode according to the visual characteristics of the dog. Therefore, it is possible to increase the degree of immersion of the dog watching the video.
도 30은 도 1의 구동 제어부(200)의 일례를 나타내는 블록도이다. 도 31은 도 30의 구동 주파수 제어부(290)의 동작의 일례를 나타내는 도면이다. 도 32는 도 30의 구동 주파수 제어부(290)의 동작의 일례를 나타내는 도면이다. 도 33은 도 30의 구동 주파수 제어부(290)의 동작의 일례를 나타내는 도면이다.FIG. 30 is a block diagram showing an example of the driving control unit 200 of FIG. 1 . FIG. 31 is a diagram showing an example of the operation of the driving frequency controller 290 of FIG. 30 . FIG. 32 is a diagram showing an example of the operation of the driving frequency controller 290 of FIG. 30 . FIG. 33 is a diagram showing an example of the operation of the driving frequency controller 290 of FIG. 30 .
도 1 내지 도 33을 참조하면, 상기 구동 제어부(200)는 상기 입력 영상 데이터(IMG)의 제1 프레임 영상(I1) 및 제2 프레임 영상(I2) 사이에 추가 영상(IC)을 삽입하여 상기 출력 영상 데이터(OIMG)를 생성하는 구동 주파수 제어부(290)를 포함할 수 있다. 1 to 33, the driving controller 200 inserts an additional image IC between the first frame image I1 and the second frame image I2 of the input image data IMG to A driving frequency controller 290 generating output image data OIMG may be included.
개의 경우, 동체 시력이 매우 우수하여, 낮은 구동 주파수의 영상을 연속된 이미지로 인식하지 못하고, 플리커(flicker)로 인식하는 문제가 있다. 따라서, 상기 구동 주파수 제어부(290)는 입력 영상 데이터(IMG)의 구동 주파수가 낮은 경우, 상기 입력 영상 데이터(IMG)의 구동 주파수를 일정 주파수 이상으로 증가시킬 수 있다. In the case of a dog, since moving eyesight is very good, there is a problem in that an image of a low driving frequency is not recognized as a continuous image and is recognized as a flicker. Accordingly, when the driving frequency of the input image data IMG is low, the driving frequency controller 290 may increase the driving frequency of the input image data IMG to a predetermined frequency or higher.
예를 들어, 상기 입력 영상 데이터(IMG)의 주파수가 60Hz인 경우, 상기 구동 주파수 제어부(290)는 상기 입력 영상 데이터(IMG)의 제1 프레임 영상(I1) 및 제2 프레임 영상(I2) 사이에 하나의 추가 영상(IC)을 삽입하여 120Hz의 출력 영상 데이터(OIMG)를 생성할 수 있다.For example, when the frequency of the input image data IMG is 60 Hz, the driving frequency controller 290 controls the interval between the first frame image I1 and the second frame image I2 of the input image data IMG. An output image data OIMG of 120 Hz may be generated by inserting one additional image IC into the .
예를 들어, 상기 입력 영상 데이터(IMG)의 주파수가 30Hz인 경우, 상기 구동 주파수 제어부(290)는 상기 입력 영상 데이터(IMG)의 제1 프레임 영상(I1) 및 제2 프레임 영상(I2) 사이에 3개의 추가 영상(IC)을 삽입하여 120Hz의 출력 영상 데이터(OIMG)를 생성할 수 있다.For example, when the frequency of the input image data IMG is 30 Hz, the driving frequency controller 290 controls the interval between the first frame image I1 and the second frame image I2 of the input image data IMG. 120Hz output image data (OIMG) can be generated by inserting three additional images (IC).
도 31에서, 상기 추가 영상(IC)은 상기 제1 프레임 영상(I1)의 물체의 위치 및 상기 제2 프레임 영상(I2) 내에서 상기 물체의 위치의 사이(점선으로 나타낸 물체의 경로 상)에 상기 물체가 위치하는 움직임 보상 영상인 경우를 예시하였다. 도 31의 상기 제1 프레임 영상(I1) 내에서 동그란 물체가 화면의 좌측 하부에 배치되며, 상기 제2 프레임 영상(I2) 내에서 동그란 물체가 화면의 우측 상부에 배치된다. 이 때, 상기 추가 영상(IC) 내에서는 동그란 물체가 화면의 중심에 배치되게 하여, 움직임 보상 영상을 생성할 수 있다. 도 31에서 점선은 물체의 경로를 나타내기 위한 보조선이며, 실제 영상에 포함된 것은 아닐 수 있다. 31, the additional image IC is displayed between the position of the object in the first frame image I1 and the position of the object in the second frame image I2 (on the path of the object indicated by a dotted line). A case of a motion compensation image in which the object is located is exemplified. In the first frame image I1 of FIG. 31 , a round object is disposed on the lower left side of the screen, and in the second frame image I2 , a round object is disposed on the upper right side of the screen. At this time, a motion compensation image may be generated by placing a round object in the center of the screen in the additional image IC. In FIG. 31 , dotted lines are auxiliary lines for indicating the path of an object, and may not be included in the actual image.
도 32에서, 상기 추가 영상(IC)은 상기 제1 프레임 영상(I1) 또는 상기 제2 프레임 영상(I2)을 복사한 복사 영상인 경우를 예시하였다. 구체적으로, 도 32의 상기 추가 영상(IC)은 도 32의 상기 제1 프레임 영상(I1)의 복사 영상인 것을 예시하였다. 도 32에서 점선은 물체의 경로를 나타내기 위한 보조선이며, 실제 영상에 포함된 것은 아닐 수 있다.In FIG. 32, the case where the additional image IC is a copy image obtained by copying the first frame image I1 or the second frame image I2 is exemplified. Specifically, the additional image IC of FIG. 32 is a duplicate image of the first frame image I1 of FIG. 32 . In FIG. 32 , dotted lines are auxiliary lines for indicating the path of an object, and may not be included in the actual image.
도 33에서, 상기 추가 영상(IC)은 상기 제1 프레임 영상(I1) 및 상기 제2 프레임 영상(I2)과 무관하게 생성될 수 있음을 예시하였다. 도 33에서 점선은 물체의 경로를 나타내기 위한 보조선이며, 실제 영상에 포함된 것은 아닐 수 있다. 예를 들어, 상기 추가 영상(IC)은 주인의 얼굴 사진일 수 있다. 영상의 중간 중간에 주인의 얼굴 사진이 삽입되는 경우, 개의 주의를 끌 수 있으므로, 영상에 대한 몰입도를 크게 향상시킬 수 있다. 33 illustrates that the additional image IC may be generated independently of the first frame image I1 and the second frame image I2. In FIG. 33 , dotted lines are auxiliary lines for indicating the path of an object, and may not be included in the actual image. For example, the additional image IC may be a face picture of the owner. When a picture of the owner's face is inserted in the middle of the video, the dog's attention can be attracted, so the degree of immersion in the video can be greatly improved.
상기 추가 영상(IC)은 주인의 얼굴 사진으로만 한정되지 않으며, 개의 주의를 끌기 위해 미리 생성된 영상일 수 있다. 상기 추가 영상(IC)은 개에게 주입하고자 하는 교육용 영상이나 광고용 영상일 수도 있다. The additional image IC is not limited to the face picture of the owner, and may be a pre-generated image to attract the dog's attention. The additional image IC may be an educational image or an advertisement image to be injected into the dog.
상기 추가 영상(IC)은 도 31의 움직임 보상 영상, 도 32의 복사 영상, 도 33의 주의 집중 영상(주인의 얼굴 사진, 교육용 영상, 광고용 영상 등) 중 2개 이상을 포함할 수 있다. The additional image IC may include two or more of the motion compensation image of FIG. 31, the copy image of FIG. 32, and the attention-focused image of FIG.
또한, 상기 추가 영상(IC)은 도 31의 움직임 보상 영상, 도 32의 복사 영상, 도 33의 주의 집중 영상(주인의 얼굴 사진, 교육용 영상, 광고용 영상 등) 중 2개 이상이 합성된 영상을 포함할 수도 있다. In addition, the additional image IC is a synthesized image of two or more of the motion compensation image of FIG. 31, the copy image of FIG. 32, and the attention-focused image of FIG. may also include
예를 들어, 상기 추가 영상(IC)은 상기 제1 프레임 영상(I1)의 물체의 위치 및 상기 제2 프레임 영상(I2) 내에서 상기 물체의 위치의 사이에 상기 물체가 위치하는 움직임 보상 영상 및 주인의 얼굴 사진의 합성 영상일 수 있다. For example, the additional image IC may be a motion compensation image in which the object is located between the position of the object in the first frame image I1 and the position of the object in the second frame image I2, and It may be a composite image of the owner's face picture.
예를 들어, 상기 추가 영상(IC)은 상기 제1 프레임 영상(I1) 또는 상기 제2 프레임 영상(I2)을 복사한 복사 영상 및 주인의 얼굴 사진의 합성 영상일 수 있다. For example, the additional image IC may be a synthesized image of a copy image obtained by copying the first frame image I1 or the second frame image I2 and a photograph of the owner's face.
도 34는 도 1의 구동 제어부(200)의 일례를 나타내는 블록도이다.FIG. 34 is a block diagram showing an example of the drive control unit 200 of FIG. 1 .
본 실시예에 따른 개용 표시 장치 및 개용 표시 장치의 구동 방법은 구동 주파수 제어부가 개 모드에서 선택적으로 동작하는 것을 제외하면, 도 30 내지 도 33의 개용 표시 장치 및 개용 표시 장치의 구동 방법과 실질적으로 동일하므로, 동일 또는 유사한 구성 요소에 대해서는 동일한 참조 번호를 사용하고, 중복되는 설명은 생략한다.The dog display device and method of driving the dog display device according to the present embodiment are substantially similar to the dog display device and the dog display device driving method of FIGS. 30 to 33 except that the driving frequency controller selectively operates in the dog mode. Since they are the same, the same reference numerals are used for the same or similar components, and overlapping descriptions are omitted.
도 1 내지 도 34를 참조하면, 상기 구동 제어부(200)는 상기 입력 영상 데이터(IMG) 및 모드 신호(MODE)를 수신하고 상기 출력 영상 데이터(OIMG)를 출력하는 구동 주파수 제어부(290A)를 포함할 수 있다. 1 to 34 , the driving controller 200 includes a driving frequency controller 290A that receives the input image data IMG and mode signal MODE and outputs the output image data OIMG. can do.
상기 구동 주파수 제어부(290A)는 개 모드에서 상기 입력 영상 데이터(IMG)의 구동 주파수 변환을 수행할 수 있고, 사람 모드에서 상기 입력 영상 데이터(IMG)의 구동 주파수 변환을 수행하지 않을 수 있다. The driving frequency controller 290A may perform driving frequency conversion of the input image data IMG in the dog mode, and may not perform driving frequency conversion of the input image data IMG in the human mode.
상기 개 모드에서 상기 구동 주파수 제어부(290A)는 제1 프레임 영상(I1) 및 제2 프레임 영상(I2) 사이에 추가 영상(IC)을 삽입하여 상기 출력 영상 데이터(OIMG)를 생성할 수 있다. 반면, 상기 사람 모드에서 상기 구동 주파수 제어부(290A)는 상기 입력 영상 데이터(IMG)를 상기 출력 영상 데이터(OIMG)로 출력할 수 있다. In the open mode, the driving frequency controller 290A may insert an additional image IC between the first frame image I1 and the second frame image I2 to generate the output image data OIMG. On the other hand, in the human mode, the driving frequency controller 290A may output the input image data IMG as the output image data OIMG.
상기 개 모드에서 상기 출력 영상 데이터(OIMG)의 구동 주파수는 상기 사람 모드에서 상기 출력 영상 데이터(OIMG)의 구동 주파수보다 클 수 있다. A driving frequency of the output image data OIMG in the dog mode may be greater than a driving frequency of the output image data OIMG in the human mode.
본 실시예에 따르면, 개의 시각적 특성에 맞게 입력 영상 데이터(IMG)의 구동 주파수 변환을 수행하므로, 영상을 시청하는 개의 몰입도를 높일 수 있다. 또한, 상기 개용 표시 장치는 개 모드에서 구동 주파수 변환을 수행하고, 사람 모드에서 구동 주파수 변환을 수행하지 않으므로, 하나의 표시 장치를 개와 사람이 함께 이용할 수 있다.According to the present embodiment, since the driving frequency conversion of the input image data IMG is performed according to the visual characteristics of the dog, the degree of immersion of the dog watching the video can be increased. In addition, since the display device for dogs performs driving frequency conversion in the dog mode and does not perform driving frequency conversion in the human mode, a single display device can be used by both dogs and humans.
본 발명은 개용 표시 장치 및 이를 포함하는 전자 기기에 적용될 수 있다. 예를 들어, 본 발명은 디지털 TV, 3D TV, 휴대폰, 스마트폰, 태블릿 컴퓨터, VR 기기, PC, 가정용 전자기기, 노트북 컴퓨터, PDA, PMP, 디지털 카메라, 음악 재생기, 휴대용 게임 콘솔, 내비게이션 등에 적용될 수 있다.The present invention can be applied to a dog display device and an electronic device including the display device. For example, the present invention can be applied to digital TVs, 3D TVs, mobile phones, smart phones, tablet computers, VR devices, PCs, home electronic devices, notebook computers, PDAs, PMPs, digital cameras, music players, portable game consoles, navigation devices, and the like. can
이상 실시예들을 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.Although described with reference to the above embodiments, it will be appreciated that those skilled in the art can make various modifications and changes to the present invention without departing from the spirit and scope of the present invention described in the claims below. You will be able to.
<부호의 설명><Description of codes>
100: 표시 패널 200: 구동 제어부100: display panel 200: driving control unit
220, 220A: 컬러 보정부 220, 220A: color correction unit
240, 240A: 콘트라스트/감마 보정부240, 240A: contrast/gamma correction unit
260, 260A: 에지 보정부 262: 영상 분석부260, 260A: edge correction unit 262: image analysis unit
264: 보정 적용부 265: 에지 판단부264: correction application unit 265: edge determination unit
266: 에지 오버드라이브부 280: 휘도 보정부266: edge overdrive unit 280: luminance correction unit
290, 290A: 구동 주파수 제어부 300: 게이트 구동부 290, 290A: driving frequency controller 300: gate driver
400: 감마 기준 전압 생성부 500: 데이터 구동부 400: gamma reference voltage generator 500: data driver

Claims (29)

  1. 표시 패널;display panel;
    개의 시각적 특성을 기초로 컬러 보정, 콘트라스트 보정, 감마 보정, 에지 보정, 휘도 보정 및 구동 주파수 변환 중 적어도 어느 하나를 수행하여 입력 영상 데이터를 출력 영상 데이터로 변환하는 구동 제어부; 및a driving controller converting input image data into output image data by performing at least one of color correction, contrast correction, gamma correction, edge correction, luminance correction, and driving frequency conversion based on visual characteristics of the dog; and
    상기 출력 영상 데이터를 기초로 데이터 전압을 생성하여 상기 표시 패널에 출력하는 데이터 구동부를 포함하는 개용 표시 장치.and a data driver configured to generate a data voltage based on the output image data and output the generated data voltage to the display panel.
  2. 제1항에 있어서,According to claim 1,
    상기 구동 제어부는 상기 입력 영상 데이터를 수신하고 상기 컬러 보정을 수행하여 상기 출력 영상 데이터를 출력하는 컬러 보정부를 포함하며, The drive controller includes a color correction unit that receives the input image data, performs color correction, and outputs the output image data;
    상기 입력 영상 데이터는 입력 레드 데이터, 입력 그린 데이터 및 입력 블루 데이터를 포함하고, The input image data includes input red data, input green data, and input blue data,
    상기 출력 영상 데이터는 출력 레드 데이터, 블루 보상 데이터, 출력 그린 데이터 및 출력 블루 데이터를 포함하며, The output image data includes output red data, blue compensation data, output green data, and output blue data,
    상기 컬러 보정부는 상기 입력 레드 데이터를 상기 출력 레드 데이터 및 상기 블루 보상 데이터로 변환하는 것을 특징으로 하는 개용 표시 장치.The color correction unit converts the input red data into the output red data and the blue compensation data.
  3. 제1항에 있어서,According to claim 1,
    상기 구동 제어부는 상기 입력 영상 데이터를 수신하고 상기 컬러 보정을 수행하여 상기 출력 영상 데이터를 출력하는 컬러 보정부를 포함하며, The drive controller includes a color correction unit that receives the input image data, performs color correction, and outputs the output image data;
    상기 입력 영상 데이터는 입력 레드 데이터, 입력 그린 데이터 및 입력 블루 데이터를 포함하고, The input image data includes input red data, input green data, and input blue data,
    상기 출력 영상 데이터는 출력 레드 데이터, 블루 보상 데이터, 출력 그린 데이터 및 출력 블루 데이터를 포함하며, The output image data includes output red data, blue compensation data, output green data, and output blue data,
    상기 컬러 보정부는 상기 입력 그린 데이터를 상기 출력 그린 데이터 및 상기 블루 보상 데이터로 변환하는 것을 특징으로 하는 개용 표시 장치.The color correction unit converts the input green data into the output green data and the blue compensation data.
  4. 제1항에 있어서,According to claim 1,
    상기 구동 제어부는 상기 입력 영상 데이터 및 모드 신호를 수신하고 상기 컬러 보정을 수행하여 상기 출력 영상 데이터를 출력하는 컬러 보정부를 포함하며, The drive controller includes a color correction unit that receives the input image data and a mode signal, performs color correction, and outputs the output image data;
    개 모드에서 상기 컬러 보정부는 입력 레드 데이터를 출력 레드 데이터 및 블루 보상 데이터로 변환하거나, 입력 그린 데이터를 출력 그린 데이터 및 상기 블루 보상 데이터로 변환하고, In the dog mode, the color correction unit converts input red data into output red data and blue compensation data, or converts input green data into output green data and the blue compensation data;
    사람 모드에서 상기 컬러 보정부는 상기 입력 영상 데이터를 상기 출력 영상 데이터로 출력하는 것을 특징으로 하는 개용 표시 장치.The display device for dogs, characterized in that in the human mode, the color correction unit outputs the input image data as the output image data.
  5. 제1항에 있어서,According to claim 1,
    상기 구동 제어부는 상기 입력 영상 데이터를 수신하고 계조 휘도 곡선을 기초로 상기 콘트라스트 보정을 수행하여 상기 출력 영상 데이터를 출력하는 콘트라스트/감마 보정부를 포함하며, The drive control unit includes a contrast/gamma correction unit that receives the input image data, performs contrast correction based on a gradation luminance curve, and outputs the output image data;
    상기 입력 영상 데이터는 제1 계조 영역을 갖는 제1 데이터, 상기 제1 계조 영역보다 큰 계조를 갖는 제2 계조 영역을 갖는 제2 데이터 및 상기 제2 계조 영역보다 큰 계조를 갖는 제3 계조 영역을 갖는 제3 데이터를 포함하고, The input image data includes first data having a first grayscale region, second data having a second grayscale region having a higher grayscale than the first grayscale region, and third grayscale regions having a higher grayscale than the second grayscale region. Including third data having,
    상기 제2 계조 영역에 대응하는 상기 계조 휘도 곡선의 제2 기울기는 상기 제1 계조 영역에 대응하는 상기 계조 휘도 곡선의 제1 기울기보다 큰 것을 특징으로 하는 개용 표시 장치.and a second slope of the grayscale luminance curve corresponding to the second grayscale region is greater than a first slope of the grayscale luminance curve corresponding to the first grayscale region.
  6. 제5항에 있어서, According to claim 5,
    상기 제2 계조 영역에 대응하는 상기 계조 휘도 곡선의 상기 제2 기울기는 상기 제3 계조 영역에 대응하는 상기 계조 휘도 곡선의 제3 기울기보다 큰 것을 특징으로 하는 개용 표시 장치.wherein the second slope of the grayscale luminance curve corresponding to the second grayscale region is greater than a third slope of the grayscale luminance curve corresponding to the third grayscale region.
  7. 제1항에 있어서,According to claim 1,
    상기 구동 제어부는 상기 입력 영상 데이터 및 모드 신호를 수신하고 상기 콘트라스트 보정을 수행하여 상기 출력 영상 데이터를 출력하는 콘트라스트/감마 보정부를 포함하며, The driving controller includes a contrast/gamma correction unit that receives the input image data and a mode signal, performs contrast correction, and outputs the output image data;
    상기 입력 영상 데이터는 제1 계조 영역을 갖는 제1 데이터, 상기 제1 계조 영역보다 큰 계조를 갖는 제2 계조 영역을 갖는 제2 데이터 및 상기 제2 계조 영역보다 큰 계조를 갖는 제3 계조 영역을 갖는 제3 데이터를 포함하고, The input image data includes first data having a first grayscale region, second data having a second grayscale region having a higher grayscale than the first grayscale region, and third grayscale regions having a higher grayscale than the second grayscale region. Including third data having,
    개 모드에서 상기 콘트라스트/감마 보정부는 상기 제1 계조 영역에 대응하여 제1 기울기를 갖고, 상기 제2 계조 영역에 대응하여 상기 제1 기울기보다 큰 제2 기울기를 갖는 계조 휘도 곡선을 이용하여 상기 콘트라스트 보정을 수행하고, In the open mode, the contrast/gamma compensator uses a grayscale luminance curve having a first slope corresponding to the first grayscale region and a second slope greater than the first slope corresponding to the second grayscale region to determine the contrast. make a correction;
    사람 모드에서 상기 콘트라스트/감마 보정부는 상기 입력 영상 데이터를 상기 출력 영상 데이터로 출력하는 것을 특징으로 하는 개용 표시 장치.The display device for dogs, characterized in that in the human mode, the contrast/gamma corrector outputs the input image data as the output image data.
  8. 제1항에 있어서, 상기 구동 제어부는 상기 입력 영상 데이터를 수신하고 상기 에지 보정을 수행하여 상기 출력 영상 데이터를 출력하는 에지 보정부를 포함하고, The method of claim 1 , wherein the drive control unit comprises an edge correction unit receiving the input image data, performing the edge correction, and outputting the output image data,
    상기 에지 보정부는 The edge correction unit
    상기 입력 영상 데이터가 정지 영상인지 동영상인지 판단하는 영상 분석부; 및an image analysis unit determining whether the input image data is a still image or a moving image; and
    상기 입력 영상 데이터가 정지 영상일 때, 상기 에지 보정을 수행하고, 상기 입력 영상 데이터가 동영상일 때, 상기 에지 보정을 수행하지 않는 보정 적용부를 포함하는 것을 특징으로 하는 개용 표시 장치.and a correction application unit that performs the edge correction when the input image data is a still image and does not perform the edge correction when the input image data is a moving image.
  9. 제1항에 있어서, 상기 구동 제어부는 상기 입력 영상 데이터를 수신하고 상기 에지 보정을 수행하여 상기 출력 영상 데이터를 출력하는 에지 보정부를 포함하고, The method of claim 1 , wherein the drive control unit comprises an edge correction unit receiving the input image data, performing the edge correction, and outputting the output image data,
    상기 에지 보정부는 The edge correction unit
    상기 입력 영상 데이터를 분석하는 영상 분석부; 및an image analysis unit analyzing the input image data; and
    이전 프레임 데이터와 현재 프레임 데이터 사이에 데이터가 변화된 픽셀의 개수가 문턱값보다 작을 때, 상기 에지 보정을 수행하고, 상기 이전 프레임 데이터와 상기 현재 프레임 데이터 사이에 데이터가 변화된 픽셀의 개수가 상기 문턱값보다 크거나 같을 때, 상기 에지 보정을 수행하지 않는 보정 적용부를 포함하는 것을 특징으로 하는 개용 표시 장치.When the number of pixels whose data has changed between the previous frame data and the current frame data is smaller than the threshold value, the edge correction is performed, and the number of pixels whose data has changed between the previous frame data and the current frame data is the threshold value and a correction application unit that does not perform the edge correction when greater than or equal to.
  10. 제1항에 있어서, 상기 구동 제어부는 상기 입력 영상 데이터를 수신하고 상기 에지 보정을 수행하여 상기 출력 영상 데이터를 출력하는 에지 보정부를 포함하고, The method of claim 1 , wherein the drive control unit comprises an edge correction unit receiving the input image data, performing the edge correction, and outputting the output image data,
    상기 에지 보정부는 The edge correction unit
    상기 입력 영상 데이터 내에 주인의 얼굴이 있는지 판단하는 영상 분석부; 및an image analyzer that determines whether or not the owner's face is present in the input image data; and
    상기 입력 영상 데이터 내에 상기 주인의 얼굴이 있을 때, 상기 에지 보정을 수행하고, 상기 입력 영상 데이터 내에 상기 주인의 얼굴이 없을 때, 상기 에지 보정을 수행하지 않는 보정 적용부를 포함하는 것을 특징으로 하는 개용 표시 장치.and a correction application unit that performs the edge correction when the owner's face is present in the input image data and does not perform the edge correction when the owner's face is not present in the input image data. display device.
  11. 제1항에 있어서, 상기 구동 제어부는 상기 입력 영상 데이터를 수신하고 상기 에지 보정을 수행하여 상기 출력 영상 데이터를 출력하는 에지 보정부를 포함하고, The method of claim 1 , wherein the drive control unit comprises an edge correction unit receiving the input image data, performing the edge correction, and outputting the output image data,
    상기 에지 보정부는 The edge correction unit
    상기 입력 영상 데이터를 분석하는 영상 분석부; 및an image analysis unit analyzing the input image data; and
    상기 에지 보정을 선택적으로 적용하는 보정 적용부를 포함하고, A correction application unit for selectively applying the edge correction;
    상기 보정 적용부는 The correction application part
    상기 입력 영상 데이터 내에서 에지의 위치를 검출하는 에지 판단부; 및an edge determiner to detect a position of an edge within the input image data; and
    상기 에지에 대응하는 경계 영역에서 계조의 차이를 증가시켜 에지를 강조하는 에지 오버드라이브부를 포함하는 것을 특징으로 하는 개용 표시 장치.and an edge overdrive unit for emphasizing an edge by increasing a difference in gray level in a border area corresponding to the edge.
  12. 제11항에 있어서, 상기 입력 영상 데이터가 제1 계조를 갖는 제1 영역 및 상기 제1 계조보다 큰 제2 계조를 갖는 제2 영역을 포함하고, 상기 입력 영상 데이터 내에서 상기 제1 영역과 상기 제2 영역 사이에 상기 경계 영역이 형성될 때, 상기 출력 영상 데이터에서 상기 제1 영역 중 경계에 가장 가까운 제1 영역 제1 경계 픽셀은 상기 제1 계조보다 작은 제1 영역 제1 경계 계조를 갖고, 상기 제2 영역 중 상기 경계에 가장 가까운 제2 영역 제1 경계 픽셀은 상기 제2 계조보다 큰 제2 영역 제1 경계 계조를 갖는 것을 특징으로 하는 개용 표시 장치.12. The method of claim 11, wherein the input image data includes a first area having a first grayscale and a second area having a second grayscale greater than the first grayscale, When the boundary region is formed between the second regions, the first boundary pixel of the first region closest to the boundary among the first regions in the output image data has a first boundary grayscale smaller than the first grayscale, and , A first boundary pixel of the second region closest to the boundary among the second regions has a second region first boundary grayscale greater than the second grayscale.
  13. 제12항에 있어서, 상기 입력 영상 데이터 내에서 상기 제1 영역과 상기 제2 영역 사이에 상기 경계 영역이 형성될 때, 상기 출력 영상 데이터에서 상기 제1 영역 중 상기 제1 영역 제1 경계 픽셀에 이웃한 제1 영역 제2 경계 픽셀은 상기 제1 계조보다 작고 상기 제1 영역 제1 경계 계조보다 큰 제1 영역 제2 경계 계조를 갖고, 상기 제2 영역 중 상기 제2 영역 제1 경계 픽셀에 이웃한 제2 영역 제2 경계 픽셀은 상기 제2 계조보다 크고 상기 제2 영역 제1 경계 계조보다 작은 제2 영역 제2 경계 계조를 갖는 것을 특징으로 하는 개용 표시 장치.13. The method of claim 12, wherein when the boundary region is formed between the first region and the second region in the input image data, a first boundary pixel of the first region is assigned to a first boundary pixel of the first region in the output image data. An adjacent first area second boundary pixel has a first area second boundary gradation smaller than the first gradation and greater than the first area first boundary gradation, and a second area first boundary pixel of the second area The display device for dogs, characterized in that adjacent second area second boundary pixels have a second area second boundary grayscale greater than the second grayscale and smaller than the second area first boundary grayscale.
  14. 제11항에 있어서, 상기 입력 영상 데이터가 제1 계조를 갖는 제1 영역 및 상기 제1 계조보다 큰 제2 계조를 갖는 제2 영역을 포함하고, 상기 입력 영상 데이터 내에서 상기 제1 영역과 상기 제2 영역 사이에 상기 경계 영역이 형성될 때, 상기 출력 영상 데이터에서 상기 제1 영역 중 경계에 가장 가까운 제1 영역 제1 경계 픽셀 그룹은 상기 제1 계조보다 작은 제1 영역 제1 경계 계조를 갖고, 상기 제2 영역 중 상기 경계에 가장 가까운 제2 영역 제1 경계 픽셀 그룹은 상기 제2 계조보다 큰 제2 영역 제1 경계 계조를 갖는 것을 특징으로 하는 개용 표시 장치.12. The method of claim 11, wherein the input image data includes a first area having a first grayscale and a second area having a second grayscale greater than the first grayscale, When the boundary region is formed between the second regions, the first region first boundary pixel group closest to the boundary among the first regions in the output image data has a first region first boundary grayscale smaller than the first grayscale. wherein a first boundary pixel group of a second region closest to the boundary among the second regions has a second region first boundary grayscale greater than the second grayscale.
  15. 제14항에 있어서, 상기 입력 영상 데이터 내에서 상기 제1 영역과 상기 제2 영역 사이에 상기 경계 영역이 형성될 때, 상기 출력 영상 데이터에서 상기 제1 영역 중 상기 제1 영역 제1 경계 픽셀 그룹에 이웃한 제1 영역 제2 경계 픽셀 그룹은 상기 제1 계조보다 작고 상기 제1 영역 제1 경계 계조보다 큰 제1 영역 제2 경계 계조를 갖고, 상기 제2 영역 중 상기 제2 영역 제1 경계 픽셀 그룹에 이웃한 제2 영역 제2 경계 픽셀 그룹은 상기 제2 계조보다 크고 상기 제2 영역 제1 경계 계조보다 작은 제2 영역 제2 경계 계조를 갖는 것을 특징으로 하는 개용 표시 장치.15. The method of claim 14, wherein when the boundary region is formed between the first region and the second region in the input image data, a first boundary pixel group of the first region among the first regions in the output image data. A first area second boundary pixel group adjacent to has a first area second border gradation smaller than the first gradation and greater than the first area first border gradation, and the second area first border of the second area. A second area second boundary pixel group adjacent to the pixel group has a second area second boundary gradation greater than the second gradation and less than the first boundary gradation of the second area.
  16. 제1항에 있어서, 상기 구동 제어부는 상기 입력 영상 데이터를 수신하고 상기 에지 보정을 수행하여 상기 출력 영상 데이터를 출력하는 에지 보정부를 포함하고, The method of claim 1 , wherein the drive control unit comprises an edge correction unit receiving the input image data, performing the edge correction, and outputting the output image data,
    상기 에지 보정부에서 사용되는 에지 보정 필터는
    Figure PCTKR2023001577-appb-img-000007
    인 것을 특징으로 하는 개용 표시 장치.
    The edge correction filter used in the edge correction unit is
    Figure PCTKR2023001577-appb-img-000007
    A display device for dogs, characterized in that.
  17. 제1항에 있어서, 상기 구동 제어부는 상기 입력 영상 데이터를 수신하고 상기 에지 보정을 수행하여 상기 출력 영상 데이터를 출력하는 에지 보정부를 포함하고, The method of claim 1 , wherein the drive control unit comprises an edge correction unit receiving the input image data, performing the edge correction, and outputting the output image data,
    상기 에지 보정부에서 사용되는 에지 보정 필터는
    Figure PCTKR2023001577-appb-img-000008
    인 것을 특징으로 하는 개용 표시 장치.
    The edge correction filter used in the edge correction unit is
    Figure PCTKR2023001577-appb-img-000008
    A display device for dogs, characterized in that.
  18. 제1항에 있어서, 상기 구동 제어부는 상기 입력 영상 데이터를 수신하고 상기 에지 보정을 수행하여 상기 출력 영상 데이터를 출력하는 에지 보정부를 포함하고, The method of claim 1 , wherein the drive control unit comprises an edge correction unit receiving the input image data, performing the edge correction, and outputting the output image data,
    상기 에지 보정부에서 사용되는 에지 보정 필터는
    Figure PCTKR2023001577-appb-img-000009
    인 것을 특징으로 하는 개용 표시 장치.
    The edge correction filter used in the edge correction unit is
    Figure PCTKR2023001577-appb-img-000009
    A display device for dogs, characterized in that.
  19. 제1항에 있어서, 상기 구동 제어부는 상기 입력 영상 데이터 및 모드 신호를 수신하고 상기 에지 보정을 수행하여 상기 출력 영상 데이터를 출력하는 에지 보정부를 포함하고, The method of claim 1 , wherein the driving control unit comprises an edge correction unit receiving the input image data and a mode signal, performing the edge correction, and outputting the output image data,
    개 모드에서 상기 에지 보정부는 상기 입력 영상 데이터의 에지 영역을 강조하는 상기 에지 보정을 수행하고, In dog mode, the edge correction unit performs the edge correction for emphasizing an edge area of the input image data;
    사람 모드에서 상기 에지 보정부는 상기 입력 영상 데이터를 상기 출력 영상 데이터로 출력하는 것을 특징으로 하는 개용 표시 장치.The display device for dogs, characterized in that in the human mode, the edge correction unit outputs the input image data as the output image data.
  20. 제1항에 있어서, 상기 구동 제어부는 상기 입력 영상 데이터 및 모드 신호를 수신하고 상기 출력 영상 데이터를 출력하는 휘도 보정부를 포함하고, The method of claim 1 , wherein the driving control unit comprises a luminance correction unit receiving the input image data and a mode signal and outputting the output image data,
    개 모드에서 상기 출력 영상 데이터의 최대 휘도는 사람 모드에서 상기 출력 영상 데이터의 최대 휘도보다 큰 것을 특징으로 하는 개용 표시 장치.The display device for dogs, characterized in that the maximum luminance of the output image data in the dog mode is greater than the maximum luminance of the output image data in the human mode.
  21. 제1항에 있어서, 상기 구동 제어부는 상기 입력 영상 데이터의 제1 프레임 영상 및 제2 프레임 영상 사이에 추가 영상을 삽입하여 상기 출력 영상 데이터를 생성하는 구동 주파수 제어부를 포함하는 것을 특징으로 하는 개용 표시 장치.The dog display of claim 1 , wherein the driving controller comprises a driving frequency controller generating the output image data by inserting an additional image between a first frame image and a second frame image of the input image data. Device.
  22. 제21항에 있어서, 상기 추가 영상은 주인의 얼굴 사진인 것을 특징으로 하는 개용 표시 장치.22. The dog display device according to claim 21, wherein the additional image is a face picture of the owner.
  23. 제21항에 있어서, 상기 추가 영상은 개의 주의를 끌기 위해 미리 생성된 영상이며, 상기 제1 프레임 영상 및 상기 제2 프레임 영상과 무관한 영상인 것을 특징으로 하는 개용 표시 장치.22. The display device for dogs according to claim 21, wherein the additional video is a pre-generated video to attract the dog's attention, and is an video unrelated to the first frame video and the second frame video.
  24. 제21항에 있어서, 상기 추가 영상은 The method of claim 21, wherein the additional image
    상기 제1 프레임 영상의 물체의 위치 및 상기 제2 프레임 영상 내에서 상기 물체의 위치의 사이에 상기 물체가 위치하는 움직임 보상 영상; 및 a motion compensation image in which the object is positioned between a position of the object in the first frame image and a position of the object in the second frame image; and
    주인의 얼굴 사진 또는 개의 주의를 끌기 위해 상기 제1 프레임 영상 및 상기 제2 프레임 영상과 무관하게 생성된 영상을 포함하는 것을 특징으로 하는 개용 표시 장치.and a picture of the owner's face or an image generated independently of the first frame image and the second frame image to attract the dog's attention.
  25. 제21항에 있어서, 상기 추가 영상은 The method of claim 21, wherein the additional image
    상기 제1 프레임 영상의 물체의 위치 및 상기 제2 프레임 영상 내에서 상기 물체의 위치의 사이에 상기 물체가 위치하는 움직임 보상 영상 및 주인의 얼굴 사진의 합성 영상인 것을 특징으로 하는 개용 표시 장치.The display device for dogs according to claim 1 , wherein the motion compensation image in which the object is located between the position of the object in the first frame image and the position of the object in the second frame image is a composite image of a photograph of the owner's face.
  26. 제21항에 있어서, 상기 추가 영상은 The method of claim 21, wherein the additional image
    상기 제1 프레임 영상 또는 상기 제2 프레임 영상을 복사한 복사 영상; 및 a copy image obtained by copying the first frame image or the second frame image; and
    주인의 얼굴 사진 또는 개의 주의를 끌기 위해 상기 제1 프레임 영상 및 상기 제2 프레임 영상과 무관하게 생성된 영상을 포함하는 것을 특징으로 하는 개용 표시 장치.and a picture of the owner's face or an image generated independently of the first frame image and the second frame image to attract the dog's attention.
  27. 제21항에 있어서, 상기 추가 영상은 The method of claim 21, wherein the additional image
    상기 제1 프레임 영상 또는 상기 제2 프레임 영상을 복사한 복사 영상 및 주인의 얼굴 사진의 합성 영상인 것을 특징으로 하는 개용 표시 장치.The dog display device according to claim 1 , wherein the dog display device is a synthesized image of a copy image obtained by copying the first frame image or the second frame image and a photograph of the owner's face.
  28. 제1항에 있어서, 상기 구동 제어부는 상기 입력 영상 데이터 및 모드 신호를 수신하고 상기 출력 영상 데이터를 출력하는 구동 주파수 제어부를 포함하고, The method of claim 1 , wherein the driving controller comprises a driving frequency controller receiving the input image data and a mode signal and outputting the output image data,
    개 모드에서 상기 출력 영상 데이터의 구동 주파수는 사람 모드에서 상기 출력 영상 데이터의 구동 주파수보다 큰 것을 특징으로 하는 개용 표시 장치.A display device for dogs, characterized in that a driving frequency of the output image data in the dog mode is greater than a driving frequency of the output image data in the human mode.
  29. 개의 시각적 특성을 기초로 컬러 보정, 콘트라스트 보정, 감마 보정, 에지 보정, 휘도 보정 및 구동 주파수 변환 중 적어도 어느 하나를 수행하여 입력 영상 데이터를 출력 영상 데이터로 변환하는 단계;converting input image data into output image data by performing at least one of color correction, contrast correction, gamma correction, edge correction, luminance correction, and driving frequency conversion based on visual characteristics of the dog;
    상기 출력 영상 데이터를 기초로 데이터 신호를 생성하는 단계; generating a data signal based on the output image data;
    상기 데이터 신호를 데이터 전압으로 변환하는 단계; 및converting the data signal into a data voltage; and
    상기 데이터 전압을 표시 패널에 출력하는 단계를 포함하는 개용 표시 장치의 구동 방법.and outputting the data voltage to a display panel.
PCT/KR2023/001577 2022-02-08 2023-02-03 Display device for dog and method for driving same WO2023153723A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2022-0016419 2022-02-08
KR1020220016419A KR102423052B1 (en) 2022-02-08 2022-02-08 Display apparatus for dog and method of driving the same

Publications (1)

Publication Number Publication Date
WO2023153723A1 true WO2023153723A1 (en) 2023-08-17

Family

ID=82606071

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2023/001577 WO2023153723A1 (en) 2022-02-08 2023-02-03 Display device for dog and method for driving same

Country Status (2)

Country Link
KR (1) KR102423052B1 (en)
WO (1) WO2023153723A1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102423052B1 (en) * 2022-02-08 2022-07-22 주식회사 써니웨이브텍 Display apparatus for dog and method of driving the same

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004111989A1 (en) * 2003-06-16 2004-12-23 Dai Nippon Printing Co., Ltd. Tone reproduction characteristics measuring device for color monitor
KR20170015716A (en) * 2015-07-30 2017-02-09 삼성디스플레이 주식회사 Display apparatus
KR20170020665A (en) * 2015-08-13 2017-02-23 삼성디스플레이 주식회사 Display device and driving method thereof
KR20200117650A (en) * 2019-04-05 2020-10-14 삼성전자주식회사 Image processing apparatus and image processing method thereof
KR20210074017A (en) * 2019-12-11 2021-06-21 대한민국(농촌진흥청장) System for authenticating the biological information of dog
KR102423052B1 (en) * 2022-02-08 2022-07-22 주식회사 써니웨이브텍 Display apparatus for dog and method of driving the same

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004111989A1 (en) * 2003-06-16 2004-12-23 Dai Nippon Printing Co., Ltd. Tone reproduction characteristics measuring device for color monitor
KR20170015716A (en) * 2015-07-30 2017-02-09 삼성디스플레이 주식회사 Display apparatus
KR20170020665A (en) * 2015-08-13 2017-02-23 삼성디스플레이 주식회사 Display device and driving method thereof
KR20200117650A (en) * 2019-04-05 2020-10-14 삼성전자주식회사 Image processing apparatus and image processing method thereof
KR20210074017A (en) * 2019-12-11 2021-06-21 대한민국(농촌진흥청장) System for authenticating the biological information of dog
KR102423052B1 (en) * 2022-02-08 2022-07-22 주식회사 써니웨이브텍 Display apparatus for dog and method of driving the same

Also Published As

Publication number Publication date
KR102423052B9 (en) 2023-04-12
KR102423052B1 (en) 2022-07-22

Similar Documents

Publication Publication Date Title
WO2014157930A1 (en) Image processing method and apparatus for display devices
WO2018124784A1 (en) Display apparatus and display method
WO2018190503A1 (en) Pixel circuit of display panel and display device
WO2020085768A1 (en) Display apparatus and method for driving same
WO2016195301A1 (en) Display system for enhancing visibility and methods thereof
WO2014168454A1 (en) Electronic device, display controlling apparatus and method thereof
WO2018170978A1 (en) Pixel rendering method and pixel rendering device
WO2016076497A1 (en) Method and device for image display based on metadata, and recording medium therefor
WO2014104858A1 (en) Transparent display device and method for controlling same
WO2016133293A1 (en) Metadata-based image processing method and apparatus
WO2020050522A1 (en) Method and system for correcting brightness of led display
WO2016183859A1 (en) Grayscale compensation method
WO2020017771A1 (en) Display device
WO2023153723A1 (en) Display device for dog and method for driving same
WO2019098778A1 (en) Display apparatus, method for controlling the same and image providing apparatus
WO2018101655A1 (en) Display device and control method thereof
WO2020032368A1 (en) Electronic device for controlling voltage slew rate of source driver on basis of luminance
WO2019235766A1 (en) Mobile terminal adjusting image quality of display, and method of operating the same
WO2019088481A1 (en) Electronic device and image correction method thereof
WO2019226025A1 (en) Method for displaying content of application via display, and electronic device
EP3953926A1 (en) Liquid crystal display device
WO2016041225A1 (en) Video processing method and apparatus
WO2019124900A1 (en) Display for controlling operation of gamma block on basis of indication of content, and electronic device comprising said display
WO2023146326A1 (en) Display device for dog
WO2017164608A1 (en) Image display apparatus

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23753073

Country of ref document: EP

Kind code of ref document: A1