WO2021167231A1 - 전자장치 및 그 제어방법 - Google Patents

전자장치 및 그 제어방법 Download PDF

Info

Publication number
WO2021167231A1
WO2021167231A1 PCT/KR2020/019039 KR2020019039W WO2021167231A1 WO 2021167231 A1 WO2021167231 A1 WO 2021167231A1 KR 2020019039 W KR2020019039 W KR 2020019039W WO 2021167231 A1 WO2021167231 A1 WO 2021167231A1
Authority
WO
WIPO (PCT)
Prior art keywords
pixel
region
sub
pixels
adjustment
Prior art date
Application number
PCT/KR2020/019039
Other languages
English (en)
French (fr)
Inventor
조영훈
최윤식
김신행
문영수
민병석
이기환
이상수
Original Assignee
삼성전자(주)
연세대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자(주), 연세대학교 산학협력단 filed Critical 삼성전자(주)
Publication of WO2021167231A1 publication Critical patent/WO2021167231A1/ko
Priority to US17/891,252 priority Critical patent/US11881139B2/en

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/20Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/001Arbitration of resources in a display system, e.g. control of access to frame buffer by video controller and/or main processor
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/20Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters
    • G09G3/2007Display of intermediate tones
    • G09G3/2074Display of intermediate tones using sub-pixels
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/02Improving the quality of display appearance
    • G09G2320/029Improving the quality of display appearance by monitoring one or more pixels in the display panel, e.g. by monitoring a fixed reference pixel
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/04Maintaining the quality of display appearance
    • G09G2320/043Preventing or counteracting the effects of ageing
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/04Maintaining the quality of display appearance
    • G09G2320/043Preventing or counteracting the effects of ageing
    • G09G2320/045Compensation of drifts in the characteristics of light emitting or modulating elements
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/04Maintaining the quality of display appearance
    • G09G2320/043Preventing or counteracting the effects of ageing
    • G09G2320/046Dealing with screen burn-in prevention or compensation of the effects thereof
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/04Maintaining the quality of display appearance
    • G09G2320/043Preventing or counteracting the effects of ageing
    • G09G2320/048Preventing or counteracting the effects of ageing using evaluation of the usage time
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/06Adjustment of display parameters
    • G09G2320/0693Calibration of display systems
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2330/00Aspects of power supply; Aspects of display protection and defect management
    • G09G2330/10Dealing with defective pixels
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2360/00Aspects of the architecture of display systems
    • G09G2360/16Calculation or use of calculated indices related to luminance levels in display data
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/007Use of pixel shift techniques, e.g. by mechanical shift of the physical pixels or by optical shift of the perceived pixels

Definitions

  • the present disclosure relates to an electronic device for preventing deterioration of an image displayed on a display, and a method for controlling the same.
  • OLED display one of the displays, emits light on its own without a backlight, making it suitable for next-generation displays, but in the long run, partial quality degradation known as burn-in or image retention may occur.
  • a program name or a corresponding broadcaster name displayed on the top of the TV display, or, in the case of a smartphone, a telecommunication company logo, signal strength indication, battery level, etc. are always displayed at the same position on the top of the display.
  • the pixels existing in the fixed area may have deterioration in function, such as degradation, compared to the area in which the luminance of the pixel continuously changes. For this reason, when content that uses the entire screen, such as video, is played back, the upper part of the smartphone may look blotchy due to deterioration of pixels.
  • the existing burn-in image quality deterioration prevention method includes a pixel shift technology that moves an image on the display panel at a certain period and displays it, and a luminance reduction technology that increases the lifespan by reducing the luminance of a specific area. etc are being used.
  • An object of the present disclosure is to provide an electronic device and a control method therefor that more effectively prevent deterioration of an image displayed on a display.
  • At least one of a display for displaying an image and a plurality of pixels included in each sub-region for each sub-region having a size predefined in the image quality deterioration expected region in the image is provided. and a processor that adjusts the pixel value of the adjustment pixel and changes the adjustment pixel to another pixel from among the plurality of pixels while maintaining representative values of the plurality of pixels included in each sub-region.
  • the processor may move the adjustment pixel along a predefined path within the sub-region.
  • the processor may gradually decrease the pixel value of the adjustment pixel for each of a plurality of sections.
  • the processor may maintain representative values of a plurality of pixels of each sub-region during each period.
  • the processor may cycle the adjustment pixel for each section along a movement path in each sub-region.
  • the representative value of the plurality of pixels may be an average value of luminance values of the plurality of pixels.
  • the processor may change each pixel value of the adjustment pixel and another adjacent pixel among the plurality of pixels in the sub-region.
  • the processor may adjust the pixel value of the adjustment pixel based on a time corresponding to the target change amount of the pixel value and the number of the plurality of pixels included in the region.
  • the expected image quality deterioration region may include a region that is fixedly displayed for a threshold time or longer in the image.
  • the changing of the adjustment pixel to another pixel among the plurality of pixels may include moving the adjustment pixel along a predefined path within the sub-region.
  • the adjusting of the pixel value of at least one adjustment pixel among the plurality of pixels included in each sub-region may include gradually decreasing the pixel value of the adjustment pixel.
  • the step of reducing the pixel value of the adjustment pixel may include stepwise decreasing the pixel value of the adjustment pixel for each of a plurality of sections.
  • the adjusting of the pixel value of at least one adjustment pixel among the plurality of pixels included in each sub-region may include maintaining representative values of the plurality of pixels of each sub-region during each period.
  • the changing of the adjustment pixel to another pixel among the plurality of pixels may include cycling the adjustment pixel along a movement path in each sub-region for each section.
  • the changing of the adjustment pixel to another pixel among the plurality of pixels may include mutually changing each pixel value of the adjustment pixel and another adjacent pixel among the plurality of pixels in the sub-region.
  • the adjusting of the pixel value of at least one adjustment pixel among the plurality of pixels included in each sub-region may include: based on a target change amount of the pixel value and a time corresponding to the number of the plurality of pixels included in the region. and adjusting a pixel value of the adjustment pixel.
  • the adjustment ratio of the pixel value can be determined by adjusting the number of pixels in the sub-region, and by adjusting the ratio differently over time, it is possible to minimize the perceived deterioration in visual perception and viewing quality due to the change in luminance and extend the life of the display.
  • FIG. 1 is a diagram illustrating a configuration of an electronic device according to an embodiment of the present invention.
  • FIG. 2 is a block diagram illustrating an operation flowchart of an electronic device according to an embodiment of the present invention.
  • FIG. 3 is a diagram illustrating an operation of an electronic device according to an embodiment of the present invention.
  • FIG. 4 is a diagram illustrating an operation of an electronic device according to an embodiment of the present invention.
  • a 'module' or 'unit' performs at least one function or operation, and may be implemented as hardware or software or a combination of hardware and software, and is integrated into at least one module. and can be implemented.
  • at least one of the plurality of elements refers to all of the plurality of elements as well as each one or a combination thereof excluding the rest of the plurality of elements.
  • FIG. 1 is a diagram illustrating a configuration of an electronic device according to an embodiment of the present invention.
  • the electronic device 100 may be implemented as a display device capable of displaying an image.
  • the electronic device 100 may include a TV, a computer, a smart phone, a tablet, a portable media player, a wearable device, a video wall, an electronic picture frame, and the like.
  • the electronic device 100 may include an interface unit 110 .
  • the interface unit 110 may include a wired interface unit 111 .
  • the wired interface unit 111 includes a connector or port to which an antenna capable of receiving a broadcast signal according to a broadcasting standard such as terrestrial/satellite broadcasting can be connected, or a cable capable of receiving a broadcast signal according to a cable broadcasting standard can be connected. do.
  • the electronic device 100 may have a built-in antenna capable of receiving a broadcast signal.
  • Wired interface unit 111 is an HDMI port, DisplayPort, DVI port, Thunderbolt, composite video, component (component) video, super video (super video), such as SCART, video and / or audio transmission standards according to It may include a connector or port, and the like.
  • the wired interface unit 111 may include a connector or port according to a universal data transmission standard, such as a USB port.
  • the wired interface unit 111 may include a connector or a port to which an optical cable can be connected according to an optical transmission standard.
  • the wired interface unit 111 is connected to an external microphone or an external audio device having a microphone, and may include a connector or a port capable of receiving or inputting an audio signal from the audio device.
  • the wired interface unit 111 is connected to an audio device such as a headset, earphone, or external speaker, and may include a connector or port capable of transmitting or outputting an audio signal to the audio device.
  • the wired interface unit 111 may include a connector or port according to a network transmission standard such as Ethernet.
  • the wired interface unit 111 may be implemented as a LAN card connected to a router or a gateway by wire.
  • the wired interface unit 111 is wired through the connector or port in a 1:1 or 1:N (N is a natural number) method such as an external device such as a set-top box, an optical media playback device, or an external display device, speaker, server, etc. By being connected, a video/audio signal is received from the corresponding external device or a video/audio signal is transmitted to the corresponding external device.
  • the wired interface unit 111 may include a connector or port for separately transmitting video/audio signals.
  • the wired interface unit 111 is embedded in the electronic device 100 , but may be implemented in the form of a dongle or a module to be detachably attached to the connector of the electronic device 100 .
  • the interface unit 110 may include a wireless interface unit 112 .
  • the wireless interface unit 112 may be implemented in various ways corresponding to the implementation form of the electronic device 100 .
  • the wireless interface unit 112 is a communication method RF (radio frequency), Zigbee (Zigbee), Bluetooth (bluetooth), Wi-Fi (Wi-Fi), UWB (Ultra WideBand) and NFC (Near Field Communication), etc.
  • Wireless communication can be used.
  • the wireless interface unit 112 may be implemented as a wireless communication module that performs wireless communication with an AP according to a Wi-Fi method, or a wireless communication module that performs one-to-one direct wireless communication such as Bluetooth.
  • the wireless interface unit 112 may transmit and receive data packets to and from the server by wirelessly communicating with the server on the network.
  • the wireless interface unit 112 may include an IR transmitter and/or an IR receiver capable of transmitting and/or receiving an IR (Infrared) signal according to an infrared communication standard.
  • the wireless interface unit 112 may receive or input a remote control signal from a remote control or other external device through an IR transmitter and/or an IR receiver, or transmit or output a remote control signal to another external device.
  • the electronic device 100 may transmit/receive a remote control signal to and from the remote control or other external device through the wireless interface unit 112 of another method such as Wi-Fi or Bluetooth.
  • the electronic device 100 may further include a tuner for tuning the received broadcast signal for each channel.
  • the electronic device 100 may include a display unit 120 .
  • the display unit 120 includes a display panel capable of displaying an image on the screen.
  • the display panel is provided with a light-receiving structure such as a liquid crystal type or a self-luminous structure such as an OLED type.
  • the display unit 120 may further include additional components according to the structure of the display panel. For example, if the display panel is a liquid crystal type, the display unit 120 includes a liquid crystal display panel and a backlight unit for supplying light. and a panel driving substrate for driving the liquid crystal of the liquid crystal display panel.
  • the electronic device 100 may include a user input unit 130 .
  • the user input unit 130 includes various types of input interface related circuits provided to perform user input.
  • the user input unit 130 may be configured in various forms depending on the type of the electronic device 100 , for example, a mechanical or electronic button unit of the electronic device 100 , a remote controller separated from the electronic device 100 , and an electronic device.
  • the electronic device 100 may include a storage unit 140 .
  • the storage unit 140 stores digitized data.
  • the storage unit 140 has a non-volatile property that can preserve data regardless of whether or not power is provided, and data to be processed by the processor 170 is loaded and data is stored when power is not provided. It includes memory of volatile properties that cannot.
  • Storage includes flash-memory, hard-disc drive (HDD), solid-state drive (SSD), read-only memory (ROM), etc., and memory includes buffer and random access memory (RAM). etc.
  • the electronic device 100 may include a microphone 150 .
  • the microphone 150 collects sounds of the external environment including the user's voice.
  • the microphone 150 transmits the collected sound signal to the processor 170 .
  • the electronic device 100 may include a microphone 150 for collecting user voices or may receive a voice signal from an external device such as a remote controller having a microphone or a smart phone through the interface unit 110 .
  • a remote controller application may be installed in an external device to control the electronic device 100 or perform functions such as voice recognition. In the case of an external device installed with such an application, a user's voice can be received, and the external device can transmit/receive and control data using the electronic device 100 and Wi-Fi/BT or infrared rays, etc.
  • a plurality of interface units 110 that can be implemented may exist in the electronic device 100 .
  • the electronic device 100 may include a speaker 160 .
  • the speaker 160 outputs audio data processed by the processor 170 as sound.
  • the speaker 160 may include a unit speaker provided to correspond to audio data of one audio channel, and may include a plurality of unit speakers to respectively correspond to audio data of a plurality of audio channels.
  • the speaker 160 may be provided separately from the electronic device 100 . In this case, the electronic device 100 may transmit audio data to the speaker 160 through the interface unit 110 .
  • the electronic device 100 may include a processor 170 .
  • the processor 170 includes one or more hardware processors implemented with a CPU, a chipset, a buffer, a circuit, etc. mounted on a printed circuit board, and may be implemented as a system on chip (SOC) depending on a design method.
  • SOC system on chip
  • the processor 170 includes modules corresponding to various processes such as a demultiplexer, a decoder, a scaler, an audio digital signal processor (DSP), and an amplifier.
  • DSP audio digital signal processor
  • some or all of these modules may be implemented as SOC.
  • a module related to image processing such as a demultiplexer, a decoder, and a scaler may be implemented as an image processing SOC
  • an audio DSP may be implemented as a chipset separate from the SOC.
  • the processor 170 may convert the voice signal into voice data.
  • the voice data may be text data obtained through a speech-to-text (STT) process for converting a voice signal into text data.
  • STT speech-to-text
  • the processor 170 identifies a command indicated by the voice data, and performs an operation according to the identified command.
  • the voice data processing process and the command identification and execution process may all be executed in the electronic device 100 .
  • at least a part of the process is performed by at least one server communicatively connected to the electronic device 100 through a network. can be performed.
  • the processor 170 may call at least one command among commands of software stored in a storage medium readable by a machine such as the electronic device 100 and execute it. This enables a device such as the electronic device 100 to be operated to perform at least one function according to the called at least one command.
  • the one or more instructions may include code generated by a compiler or code executable by an interpreter.
  • the device-readable storage medium may be provided in the form of a non-transitory storage medium.
  • 'non-transitory' only means that the storage medium is a tangible device and does not include a signal (eg, electromagnetic wave), and this term refers to a case in which data is semi-permanently stored in a storage medium and a case in which data is temporarily stored. It does not distinguish between cases where
  • the processor 170 adjusts the pixel value of at least one adjustment pixel among a plurality of pixels included in each sub-region for each sub-region having a size predefined in the image quality degradation expected region in the image, and Machine learning as a rule-based or artificial intelligence algorithm for at least part of data analysis, processing, and result information generation for changing an adjustment pixel to another pixel among the plurality of pixels while maintaining representative values of the plurality of pixels , a neural network, or a deep learning algorithm.
  • the processor 170 may perform the functions of the learning unit and the recognition unit together.
  • the learning unit may perform a function of generating a learned neural network
  • the recognition unit may perform a function of recognizing (or inferring, predicting, estimating, and judging) data using the learned neural network.
  • the learning unit may generate or update the neural network.
  • the learning unit may acquire learning data to generate a neural network.
  • the learning unit may acquire the learning data from the storage unit 140 or the outside.
  • the learning data may be data used for learning of the neural network, and the neural network may be trained by using the data obtained by performing the above-described operation as learning data.
  • the learning unit may perform a preprocessing operation on the acquired training data before training the neural network using the training data, or may select data to be used for learning from among a plurality of training data. For example, the learning unit may process the learning data into a preset format, filter it, or add/remove noise to process the learning data into a form suitable for learning.
  • the learner may generate a neural network set to perform the above-described operation by using the preprocessed learning data.
  • the learned neural network network may be composed of a plurality of neural network networks (or layers). Nodes of the plurality of neural networks have weights, and the plurality of neural networks may be connected to each other so that an output value of one neural network is used as an input value of another neural network.
  • Examples of neural networks include Convolutional Neural Network (CNN), Deep Neural Network (DNN), Recurrent Neural Network (RNN), Restricted Boltzmann Machine (RBM), Deep Belief Network (DBN), Bidirectional Recurrent Deep Neural Network (BRDNN) and It can include models such as Deep Q-Networks.
  • the recognizer may acquire target data to perform the above-described operation.
  • the target data may be obtained from the storage 140 or from the outside.
  • the target data may be data to be recognized by the neural network.
  • the recognizer may perform preprocessing on the acquired target data before applying the target data to the learned neural network, or select data to be used for recognition from among a plurality of target data.
  • the recognition unit may process the target data into a preset format, filter, or add/remove noise to process the target data into a form suitable for recognition.
  • the recognizer may obtain an output value output from the neural network by applying the preprocessed target data to the neural network.
  • the recognition unit may obtain a probability value or a reliability value together with the output value.
  • control method of the electronic device 100 may be provided by being included in a computer program product.
  • the computer program product may include instructions for software executed by the processor 170 , as described above.
  • Computer program products may be traded between sellers and buyers as commodities.
  • the computer program product is distributed in the form of a machine-readable storage medium (eg, CD-ROM), or via an application store (eg, Play StoreTM) or between two user devices (eg, smartphones). It can be distributed directly, online (eg, downloaded or uploaded). In the case of online distribution, at least a part of the computer program product may be temporarily stored or temporarily created in a machine-readable storage medium such as a memory of a server of a manufacturer, a server of an application store, or a relay server.
  • a machine-readable storage medium such as a memory of a server of a manufacturer, a server of an application store, or a relay server.
  • the processor 170 of the present invention may control the display to display an image based on the image signal on the screen.
  • the processor 170 may adjust a pixel value of at least one adjustment pixel among a plurality of pixels included in each sub-region for each sub-region having a size predefined in the image quality degradation expected region ( S210 ).
  • the image quality deterioration expected region may include a region in which an image for a predefined threshold time or longer is fixedly displayed. For example, in the case of a TV, it may be an area indicating a program name or a corresponding broadcaster name displayed on the top of the display, or, in the case of a smartphone, an area indicating a logo of a telecommunication company displayed on the top of the display, a signal strength display, a remaining battery level, and the like.
  • the processor 170 may identify an expected image quality degradation region using any image change detection method.
  • the image change detection method may be to detect a degree of change in pixel values between image frames.
  • the processor 170 may identify a region in which a change in pixel values between image frames for a threshold time is less than a predetermined value as an expected image quality deterioration region.
  • the sub-region is composed of a plurality of pixels and is an arbitrary region that divides an expected image quality deterioration region in an image. Accordingly, each sub-region does not necessarily have to have the same size, but may have different sizes.
  • An arbitrary pixel whose pixel value is adjusted among a plurality of pixels included in each sub-region is referred to as an adjustment pixel.
  • the processor 170 may adjust a pixel value of at least one adjustment pixel among a plurality of pixels included in each sub-region.
  • the processor 170 may change the adjustment pixel to another pixel from among the plurality of pixels while maintaining the representative values of the plurality of pixels included in each sub-region ( S220 ).
  • the representative value of the pixel may be, for example, an average value of luminance values of a plurality of pixels constituting each sub-region, but is not limited thereto. Details of changing the adjustment pixel to another pixel will be described later.
  • Dithering is a technique used to create an illusion of color shading change in displaying an image.
  • the properties of the human eye are used to average each effect or to group them together and perceive them as one shade or color.
  • a desired color can be naturally expressed without a sense of heterogeneity by using pixels of other neighboring colors without an actual corresponding color. If this method is used, even if the processor 170 adjusts the luminance of several pixels in the luminance space within the block of the image, visually it appears to have the same luminance throughout the block. In this case, since the dithering method is used, a more delicate change is made compared to the method of simply reducing the total pixel value so that the user does not feel a visual difference.
  • the dithering method is used to change the luminance value of a pixel and move the pixel, it is possible to delicately prevent the deterioration of the pixel existing in the image quality deterioration expected area without any difference.
  • FIG. 3 is a diagram illustrating an operation of an electronic device according to an embodiment of the present invention.
  • the image quality deterioration prevention operation 330 and the like in the image quality deterioration expected region 310 and the sub region 320 on the display of the electronic device 100 are illustrated.
  • the processor 170 may identify a region including the region marked with “ABC” as the image quality degradation expected region 310 .
  • FIG. 3 shows a state in which the process of adjusting pixel values and moving the adjusted pixels successively performed in one sub-region 320 is arranged in chronological order. As shown in FIG. 3 , it is assumed that the sub-region 320 is composed of 2 ⁇ 2 pixels in which all pixel values are 1 .
  • the pixel value of a pixel is a value obtained by normalizing an actual pixel value for convenience of description, and a reference value is set to 1.
  • the movement of the adjustment pixel 331 in each sub-region 320 at four viewpoints is arranged over time, and the processor 170 performs each sub-region in operation 330 .
  • the adjustment pixel 331 is sequentially moved in the form shown at 320 .
  • the time corresponding to the movement of the adjustment pixel 331 four times may be set as one period, and the processor 170 may cycle the adjustment pixel 331 along the movement path in the sub-region 320 during the period. do.
  • the processor 170 may move the adjustment pixel 331 in a certain period or in an irregular period within one section, but is not limited to any one method.
  • the processor 170 may determine the length of a section for adjusting pixel values or a time interval for moving the adjustment pixel 331 within one section, in consideration of the amount of luminance change aimed at preventing image quality degradation.
  • the processor 170 may adjust a pixel value of at least one adjustment pixel 331 among a plurality of pixels included in the sub-region 320 .
  • the processor 170 may adjust the pixel value by gradually decreasing the pixel value of the adjustment pixel 331 .
  • the processor 170 may adjust a pixel value of one adjustment pixel 331 among the plurality of pixels from 1 to 0.99. If a sudden change in luminance occurs, such as when the processor 170 adjusts the pixel value of the adjustment pixel 331 from 1 to 0.5 instead of 0.99, users can feel the deterioration of the image quality of the image displayed on the screen. .
  • the processor 170 may adjust the pixel value according to time by using the above-described dithering method.
  • the processor 170 does not suddenly adjust the pixel value, but increases the degree of luminance decrease step by step based on the following [Equation 1].
  • Equation 1 is a factor that adjusts the final pixel value by multiplying the pixel value, and becomes a value less than 1 when reducing the luminance of the image quality deterioration expected area.
  • the processor 170 adjusts a pixel value in unit of one sub-region 320 including a plurality of pixels.
  • the processor 170 gradually darkens the luminance of the pixel over time, and when the target luminance change amount is reached, thereafter, the corresponding value is fixed without depending on time.
  • operations (330, etc.) indicate a section corresponding to a change in a part of the total luminance change amount, and as shown in FIG. 4, which will be described later, if the operation 330 is continuously performed repeatedly in a plurality of sections, the target luminance change amount is can be reached
  • the above [Equation 1] is not applied to each pixel one by one, but is applied to at least one pixel value in a plurality of sub-regions every time.
  • the reduction rate of the previous period may be applied to other pixel values.
  • the amount of change in the final pixel value becomes a value obtained by dividing [Equation 1] by the number of pixels included in the sub-region, so that it is possible to control more delicately than applying to all pixels.
  • the overall luminance of the corresponding sub-region is maintained, so that deterioration of pixels existing in the image quality deterioration expected region is delicately reduced without feeling of heterogeneity. can be prevented
  • the predefined path is not limited to any one.
  • the processor 179 may change the steering pixel 341 to another pixel along an inverted N-shaped path.
  • an example of changing the adjustment pixel 331 to another pixel among the plurality of pixels is not limited to the example illustrated in FIG. 3 and may be implemented in various ways.
  • the processor 170 may mutually change the pixel values of the adjustment pixel and other adjacent pixels among the plurality of pixels in the sub-region.
  • the processor 170 may perform the above-mentioned image quality deterioration prevention operation 330 and the like for each sub-region 320 for the entire image quality deterioration expected region 310 .
  • the processor 170 may simultaneously perform the operations 330 and the like in two or more sub-regions 320 of the image quality degradation expected region 310 or sequentially perform each sub-region 320 , whichever It is not limited to one method.
  • the processor 170 can continuously change the pixel values of the pixels constituting the sub-region 320 through adjustment and movement, the same pixel values are output for a long time, so that the deterioration of the pixels is reduced. can be prevented from occurring.
  • FIG. 4 is a diagram illustrating an operation of an electronic device according to an embodiment of the present invention.
  • FIG. 4 shows a state in which a process of continuously adjusting pixel values and moving an adjustment pixel performed in one sub-region 320 is divided into a plurality of sections according to time and arranged.
  • the average value which is a representative value of each sub-region, is gradually lowered in the order of 0.9975, 0.995, 0.9925, 0.99, and 0.9875.
  • the processor 170 may determine the adjustment ratio of the pixel value by adjusting the number of pixels in the sub-region based on the above-described [Equation 1] and [Equation 2], and the adjustment ratio can be adjusted over time. have. Accordingly, the sub-region having four pixels as in the present embodiment is not limited to the adjustment ratio of the pixel value of 1%.
  • the processor 170 controls the adjustment pixel 411 of the first section 410 in the fifth section 430 .
  • the pixel value of the adjustment pixel 431 may be adjusted again.
  • the processor 170 may decrease the pixel value of the adjustment pixel in stages while decreasing the representative value of the pixel of each section in stages.
  • the pixel value of the pixel of the processor 170 may be increased as well as decreased in stages, and the present invention is not limited thereto.
  • the processor 170 may periodically move each adjustment pixel while maintaining the representative value of the sub-region 320 .
  • the processor 170 adjusts the pixel value of at least one adjustment pixel among a plurality of pixels included in each sub-region for each sub-region having a size predefined in the image quality degradation expected region, and each sub-region The adjustment pixel may be changed to another pixel from among the plurality of pixels while maintaining the representative values of the plurality of pixels included in the region. Also, the processor 170 may stepwise decrease or increase the pixel value of the adjustment pixel for each of the plurality of sections.
  • the position of the corresponding pixel is periodically changed and the representative value of the pixel is maintained, so that the user can visually see the entire image quality deterioration expected area.
  • by decreasing the overall luminance value over time it is possible to delicately change the pixel value compared to a method of simply reducing the entire pixel value.
  • the adjustment ratio of the pixel value can be determined by adjusting the number of pixels in the sub-region, and by adjusting the ratio differently over time, it is possible to minimize the perceived deterioration in visual perception and viewing quality due to the change in luminance and extend the life of the display.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

본 발명의 일 실시예에 따른 전자장치에 있어서, 영상을 표시하는 디스플레이와, 상기 영상 내 화질 열화 예상 영역에 기 정의된 크기의 서브 영역 별로 상기 각 서브 영역에 포함된 복수의 픽셀 중 적어도 하나의 조정 픽셀의 픽셀값을 조정하고, 상기 각 서브 영역에 포함된 복수의 픽셀의 대표값을 유지하면서, 상기 조정 픽셀을 상기 복수의 픽셀 중에서 다른 픽셀로 변경하는 프로세서를 포함할 수 있다.

Description

전자장치 및 그 제어방법
본 개시는 디스플레이에 표시되는 영상의 열화 현상을 방지하는 전자장치 및 그 제어방법에 관한 것이다.
최근 디스플레이는 휴대폰, 모니터 등 다양한 전자 장치에 적용되고 있다. 디스플레이 중 하나인 OLED 디스플레이는 백 라이트(back light) 없이 자체적으로 빛을 내므로 차세대 디스플레이에 적합하지만, 장기적으로 보았을 때 소위 번 인(Burn-in) 혹은 영상 정체(Image retention)로 알려진 부분적 품질 열화가 발생할 수 있다. 예컨대, TV의 디스플레이 상단에 표시된 프로그램 이름 혹은 해당 방송사 이름, 혹은, 스마트폰의 경우, 디스플레이 상단에 통신사 로고, 신호 강도 표시, 배터리 잔량 등이 항상 같은 위치에 표시된다. 따라서, 고정된 영역에 존재하는 픽셀들은, 계속해서 픽셀의 휘도(luminance)가 변화하는 영역과 비교하여, 열화(degradation) 등 기능이 저하될 수 있다. 이 때문에 비디오 등 화면 전체를 사용하는 컨텐트를 재생할 때, 스마트폰 상단 부분은 픽셀이 열화되어 얼룩이 진 형태로 보일 수 있다.
이에 따라 고품질의 원본영상을 상영함에도 디스플레이 일부에 얼룩이 생겨 전체 영상의 품질을 떨어뜨리게 된다. 또한 고해상도 디스플레이에 대한 요구가 증가함에 따라 출력되는 영상의 화질이 높아졌고, 이에 따라 디스플레이에서의 번 인 현상에 대한 문제 해결이 더욱 중요해지고, 전체 화질이 증가하면서 보다 섬세한 휘도 조절이 필요하다. 이를 해결하기 위한 기존의 번 인 화질 저하 방지 방법에는 디스플레이 패널 상에 일정 주기로 영상을 이동시켜 표시하는 픽셀 시프트(Pixel Shift) 기술, 특정 영역의 휘도를 감소시켜 수명을 늘리는 휘도 감소(Luminance Reduction) 기술 등이 사용되고 있다.
본 개시의 목적은 디스플레이에 표시되는 영상의 열화 현상을 보다 효과적으로 방지하는 전자장치 및 그 제어방법을 제공하는 것이다.
본 발명의 일 실시예에 따른 전자장치에 있어서, 영상을 표시하는 디스플레이와, 상기 영상 내 화질 열화 예상 영역에 기 정의된 크기의 서브 영역 별로 상기 각 서브 영역에 포함된 복수의 픽셀 중 적어도 하나의 조정 픽셀의 픽셀값을 조정하고, 상기 각 서브 영역에 포함된 복수의 픽셀의 대표값을 유지하면서, 상기 조정 픽셀을 상기 복수의 픽셀 중에서 다른 픽셀로 변경하는 프로세서를 포함할 수 있다.
상기 프로세서는, 상기 서브 영역 내에서 기 정의된 경로를 따라 상기 조정 픽셀을 이동시킬 수 있다.
상기 프로세서는, 상기 조정 픽셀의 픽셀값을 단계적으로 감소시킬 수 있다.
상기 프로세서는, 복수의 구간 별로 상기 조정 픽셀의 픽셀값을 단계적으로 감소시킬 수 있다.
상기 프로세서는, 상기 각 구간 동안 상기 각 서브 영역의 복수의 픽셀의 대표값을 유지할 수 있다.
상기 프로세서는, 상기 각 구간 별로 상기 조정 픽셀을 상기 각 서브 영역 내의 이동 경로를 따라 순환시킬 수 있다.
상기 복수의 픽셀의 대표값은 상기 복수의 픽셀의 휘도값의 평균값일 수 있다.
상기 프로세서는, 상기 서브 영역 내 복수의 픽셀 중에서 상기 조정 픽셀과, 인접한 다른 픽셀의 각 픽셀값을 상호 변경할 수 있다.
상기 프로세서는, 상기 픽셀값의 목표 변화량 및 상기 영역 내에 포함된 상기 복수의 픽셀의 수에 대응하는 시간에 기초하여 상기 조정 픽셀의 픽셀값을 조정할 수 있다.
상기 화질 열화 예상 영역은 상기 영상에서 임계 시간 이상 고정적으로 표시되는 영역을 포함할 수 있다.
본 발명의 일 실시예에 따른 전자장치의 제어방법에 있어서, 영상 내 화질 열화 예상 영역에 기 정의된 크기의 서브 영역 별로 상기 각 서브 영역에 포함된 복수의 픽셀 중 적어도 하나의 조정 픽셀의 픽셀값을 조정하는 단계; 및 상기 각 서브 영역에 포함된 복수의 픽셀의 대표값을 유지하면서, 상기 조정 픽셀을 상기 복수의 픽셀 중에서 다른 픽셀로 변경하는 단계를 포함할 수 있다.
상기 조정 픽셀을 상기 복수의 픽셀 중에서 다른 픽셀로 변경하는 단계는, 상기 서브 영역 내에서 기 정의된 경로를 따라 상기 조정 픽셀을 이동시키는 단계를 포함할 수 있다.
상기 각 서브 영역에 포함된 복수의 픽셀 중 적어도 하나의 조정 픽셀의 픽셀값을 조정하는 단계는, 상기 조정 픽셀의 픽셀값을 단계적으로 감소시키는 단계를 포함할 수 있다.
상기 조정 픽셀의 픽셀값을 단계적으로 감소시키는 단계는, 복수의 구간 별로 상기 조정 픽셀의 픽셀값을 단계적으로 감소시키는 단계를 포함할 수 있다.
상기 각 서브 영역에 포함된 복수의 픽셀 중 적어도 하나의 조정 픽셀의 픽셀값을 조정하는 단계는, 상기 각 구간 동안 상기 각 서브 영역의 복수의 픽셀의 대표값을 유지하는 단계를 포함할 수 있다.
상기 조정 픽셀을 상기 복수의 픽셀 중에서 다른 픽셀로 변경하는 단계는, 상기 각 구간 별로 상기 조정 픽셀을 상기 각 서브 영역 내의 이동 경로를 따라 순환시키는 단계를 포함할 수 있다.
상기 조정 픽셀을 상기 복수의 픽셀 중에서 다른 픽셀로 변경하는 단계는, 상기 서브 영역 내 복수의 픽셀 중에서 상기 조정 픽셀과, 인접한 다른 픽셀의 각 픽셀값을 상호 변경하는 단계를 포함할 수 있다.
상기 각 서브 영역에 포함된 복수의 픽셀 중 적어도 하나의 조정 픽셀의 픽셀값을 조정하는 단계는, 상기 픽셀값의 목표 변화량 및 상기 영역 내에 포함된 상기 복수의 픽셀의 수에 대응하는 시간에 기초하여 상기 조정 픽셀의 픽셀값을 조정하는 단계를 포함할 수 있다.
디스플레이에 표시되는 영상의 열화가 일어나는 영역에서 열화 현상을 정교하게 방지할 수 있다.
또한, 픽셀 이동을 수행함과 동시에 비트 확장(bit expansion) 효과를 가져오기에 보다 정교하고 섬세한 픽셀값 조정이 가능하다.
또한 픽셀값의 조정 비율을 서브 영역 내의 픽셀 수를 조절함으로써 정할 수 있고, 시간에 따라 비율을 달리 조절하여 휘도 변화에 따른 시각적 인지 및 시청 화질 저하 체감을 최소화하며 디스플레이의 수명을 연장할 수 있다.
도 1은 본 발명의 일 실시예에 의한 전자장치의 구성을 도시한 도면이다.
도 2는 본 발명의 일 실시예에 의한 전자장치의 동작 흐름도를 도시한 블록도이다.
도 3은 본 발명의 일 실시예에 따른 전자장치의 동작 모습을 도시한 도면이다.
도 4는 본 발명의 일 실시예에 따른 전자장치의 동작 모습을 도시한 도면이다.
이하에서는 첨부 도면을 참조하여 본 발명의 실시예들을 상세히 설명한다. 도면에서 동일한 참조번호 또는 부호는 실질적으로 동일한 기능을 수행하는 구성요소를 지칭하며, 도면에서 각 구성요소의 크기는 설명의 명료성과 편의를 위해 과장되어 있을 수 있다. 다만, 본 발명의 기술적 사상과 그 핵심 구성 및 작용이 이하의 실시예에 설명된 구성 또는 작용으로만 한정되지는 않는다. 본 발명을 설명함에 있어서 본 발명과 관련된 공지 기술 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략하기로 한다.
본 발명의 실시예에서, 제1, 제2 등과 같이 서수를 포함하는 용어는 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용되며, 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 또한, 본 발명의 실시예에서, '구성되다', '포함하다', '가지다' 등의 용어는 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다. 또한, 본 발명의 실시예에서, '모듈' 혹은 '부'는 적어도 하나의 기능이나 동작을 수행하며, 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있으며, 적어도 하나의 모듈로 일체화되어 구현될 수 있다. 또한, 본 발명의 실시예에서, 복수의 요소 중 적어도 하나(at least one)는, 복수의 요소 전부뿐만 아니라, 복수의 요소 중 나머지를 배제한 각 하나 혹은 이들의 조합 모두를 지칭한다.
도 1은 본 발명의 일 실시예에 의한 전자장치의 구성을 도시한 도면이다.
이 때, 전자장치(100)는 영상을 표시할 수 있는 디스플레이장치로 구현될 수 있다. 일 예로, 전자장치(100)는 TV, 컴퓨터, 스마트 폰, 태블릿, 휴대용 미디어 플레이어, 웨어러블 디바이스, 비디오 월, 전자액자 등을 포함할 수 있다.
도 1에 도시된 바와 같이, 전자장치(100)는 인터페이스부(110)를 포함할 수 있다. 인터페이스부(110)는 유선 인터페이스부(111)를 포함할 수 있다. 유선 인터페이스부(111)는 지상파/위성방송 등 방송표준에 따른 방송신호를 수신할 수 있는 안테나가 연결되거나, 케이블 방송표준에 따른 방송신호를 수신할 수 있는 케이블이 연결될 수 있는 커넥터 또는 포트를 포함한다. 다른 예로서, 전자장치(100)는 방송신호를 수신할 수 있는 안테나를 내장할 수도 있다. 유선 인터페이스부(111)는 HDMI 포트, DisplayPort, DVI 포트, 썬더볼트, 컴포지트(composite) 비디오, 컴포넌트(component) 비디오, 슈퍼 비디오(super video), SCART 등과 같이, 비디오 및/또는 오디오 전송표준에 따른 커넥터 또는 포트 등을 포함할 수 있다. 유선 인터페이스부(111)는 USB 포트 등과 같은 범용 데이터 전송표준에 따른 커넥터 또는 포트 등을 포함할 수 있다. 유선 인터페이스부(111)는 광 전송표준에 따라 광케이블이 연결될 수 있는 커넥터 또는 포트 등을 포함할 수 있다. 유선 인터페이스부(111)는 외부 마이크 또는 마이크를 구비한 외부 오디오기기가 연결되며, 오디오기기로부터 오디오 신호를 수신 또는 입력할 수 있는 커넥터 또는 포트 등을 포함할 수 있다. 유선 인터페이스부(111)는 헤드셋, 이어폰, 외부 스피커 등과 같은 오디오기기가 연결되며, 오디오기기로 오디오 신호를 전송 또는 출력할 수 있는 커넥터 또는 포트 등을 포함할 수 있다. 유선 인터페이스부(111)는 이더넷 등과 같은 네트워크 전송표준에 따른 커넥터 또는 포트를 포함할 수 있다. 예컨대, 유선 인터페이스부(111)는 라우터 또는 게이트웨이에 유선 접속된 랜카드 등으로 구현될 수 있다.
유선 인터페이스부(111)는 상기 커넥터 또는 포트를 통해 셋탑박스, 광학미디어 재생장치와 같은 외부기기, 또는 외부 디스플레이장치나, 스피커, 서버 등과 1:1 또는 1:N(N은 자연수) 방식으로 유선 접속됨으로써, 해당 외부기기로부터 비디오/오디오 신호를 수신하거나 또는 해당 외부기기에 비디오/오디오 신호를 송신한다. 유선 인터페이스부(111)는, 비디오/오디오 신호를 각각 별개로 전송하는 커넥터 또는 포트를 포함할 수도 있다.
그리고, 본 실시예에 따르면 유선 인터페이스부(111)는 전자장치(100)에 내장되나, 동글(dongle) 또는 모듈(module) 형태로 구현되어 전자장치(100)의 커넥터에 착탈될 수도 있다.
인터페이스부(110)는 무선 인터페이스부(112)를 포함할 수 있다. 무선 인터페이스부(112)는 전자장치(100)의 구현 형태에 대응하여 다양한 방식으로 구현될 수 있다. 예를 들면, 무선 인터페이스부(112)는 통신방식으로 RF(radio frequency), 지그비(Zigbee), 블루투스(bluetooth), 와이파이(Wi-Fi), UWB(Ultra WideBand) 및 NFC(Near Field Communication) 등 무선통신을 사용할 수 있다. 무선 인터페이스부(112)는 와이파이(Wi-Fi) 방식에 따라서 AP와 무선통신을 수행하는 무선통신모듈이나, 블루투스 등과 같은 1대 1 다이렉트 무선통신을 수행하는 무선통신모듈 등으로 구현될 수 있다. 무선 인터페이스부(112)는 네트워크 상의 서버와 무선 통신함으로써, 서버와의 사이에 데이터 패킷을 송수신할 수 있다. 무선 인터페이스부(112)는 적외선 통신표준에 따라 IR(Infrared) 신호를 송신 및/또는 수신할 수 있는 IR송신부 및/또는 IR수신부를 포함할 수 있다. 무선 인터페이스부(112)는 IR송신부 및/또는 IR수신부를 통해 리모컨 또는 다른 외부기기로부터 리모컨신호를 수신 또는 입력하거나, 다른 외부기기로 리모컨신호를 전송 또는 출력할 수 있다. 다른 예로서, 전자장치(100)는 와이파이(Wi-Fi), 블루투스(bluetooth) 등 다른 방식의 무선 인터페이스부(112)를 통해 리모컨 또는 다른 외부기기와 리모컨신호를 송수신할 수 있다.
전자장치(100)는 인터페이스부(110)를 통해 수신하는 비디오/오디오신호가 방송신호인 경우, 수신된 방송신호를 채널 별로 튜닝하는 튜너(tuner)를 더 포함할 수 있다.
전자장치(100)는 디스플레이부(120)를 포함할 수 있다. 디스플레이부(120)는 화면 상에 영상을 표시할 수 있는 디스플레이 패널을 포함한다. 디스플레이 패널은 액정 방식과 같은 수광 구조 또는 OLED 방식과 같은 자발광 구조로 마련된다. 디스플레이부(120)는 디스플레이 패널의 구조에 따라서 부가적인 구성을 추가로 포함할 수 있는데, 예를 들면 디스플레이 패널이 액정 방식이라면, 디스플레이부(120)는 액정 디스플레이 패널과, 광을 공급하는 백라이트유닛과, 액정 디스플레이 패널의 액정을 구동시키는 패널구동기판을 포함한다.
전자장치(100)는 사용자입력부(130)를 포함할 수 있다. 사용자입력부(130)는 사용자의 입력을 수행하기 위해 마련된 다양한 종류의 입력 인터페이스 관련 회로를 포함한다. 사용자입력부(130)는 전자장치(100)의 종류에 따라서 여러 가지 형태의 구성이 가능하며, 예컨대, 전자장치(100)의 기계적 또는 전자적 버튼부, 전자장치(100)와 분리된 리모트 컨트롤러, 전자장치(100)와 연결된 외부기기에서의 입력부, 터치패드, 디스플레이부(120)에 설치된 터치스크린 등이 있다.
전자장치(100)는 저장부(140)를 포함할 수 있다. 저장부(140)는 디지털화된 데이터를 저장한다. 저장부(140)는 전원의 제공 유무와 무관하게 데이터를 보존할 수 있는 비휘발성 속성의 스토리지(storage)와, 프로세서(170)에 의해 처리되기 위한 데이터가 로딩되며 전원이 제공되지 않으면 데이터를 보존할 수 없는 휘발성 속성의 메모리(memory)를 포함한다. 스토리지에는 플래시메모리(flash-memory), HDD(hard-disc drive), SSD(solid-state drive) ROM(Read Only Memory) 등이 있으며, 메모리에는 버퍼(buffer), 램(RAM; Random Access Memory) 등이 있다.
전자장치(100)는 마이크로폰(150)을 포함할 수 있다. 마이크로폰(150)은 사용자 음성을 비롯한 외부 환경의 소리를 수집한다. 마이크로폰(150)은 수집된 소리의 신호를 프로세서(170)에 전달한다. 전자장치(100)는 사용자 음성을 수집하는 마이크로폰(150)을 구비하거나, 또는 인터페이스부(110)를 통해 마이크로폰을 가진 리모트 컨트롤러, 스마트폰 등의 외부장치로부터 음성신호를 수신할 수 있다. 외부장치에 리모트 컨트롤러 어플리케이션을 설치하여 전자장치(100)를 제어하거나 음성 인식 등의 기능을 수행할 수도 있다. 이와 같은 어플리케이션이 설치된 외부장치의 경우, 사용자 음성을 수신할 수 있으며, 외부장치는 전자장치(100)와 Wi-Fi/BT 또는 적외선 등을 이용하여 데이터 송수신 및 제어가 가능한 바, 상기 통신 방식을 구현할 수 있는 복수의 인터페이스부(110)가 전자장치(100) 내에 존재할 수 있다.
전자장치(100)는 스피커(160)를 포함할 수 있다. 스피커(160)는 프로세서(170)에 의해 처리되는 오디오 데이터를 소리로 출력한다. 스피커(160)는 어느 한 오디오 채널의 오디오 데이터에 대응하게 마련된 단위 스피커를 포함하며, 복수 오디오 채널의 오디오 데이터에 각기 대응하도록 복수의 단위 스피커를 포함할 수 있다. 다른 실시예로서, 스피커(160)는 전자장치(100)와 분리되어 마련될 수 있으며, 이 경우 전자장치(100)는 오디오 데이터를 인터페이스부(110)를 통하여 스피커(160)로 전달할 수 있다.
전자장치(100)는 프로세서(170)를 포함할 수 있다. 프로세서(170)는 인쇄회로기판 상에 장착되는 CPU, 칩셋, 버퍼, 회로 등으로 구현되는 하나 이상의 하드웨어 프로세서를 포함하며, 설계 방식에 따라서는 SOC(system on chip)로 구현될 수도 있다. 프로세서(170)는 전자장치(100)가 디스플레이장치로 구현되는 경우에 디멀티플렉서, 디코더, 스케일러, 오디오 DSP(Digital Signal Processor), 앰프 등의 다양한 프로세스에 대응하는 모듈들을 포함한다. 여기서, 이러한 모듈들 중 일부 또는 전체가 SOC로 구현될 수 있다. 예를 들면, 디멀티플렉서, 디코더, 스케일러 등 영상처리와 관련된 모듈이 영상처리 SOC로 구현되고, 오디오 DSP는 SOC와 별도의 칩셋으로 구현되는 것이 가능하다.
프로세서(170)는 마이크로폰(150) 등에 의해 사용자 음성에 대한 음성신호를 획득하면, 음성신호를 음성데이터로 변환할 수 있다. 이 때, 음성데이터는 음성신호를 텍스트 데이터로 변환하는 STT(Speech-to-Text) 처리 과정을 통해 얻어진 텍스트 데이터일 수 있다. 프로세서(170)는 음성데이터가 나타내는 커맨드를 식별하고, 식별된 커맨드에 따라서 동작을 수행한다. 음성데이터 처리 과정과, 커맨드 식별 및 수행 과정은, 전자장치(100)에서 모두 실행될 수도 있다. 그러나, 이 경우에 전자장치(100)에 필요한 시스템 부하 및 소요 저장용량이 상대적으로 커지게 되므로, 적어도 일부의 과정은 네트워크를 통해 전자장치(100)와 통신 가능하게 접속되는 적어도 하나의 서버에 의해 수행될 수 있다.
본 발명에 따른 프로세서(170)는 전자장치(100)와 같은 기기(Machine)가 읽을 수 있는 저장 매체(Storage Medium)에 저장된 소프트웨어의 명령어들 중 적어도 하나의 명령을 호출하고, 그것을 실행할 수 있다. 이것은 전자장치(100)와 같은 기기가 상기 호출된 적어도 하나의 명령어에 따라 적어도 하나의 기능을 수행하도록 운영되는 것을 가능하게 한다. 상기 하나 이상의 명령어들은 컴파일러에 의해 생성된 코드 또는 인터프리터에 의해 실행될 수 있는 코드를 포함할 수 있다. 기기로 읽을 수 있는 저장매체는, 비일시적(Non-transitory) 저장매체의 형태로 제공될 수 있다. 여기서, ‘비일시적’은 저장매체가 실재(tangible)하는 장치이고, 신호(예컨대, 전자기파)를 포함하지 않는다는 것을 의미할 뿐이며, 이 용어는 데이터가 저장매체에 반영구적으로 저장되는 경우와 임시적으로 저장되는 경우를 구분하지 않는다.
한편, 프로세서(170)는 영상 내 화질 열화 예상 영역에 기 정의된 크기의 서브 영역 별로 각 서브 영역에 포함된 복수의 픽셀 중 적어도 하나의 조정 픽셀의 픽셀값을 조정하고, 각 서브 영역에 포함된 복수의 픽셀의 대표값을 유지하면서, 조정 픽셀을 상기 복수의 픽셀 중에서 다른 픽셀로 변경시키기 위한 데이터 분석, 처리, 및 결과 정보 생성 중 적어도 일부를 규칙 기반 또는 인공지능(Artificial Intelligence) 알고리즘으로서 기계학습, 신경망 네트워크(neural network), 또는 딥러닝 알고리즘 중 적어도 하나를 이용하여 수행할 수 있다.
일 예로, 프로세서(170)는 학습부 및 인식부의 기능을 함께 수행할 수 있다. 학습부는 학습된 신경망 네트워크를 생성하는 기능을 수행하고, 인식부는 학습된 신경망 네트워크를 이용하여 데이터를 인식(또는, 추론, 예측, 추정, 판단)하는 기능을 수행할 수 있다. 학습부는 신경망 네트워크를 생성하거나 갱신할 수 있다. 학습부는 신경망 네트워크를 생성하기 위해서 학습 데이터를 획득할 수 있다. 일 예로, 학습부는 학습 데이터를 저장부(140) 또는 외부로부터 획득할 수 있다. 학습 데이터는, 신경망 네트워크의 학습을 위해 이용되는 데이터일 수 있으며, 상기한 동작을 수행한 데이터를 학습데이터로 이용하여 신경망 네트워크를 학습시킬 수 있다.
학습부는 학습 데이터를 이용하여 신경망 네트워크를 학습시키기 전에, 획득된 학습 데이터에 대하여 전처리 작업을 수행하거나, 또는 복수 개의 학습 데이터들 중에서 학습에 이용될 데이터를 선별할 수 있다. 일 예로, 학습부는 학습 데이터를 기 설정된 포맷으로 가공하거나, 필터링하거나, 또는 노이즈를 추가/제거하여 학습에 적절한 데이터의 형태로 가공할 수 있다. 학습부는 전처리된 학습 데이터를 이용하여 상기한 동작을 수행하도록 설정된 신경망 네트워크를 생성할 수 있다.
학습된 신경망 네트워크는, 복수의 신경망 네트워크(또는, 레이어)들로 구성될 수 있다. 복수의 신경망 네트워크의 노드들은 가중치를 가지며, 복수의 신경망 네트워크들은 일 신경망 네트워크의 출력 값이 다른 신경망 네트워크의 입력 값으로 이용되도록 서로 연결될 수 있다. 신경망 네트워크의 예로는, CNN (Convolutional Neural Network), DNN (Deep Neural Network), RNN (Recurrent Neural Network), RBM (Restricted Boltzmann Machine), DBN (Deep Belief Network), BRDNN (Bidirectional Recurrent Deep Neural Network) 및 심층 Q-네트워크 (Deep Q-Networks)과 같은 모델을 포함할 수 있다.
한편 인식부는 상기한 동작을 수행하기 위해, 타겟 데이터를 획득할 수 있다. 타겟 데이터는 저장부(140) 또는 외부로부터 획득된 것일 수 있다. 타겟 데이터는 신경망 네트워크의 인식 대상이 되는 데이터일 수 있다. 인식부는 타겟 데이터를 학습된 신경망 네트워크에 적용하기 전에, 획득된 타겟 데이터에 대하여 전처리 작업을 수행하거나, 또는 복수 개의 타겟 데이터들 중에서 인식에 이용될 데이터를 선별할 수 있다. 일 예로, 인식부는 타겟 데이터를 기 설정된 포맷으로 가공하거나, 필터링 하거나, 또는 노이즈를 추가/제거하여 인식에 적절한 데이터의 형태로 가공할 수 있다. 인식부는 전처리된 타겟 데이터를 신경망 네트워크에 적용함으로써, 신경망 네트워크로부터 출력되는 출력값을 획득할 수 있다. 인식부는 출력값과 함께, 확률값 또는 신뢰도값을 획득할 수 있다.
일 예로, 본 발명에 따른 전자장치(100)의 제어방법은 컴퓨터 프로그램 제품 (Computer Program Product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은, 앞서 설명한, 프로세서(170)에 의해 실행되는 소프트웨어의 명령어들을 포함할 수 있다. 컴퓨터 프로그램 제품은 상품으로서 판매자 및 구매자 간에 거래될 수 있다. 컴퓨터 프로그램 제품은 기기로 읽을 수 있는 저장 매체(예컨대, CD-ROM)의 형태로 배포되거나, 또는 어플리케이션 스토어(예컨대, 플레이 스토어TM)를 통해 또는 두 개의 사용자 장치들(예컨대, 스마트폰들) 간에 직접, 온라인으로 배포(예컨대, 다운로드 또는 업로드)될 수 있다. 온라인 배포의 경우에, 컴퓨터 프로그램 제품의 적어도 일부는 제조사의 서버, 어플리케이션 스토어의 서버, 또는 중계 서버의 메모리와 같은 기기로 읽을 수 있는 저장 매체에 적어도 일시 저장되거나, 임시적으로 생성될 수 있다.
도 2는 본 발명의 일 실시예에 의한 전자장치의 동작 흐름도를 도시한 블록도이다. 본 발명의 프로세서(170)는 영상신호에 기초한 영상을 화면에 표시하도록 디스플레이를 제어할 수 있다.
프로세서(170)는 영상 내 화질 열화 예상 영역에 기 정의된 크기의 서브 영역 별로 각 서브 영역에 포함된 복수의 픽셀 중 적어도 하나의 조정 픽셀의 픽셀값을 조정할 수 있다(S210). 화질 열화 예상 영역은, 기 정의된 임계 시간 이상 영상이 고정적으로 표시되는 영역을 포함할 수 있다. 예컨대, TV의 경우, 디스플레이 상단에 표시된 프로그램 이름 혹은 해당 방송사 이름을 나타내는 영역, 혹은, 스마트폰의 경우, 디스플레이 상단에 표시된 통신사 로고, 신호 강도 표시, 배터리 잔량 등을 나타내는 영역이 될 수 있다. 프로세서(170)는, 임의의 영상 변화 검출 방법을 이용하여 화질 열화 예상 영역을 식별할 수 있다. 영상 변화 검출 방법은 영상 프레임 간의 픽셀값의 변화 정도를 검출하는 것일 수 있다. 프로세서(170)는, 임계 시간 동안 영상 프레임 간의 픽셀값의 변화가 소정치 미만인 영역을 화질 열화 예상 영역인 것으로 식별할 수 있다.
서브 영역은 복수의 픽셀로 이루어지고, 영상 내 화질 열화 예상 영역을 나누는 임의의 영역이다. 따라서, 각 서브 영역은 반드시 동일한 크기로 이루어지지 않아도 되고, 상이한 크기로 이루어질 수 있다. 각 서브 영역에 포함된 복수의 픽셀 중 픽셀값이 조정되는 임의의 픽셀을 조정 픽셀이라고 한다. 프로세서(170)는 각 서브 영역에 포함된 복수의 픽셀 중 적어도 하나의 조정 픽셀의 픽셀값을 조정할 수 있다.
프로세서(170)는 각 서브 영역에 포함된 복수의 픽셀의 대표값을 유지하면서, 조정 픽셀을 복수의 픽셀 중에서 다른 픽셀로 변경할 수 있다(S220). 픽셀의 대표값은, 예컨대, 각 서브 영역을 구성하는 복수의 픽셀의 휘도값의 평균값일 수 있으나, 어느 하나에 한정된 것은 아니다. 조정 픽셀을 다른 픽셀로 변경하는 자세한 사항에 대해서는 후술한다.
상기 제시한 방법은 디더링(Dithering) 방법에 착안하여 고안된 것이다. 디더링은 영상을 표시함에 있어서 색상의 음영 변화에 대한 착각을 생성할 때 사용되는 수법이다. 색을 혼합하는 경우, 각각의 효과를 평균화시키거나, 묶어서 하나의 음영 또는 색이라고 인식하도록 인간의 눈이 갖는 성질을 이용하고 있다. 기존의 RGB도메인에서 디더링 방법을 사용하는 경우, 실제 해당 색이 없이도 이웃한 다른 색의 픽셀들을 이용하여 이질감 없이 원하는 색을 자연스럽게 표현할 수 있다. 이 방법을 활용하면, 프로세서(170)가 영상의 블록 내의 휘도 공간에서 몇 개의 픽셀의 휘도를 조정하더라도, 시각적으로는 블록 전체에 동일한 휘도를 갖는 것으로 보이게 만든다. 이 때, 디더링 방식을 사용하였기 때문에 단순하게 전체 픽셀 값을 감소시키는 방식과 비교하여 보다 섬세하게 변화를 주어 사용자가 시각적으로 이질감을 느끼지 못하게 한다.
따라서, 본 발명의 일 실시예에 따르면, 픽셀의 휘도값을 변경하고, 픽셀을 이동함에 있어서 디더링 방법을 활용하므로, 이질감 없이 화질 열화 예상 영역 내에 존재하는 픽셀의 열화를 섬세하게 방지할 수 있다.
도 3은 본 발명의 일 실시예에 따른 전자장치의 동작 모습을 도시한 도면이다. 본 도면에서는 전자장치(100)의 디스플레이 상의 화질 열화 예상 영역(310)과 서브 영역(320)에서의 화질 열화 방지 동작(330 등)이 도시되어 있다. 프로세서(170)는 “ABC”가 표시된 영역을 포함하는 영역을 화질 열화 예상 영역(310)으로 식별할 수 있다. 도 3은 하나의 서브 영역(320)에서 연속하여 이루어지는 픽셀값의 조정 및 조정 픽셀의 이동 과정을 시간순으로 나열한 모습을 도시한다. 도 3에 도시된 바와 같이, 서브 영역(320)은 픽셀값이 모두 1인 2X2의 픽셀로 구성된다고 가정해본다. 본 명세서에서, 픽셀의 픽셀값은 설명의 편의상 실제 픽셀값을 정규화한 값으로서, 기준이 되는 값을 1로 둔다. 또한, 동작(330)은 4 개의 시점에서의 각 서브 영역(320)에서 조정 픽셀(331)이 이동하는 모습을 시간 경과에 따라 배열한 것이고, 프로세서(170)는 동작(330)에서 각 서브 영역(320)에 도시된 바와 같은 형태로 조정 픽셀(331)을 순차 이동시킨다. 4회의 조정 픽셀(331)의 이동에 대응하는 시간을 하나의 구간으로 둘 수 있고, 프로세서(170)는 해당 구간 동안 조정 픽셀(331)이 서브 영역(320) 내의 이동 경로를 따라 순환될 수 있도록 한다. 이 때, 프로세서(170)는 한 구간 내에서 조정 픽셀(331)을 일정한 주기로 이동시키거나, 혹은 불규칙적인 주기로 이동시킬 수 있으며, 어느 하나의 방법에 한정된 것은 아니다. 또한, 프로세서(170)는 화질 열화 방지를 목표로 하는 휘도 변화량을 고려하여, 픽셀값을 조정하는 구간의 길이 혹은 하나의 구간 내에서 조정 픽셀(331)을 이동시키는 시간 간격 등을 정할 수 있다.
동작(330)을 자세히 살펴보면, 프로세서(170)는 서브 영역(320)에 포함된 복수의 픽셀 중 적어도 하나의 조정 픽셀(331)의 픽셀값을 조정할 수 있다. 프로세서(170)는 조정 픽셀(331)의 픽셀값을 단계적으로 감소시킴으로써 픽셀값을 조정할 수 있다. 동작(330)에서, 프로세서(170)는 복수의 픽셀 중 하나의 조정 픽셀(331)의 픽셀값을 1에서 0.99로 조정할 수 있다. 만약, 프로세서(170)가 조정픽셀(331)의 픽셀값을 1에서 0.99가 아닌 0.5로 조정하는 등 갑작스러운 휘도 변화가 발생하는 경우, 사용자들로 하여금 화면에 표시된 영상의 화질 저하를 체감하게 한다. 따라서, 프로세서(170)는 상기 서술한 디더링 방법을 활용하여 시간에 따라 픽셀값을 조정할 수 있다. 영상의 화질 저하를 방지하기 위해 프로세서(170)는 픽셀값을 갑자기 조정하지 않고, 아래 [수식 1]에 기초하여 시간에 따라 휘도 감소 정도를 단계적으로 증가시킨다.
[수식 1]
Figure PCTKR2020019039-appb-I000001
[수식 1]에 기초하여 얻은
Figure PCTKR2020019039-appb-I000002
은 해당 픽셀값에 곱하여 최종 픽셀값을 조절하는 요소로 화질 열화 예상 영역의 휘도를 감소시키려는 경우 1보다 작은 값이 된다. 프로세서(170)는 복수의 픽셀로 이루어진 하나의 서브 영역(320)을 단위로 픽셀값을 조정한다. 프로세서(170)는 시간에 따라 점차 픽셀의 휘도를 어둡게 만들며 목표 휘도 변화량에 도달하면 이후로는 시간에 의존하지 않고 해당 값을 고정시킨다. 도 3에서 동작(330 등)은, 전체 휘도 변화량 중 일부의 변화에 해당하는 구간을 나타내는 것이고, 추후 설명할 도 4와 같이 복수의 구간에서 동작(330 등)을 계속 반복 수행하면 목표 휘도 변화량에 도달할 수 있다.
이 때 위의 [수식 1]을 각 픽셀에 하나씩 적용하지 않고 매시간마다 복수의 서브 영역 내의 적어도 하나의 픽셀값에만 적용한다. 추가로, 그 외의 픽셀값에는 이전 주기의 감소율을 적용할 수 있다. 그리고, 최종 픽셀값의 변화량은 [수식 1]을 서브 영역에 포함된 픽셀 수로 나눈 값이 되어, 전체 픽셀에 적용하는 것 보다 섬세한 조절이 가능하다.
서브 영역 내의 모든 변화량이 같아지게 되면 목표 휘도 변화량과 비교하는 과정을 거친다. 이때 서브 영역 내의 전체 변화량이 목표 휘도 변화량 보다 크다면 이후로는 픽셀값을 조정하지 않고 일정하게 유지한다. 아직 목표 휘도 변화량에 도달하지 못한 경우에는 다시 이전에 반복했던 것과 같이 서브 영역 내 픽셀 수의 시간만큼 앞선 과정을 반복한다. 전체 과정이 지나고 난 뒤 서브 영역의 최종 픽셀 휘도 변화량은 아래 [수식 2]와 같게 된다.
[수식 2]
Figure PCTKR2020019039-appb-I000003
프로세서(170)는 각 서브 영역에 포함된 복수의 픽셀의 대표값을 유지하면서, 조정 픽셀(331)을 복수의 픽셀 중에서 다른 픽셀로 변경할 수 있다. 이 때, 프로세서(170)는 서브 영역(320) 내에서 기 정의된 경로를 따라 조정 픽셀(331)을 이동시킬 수 있다. 동작(330)의 경우, 프로세서(170)는 시계 방향을 따라 조정 픽셀(331)을 이동시킬 수 있고, 본 실시예에서 복수의 픽셀의 대표값이 픽셀값의 평균값이라고 가정하면, 대표값을 (1+1+1+0.99)/4 = 0.9975로 유지하면서 조정 픽셀(331)을 이동시킬 수 있다. 따라서, 본 발명의 일 실시예에 따르면, 일부 픽셀의 휘도값을 변경하고, 픽셀을 이동하더라도, 해당 서브 영역의 전체 휘도가 유지되므로, 이질감 없이 화질 열화 예상 영역 내에 존재하는 픽셀의 열화를 섬세하게 방지할 수 있다.
다만, 동작(340)에서와 같이, 기 정의된 경로는 어느 하나에 한정되지 않는다. 예컨대, 프로세서(179)는 거꾸로 된 N자 모양의 경로를 따라 조정 픽셀(341)을 다른 픽셀로 변경할 수 있다. 다만, 조정 픽셀(331 등)을 복수의 픽셀 중에서 다른 픽셀로 변경하는 예는 도 3에 도시된 예에 한정되지 않으며 다양하게 구현될 수 있다.
본 발명의 다른 실시예에 따르면, 프로세서(170)는 서브 영역 내 복수의 픽셀 중에서 조정 픽셀과, 인접한 다른 픽셀의 각 픽셀값을 상호 변경할 수 있다.
프로세서(170)는 화질 열화 예상 영역(310) 전체에 대해 각 서브 영역(320) 마다 위에서 언급한 화질 열화 방지 동작(330 등)을 수행할 수 있다. 예컨대, 프로세서(170)는 화질 열화 예상 영역(310)의 2이상의 서브 영역(320)에서 동시에 상기 동작(330 등)을 수행하거나, 혹은 각 서브 영역(320) 별로 순차적으로 수행할 수도 있으며, 어느 하나 방법에 한정된 것은 아니다.
본 발명의 일 실시예에 따르면, 프로세서(170)는 서브 영역(320)을 이루는 픽셀의 픽셀값을 조정 및 이동을 통해 지속적으로 변경할 수 있으므로, 오랜 시간 동안 동일한 픽셀값으로 출력되어 픽셀의 열화가 발생하는 것을 방지할 수 있다.
도 4는 본 발명의 일 실시예에 따른 전자장치의 동작 모습을 도시한 도면이다. 도 4는 하나의 서브 영역(320)에서 연속하여 이루어지는 픽셀값의 조정 및 조정 픽셀의 이동 과정을 시간에 따라 복수의 구간으로 구분해서 나열한 모습을 도시한다.
프로세서(170)는 각 구간 동안 서브 영역의 픽셀의 대표값을 유지하되, 다음 구간으로 넘어갈 때, 서브 영역(320)에서 조정 픽셀의 픽셀값을 단계적으로 감소시킬 수 있다. 예컨대, 각 구간의 첫 번째 서브 영역 (320)을 보면, 프로세서(170)는 제1구간(410)에서 첫 번째 서브 영역(320)의 조정 픽셀(411)의 픽셀값을 1에서 0.99로 감소시켜, 제1구간(410)의 서브 영역(320)의 대표값을 (1+1+1+0.99)/4 = 0.9975로 유지되게 하고, 제2구간(420)의 첫 번째 서브 영역(320)의 다른 조정 픽셀(421)의 픽셀값을 1에서 0.99로 감소시켜, 제2구간(420)의 서브 영역(320)의 대표값을 (1+1+0.99+0.99)/4 = 0.995로 유지되게 할 수 있다. 따라서, 각 서브 영역의 대표값인 평균값이 0.9975, 0.995, 0.9925, 0.99, 0.9875 순으로 단계적으로 낮아진다. 이렇게 단계적으로 각 서브 영역의 대표값을 조정하다가, 서브 영역 내의 전체 픽셀값의 변화량이 목표 휘도 변화량 보다 크다면, 이후로는 픽셀값을 조정하지 않고 일정하게 유지한다. 이 때, 프로세서(170)는 상기 기술한 [수식 1], [수식 2]에 기초하여, 픽셀값의 조정 비율을 서브 영역 내의 픽셀 수를 조절함으로써 정할 수 있으며, 시간에 따라 조정 비율을 조정할 수 있다. 따라서, 본 실시예와 같이 4개의 픽셀을 가지는 서브 영역이나, 1%의 픽셀값의 조정 비율에 한정되는 것은 아니다.
서브 영역(320) 내 모든 픽셀의 픽셀값이 조정되고 나면, 즉, 4개의 구간을 지나고 나면, 프로세서(170)는 제1구간(410)의 조정 픽셀(411)인 제5구간(430)의 조정 픽셀(431)의 픽셀값을 다시 조정할 수 있다. 결과적으로, 프로세서(170)는 각 구간의 픽셀의 대표값을 단계적으로 감소시키면서, 크게는 조정 픽셀의 픽셀값을 단계적으로 감소시킬 수 있다. 다만, 프로세서(170) 픽셀의 픽셀값을 단계적으로 감소하는 것뿐만 아니라 증가도 시킬 수 있으며, 어느 하나에 한정되는 것은 아니다.
프로세서(170)는 각 구간의 첫번째 서브 영역(320)에서 조정 픽셀의 픽셀값을 감소시키고 나면, 서브 영역(320)의 대표값을 유지시키면서 각 조정 픽셀을 주기적으로 이동시킬 수 있다.
결과적으로, 프로세서(170)는 각 구간에 대해, 화질 열화 예상 영역에 기 정의된 크기의 서브 영역 별로 각 서브 영역에 포함된 복수의 픽셀 중 적어도 하나의 조정 픽셀의 픽셀값을 조정하고, 각 서브 영역에 포함된 복수의 픽셀의 대표값을 유지하면서, 조정 픽셀을 복수의 픽셀 중에서 다른 픽셀로 변경할 수 있다. 또한, 프로세서(170)는 복수의 구간 별로 조정 픽셀의 픽셀값을 단계적으로 감소 또는 증가시킬 수 있다.
본 발명의 일 실시예에 따르면, 화질 열화 예상 영역에서 일부 픽셀값을 조정하더라도 해당 픽셀의 위치를 주기적으로 변경하고, 픽셀의 대표값을 유지함으로써, 시각적으로는 화질 열화 예상 영역 전체로서는 사용자가 시각적으로 휘도 변화에 따른 이질감을 느끼지 못하게 한다. 또한, 시간이 지남에 따라 전체적인 휘도값을 감소시킴으로써, 단순하게 전체 픽셀값을 감소시키는 방식과 비교하여 픽셀값을 섬세하게 변화를 줄 수 있다.
또한 픽셀값의 조정 비율을 서브 영역 내의 픽셀 수를 조절함으로써 정할 수 있고, 시간에 따라 비율을 달리 조절하여 휘도 변화에 따른 시각적 인지 및 시청 화질 저하 체감을 최소화하며 디스플레이의 수명을 연장할 수 있다.

Claims (15)

  1. 전자장치에 있어서,
    영상을 표시하는 디스플레이와,
    상기 영상 내 화질 열화 예상 영역에 기 정의된 크기의 서브 영역 별로 상기 각 서브 영역에 포함된 복수의 픽셀 중 적어도 하나의 조정 픽셀의 픽셀값을 조정하고,
    상기 각 서브 영역에 포함된 복수의 픽셀의 대표값을 유지하면서, 상기 조정 픽셀을 상기 복수의 픽셀 중에서 다른 픽셀로 변경하는
    프로세서를 포함하는 전자장치.
  2. 제1항에 있어서,
    상기 프로세서는, 상기 서브 영역 내에서 기 정의된 경로를 따라 상기 조정 픽셀을 이동시키는 전자장치.
  3. 제1항에 있어서,
    상기 프로세서는, 상기 조정 픽셀의 픽셀값을 단계적으로 감소시키는 전자장치.
  4. 제3항에 있어서,
    상기 프로세서는, 복수의 구간 별로 상기 조정 픽셀의 픽셀값을 단계적으로 감소시키는 전자장치.
  5. 제4항에 있어서,
    상기 프로세서는, 상기 각 구간 동안 상기 각 서브 영역의 복수의 픽셀의 대표값을 유지하는 전자장치.
  6. 제5항에 있어서,
    상기 프로세서는, 상기 각 구간 별로 상기 조정 픽셀을 상기 각 서브 영역 내의 이동 경로를 따라 순환시키는 전자장치.
  7. 제1항에 있어서,
    상기 복수의 픽셀의 대표값은 상기 복수의 픽셀의 휘도값의 평균값인 전자장치.
  8. 제1항에 있어서,
    상기 프로세서는,
    상기 서브 영역 내 복수의 픽셀 중에서 상기 조정 픽셀과, 인접한 다른 픽셀의 각 픽셀값을 상호 변경하는 전자장치.
  9. 제1항에 있어서,
    상기 프로세서는,
    상기 픽셀값의 목표 변화량 및 상기 영역 내에 포함된 상기 복수의 픽셀의 수에 대응하는 시간에 기초하여 상기 조정 픽셀의 픽셀값을 조정하는 전자장치.
  10. 제1항에 있어서,
    상기 화질 열화 예상 영역은 상기 영상에서 임계 시간 이상 고정적으로 표시되는 영역을 포함하는 것을 특징으로 하는 전자장치.
  11. 전자장치의 제어방법에 있어서,
    영상 내 화질 열화 예상 영역에 기 정의된 크기의 서브 영역 별로 상기 각 서브 영역에 포함된 복수의 픽셀 중 적어도 하나의 조정 픽셀의 픽셀값을 조정하는 단계; 및
    상기 각 서브 영역에 포함된 복수의 픽셀의 대표값을 유지하면서, 상기 조정 픽셀을 상기 복수의 픽셀 중에서 다른 픽셀로 변경하는 단계를 포함하는 전자장치의 제어방법.
  12. 제11항에 있어서,
    상기 조정 픽셀을 상기 복수의 픽셀 중에서 다른 픽셀로 변경하는 단계는,
    상기 서브 영역 내에서 기 정의된 경로를 따라 상기 조정 픽셀을 이동시키는 단계를 포함하는 전자장치의 제어방법.
  13. 제11항에 있어서,
    상기 각 서브 영역에 포함된 복수의 픽셀 중 적어도 하나의 조정 픽셀의 픽셀값을 조정하는 단계는,
    상기 조정 픽셀의 픽셀값을 단계적으로 감소시키는 단계를 포함하는 전자장치의 제어방법.
  14. 제13항에 있어서,
    상기 조정 픽셀의 픽셀값을 단계적으로 감소시키는 단계는,
    복수의 구간 별로 상기 조정 픽셀의 픽셀값을 단계적으로 감소시키는 단계를 포함하는 전자장치의 제어방법.
  15. 제11항에 있어서,
    상기 각 서브 영역에 포함된 복수의 픽셀 중 적어도 하나의 조정 픽셀의 픽셀값을 조정하는 단계는,
    상기 픽셀값의 목표 변화량 및 상기 영역 내에 포함된 상기 복수의 픽셀의 수에 대응하는 시간에 기초하여 상기 조정 픽셀의 픽셀값을 조정하는 단계를 포함하는 전자장치의 제어방법.
PCT/KR2020/019039 2020-02-19 2020-12-23 전자장치 및 그 제어방법 WO2021167231A1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US17/891,252 US11881139B2 (en) 2020-02-19 2022-08-19 Electronic apparatus and control method thereof

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2020-0020340 2020-02-19
KR1020200020340A KR20210105636A (ko) 2020-02-19 2020-02-19 전자장치 및 그 제어방법

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US17/891,252 Continuation US11881139B2 (en) 2020-02-19 2022-08-19 Electronic apparatus and control method thereof

Publications (1)

Publication Number Publication Date
WO2021167231A1 true WO2021167231A1 (ko) 2021-08-26

Family

ID=77391051

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2020/019039 WO2021167231A1 (ko) 2020-02-19 2020-12-23 전자장치 및 그 제어방법

Country Status (3)

Country Link
US (1) US11881139B2 (ko)
KR (1) KR20210105636A (ko)
WO (1) WO2021167231A1 (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112863441A (zh) * 2021-01-28 2021-05-28 维沃移动通信有限公司 显示方法及装置
WO2023223400A1 (ja) * 2022-05-17 2023-11-23 シャープ株式会社 表示装置の制御ユニット、表示装置、および表示装置の制御方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100060554A1 (en) * 2008-09-11 2010-03-11 Byung-Sik Koh Display apparatus and method of driving the same
KR20150066742A (ko) * 2013-12-09 2015-06-17 엘지디스플레이 주식회사 대기모드에서의 영상 제어방법
KR20170135418A (ko) * 2016-05-31 2017-12-08 엘지디스플레이 주식회사 유기발광 표시장치와 그 구동방법
KR20180013527A (ko) * 2016-07-29 2018-02-07 엘지디스플레이 주식회사 유기 발광 표시 장치 및 그 구동방법
KR20190019438A (ko) * 2017-08-17 2019-02-27 엘지전자 주식회사 영상표시장치

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100799886B1 (ko) 2002-03-04 2008-01-31 산요덴키가부시키가이샤 유기 일렉트로 루미네센스 표시 장치 및 그 응용
JP4408197B2 (ja) 2003-04-07 2010-02-03 パイオニア株式会社 表示画面の焼付防止装置及び焼付防止方法
US20100053166A1 (en) * 2008-08-29 2010-03-04 Kabushiki Kaisha Toshiba Information processing apparatus, and super-resolution achievement method and program
US20100061638A1 (en) * 2008-08-29 2010-03-11 Yasuyuki Tanaka Information processing apparatus, information processing method, and computer-readable storage medium
US20160335965A1 (en) * 2015-05-13 2016-11-17 Microsoft Technology Licensing, Llc Display diode relative age tracking
KR102405309B1 (ko) * 2016-02-12 2022-06-07 삼성전자주식회사 디스플레이 장치 및 그 디스플레이 방법

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100060554A1 (en) * 2008-09-11 2010-03-11 Byung-Sik Koh Display apparatus and method of driving the same
KR20150066742A (ko) * 2013-12-09 2015-06-17 엘지디스플레이 주식회사 대기모드에서의 영상 제어방법
KR20170135418A (ko) * 2016-05-31 2017-12-08 엘지디스플레이 주식회사 유기발광 표시장치와 그 구동방법
KR20180013527A (ko) * 2016-07-29 2018-02-07 엘지디스플레이 주식회사 유기 발광 표시 장치 및 그 구동방법
KR20190019438A (ko) * 2017-08-17 2019-02-27 엘지전자 주식회사 영상표시장치

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112863441A (zh) * 2021-01-28 2021-05-28 维沃移动通信有限公司 显示方法及装置
WO2023223400A1 (ja) * 2022-05-17 2023-11-23 シャープ株式会社 表示装置の制御ユニット、表示装置、および表示装置の制御方法

Also Published As

Publication number Publication date
US11881139B2 (en) 2024-01-23
KR20210105636A (ko) 2021-08-27
US20220406237A1 (en) 2022-12-22

Similar Documents

Publication Publication Date Title
WO2018093143A1 (en) Display apparatus and control method thereof
WO2021167231A1 (ko) 전자장치 및 그 제어방법
WO2017095179A1 (en) Method and apparatus for image enhancement of virtual reality images
WO2017138728A1 (en) Method and apparatus for creating, streaming, and rendering hdr images
CN111491072A (zh) 一种像素时钟频率调整方法、装置及电子设备
WO2020101189A1 (en) Image and audio processing apparatus and operating method of the same
US8786627B2 (en) Method for displaying video signal dithered by related masks and video display apparatus applying the same
KR20110060464A (ko) 오디오 출력 제어방법 및 이를 적용한 디지털 기기
WO2021167230A1 (ko) 전자장치 및 그 제어방법
KR102558290B1 (ko) 전자 장치 및 그 제어 방법
US20230206811A1 (en) Electronic apparatus and control method thereof
WO2017052215A1 (en) Method and apparatus for enhancing images via white pop-out
US11113850B2 (en) Electronic apparatus and control method thereof
WO2022114516A1 (ko) 전자 장치 및 이의 제어 방법
CN113689810B (zh) 图像显示设备及其方法
WO2020122510A1 (en) Display apparatus and control method thereof
KR102566738B1 (ko) 전자 장치 및 그 제어 방법
US20140181657A1 (en) Portable device and audio controlling method for portable device
WO2018048093A1 (ko) 디스플레이장치 및 그 제어방법
WO2022255730A1 (ko) 전자장치 및 그 제어방법
WO2022055174A1 (ko) 전자장치 및 그 제어방법
WO2019013443A1 (ko) 디스플레이장치 및 그 제어방법
WO2024043731A1 (ko) 인터폴레이션을 수행하는 전자 장치, 동작 방법, 및 저장 매체
WO2023085865A1 (ko) 디스플레이 장치 및 그 동작방법
WO2021137474A1 (ko) 전자장치 및 그 제어방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20920648

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20920648

Country of ref document: EP

Kind code of ref document: A1