WO2016026238A1 - 图像的边界判别方法、装置和显示面板 - Google Patents

图像的边界判别方法、装置和显示面板 Download PDF

Info

Publication number
WO2016026238A1
WO2016026238A1 PCT/CN2014/092864 CN2014092864W WO2016026238A1 WO 2016026238 A1 WO2016026238 A1 WO 2016026238A1 CN 2014092864 W CN2014092864 W CN 2014092864W WO 2016026238 A1 WO2016026238 A1 WO 2016026238A1
Authority
WO
WIPO (PCT)
Prior art keywords
value
standard deviation
gradient value
minimum
matrix
Prior art date
Application number
PCT/CN2014/092864
Other languages
English (en)
French (fr)
Inventor
刘鹏
董学
郭仁炜
杨凯
Original Assignee
京东方科技集团股份有限公司
北京京东方光电科技有限公司
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 京东方科技集团股份有限公司, 北京京东方光电科技有限公司 filed Critical 京东方科技集团股份有限公司
Priority to EP14883529.1A priority Critical patent/EP3185238B1/en
Priority to US14/771,110 priority patent/US9607396B2/en
Publication of WO2016026238A1 publication Critical patent/WO2016026238A1/zh

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/001Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background
    • G09G3/003Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background to produce spatial visual effects
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/20Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/02Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the way in which colour is displayed
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20004Adaptive image processing

Definitions

  • the present disclosure relates to the field of display technologies, and in particular, to an image boundary determination method, apparatus, and display panel.
  • the virtual algorithm is a new type of image processing method.
  • the virtual algorithm can raise the lower physical resolution to a higher virtual resolution, optimize the display effect, and prompt the visual experience of the human eye.
  • the virtual algorithm generally uses a filter to process the input signal, and the input signal is resampled and distributed by the filter to realize virtual display.
  • the filter in the virtual algorithm can not accurately handle various image types. For example, some filters will have colored edges under the slash pattern, which is generally called color aliasing.
  • color aliasing In order to reduce the color aliasing effect, on the one hand, it is necessary to continuously test the feedback, optimize the filter, and improve the display effect; on the other hand, it is necessary to use different filter processing for different image types or different positions of the same image, for example: for none
  • the position of the boundary is usually a general-purpose filter, and for a boundaryd position, a boundary filter is usually used.
  • the embodiments of the present disclosure provide a method and device for determining a boundary of an image, so as to effectively determine whether an image has a boundary and a direction of a boundary, and improve a display effect of the display panel.
  • the present disclosure provides an image boundary determination method, including:
  • the row-direction gradient value, the column-direction gradient value, and the first diagonal of the gray-scale parameter value corresponding to the sub-pixel unit to be processed a minimum gradient value of the line direction gradient value and the second diagonal direction gradient value, and a row direction standard deviation value, a column direction standard deviation value, a first diagonal direction standard deviation value, and a second diagonal standard deviation The minimum standard deviation in the value;
  • the method for discriminating the boundary of the image provided by the present disclosure may be based on the luminance component or the chrominance component, and the received image information to be discriminated may be processed to obtain a grayscale parameter value corresponding to the sub-pixel unit to be processed.
  • n ⁇ n matrix and (n + 2) ⁇ (n + 2) matrix using gradient, standard deviation and dispersion parameters for the n ⁇ n matrix and (n + 2) ⁇ (n + 2) matrix respectively corresponding to the image
  • the discrimination can be performed to effectively determine whether the image to be discriminated has a boundary and the direction in which the boundary exists. According to the result of the discrimination, the correct filter can be selected to improve the processing effect of the filter on the image, thereby improving the display effect of the display panel.
  • the determining is in a n ⁇ n matrix and an (n+2) ⁇ (n+2) matrix: a row-direction gradient in which a grayscale parameter value corresponding to the sub-pixel unit to be processed is located Value, column-to-gradient value, first diagonal direction gradient value, and minimum gradient value in the second diagonal direction gradient value, and row-to-standard deviation, column-to-standard deviation, first diagonal direction criterion
  • the minimum standard deviation of the difference, and the second diagonal standard deviation specifically includes:
  • n ⁇ n matrix and the (n+2) ⁇ (n+2) matrix the row-direction gradient value, the column-direction gradient value, and the first diagonal line where the gray-scale parameter values corresponding to the sub-pixel unit to be processed are located
  • the minimum gradient value of the direction gradient value and the second diagonal direction gradient value, and the gradient value in each direction is the sum of the absolute values of two adjacent gray scale parameter values in the direction:
  • G represents the gradient value
  • x represents the direction
  • Y xi represents the i-th gray-scale parameter value in the x-direction
  • n represents the number of the row-direction or column-direction gray-scale parameter values
  • the determining is in an n ⁇ n matrix and an (n+2) ⁇ (n+2) matrix: a row-to-standard deviation, a column-to-standard deviation, and a first diagonal.
  • the direction standard deviation and the dispersion of the standard deviation of the second diagonal direction with respect to the minimum standard deviation, and the row direction gradient value, the column direction gradient value, the first diagonal direction gradient value, and the second diagonal direction specifically includes:
  • A represents a second minimum gradient value
  • Dif represents a third deviation.
  • H, V, LD, RD represent the row-to-standard deviation, column-to-standard deviation, first diagonal direction standard deviation, and second in the (n+2) ⁇ (n+2) matrix, respectively
  • A represents the second minimum standard deviation
  • Dif represents the fourth dispersion.
  • the first code value when the determined dispersion is greater than N times the minimum value corresponding thereto, the first code value is output, and when the determined dispersion is less than N times the corresponding minimum value, the output is a second code value, where the minimum value is a minimum standard deviation value or a minimum gradient value, specifically including:
  • the first code value is output correspondingly, and if Dif ⁇ N ⁇ A, the second code value is correspondingly output, where: N is a constant greater than 1, and when Dif represents the first dispersion, A represents a first minimum gradient value; when Dif represents a second dispersion, A represents a first minimum standard deviation; when Dif represents a third dispersion, A represents a second minimum gradient value; when Dif represents a fourth dispersion, A represents the second minimum standard deviation.
  • the N value is from 1.4 to 2.0.
  • the N value is
  • the determining, according to the output code value, whether the image to be discriminated has a boundary and the boundary direction that exists includes:
  • the output code values corresponding to the first dispersion degree, the second dispersion degree, the third dispersion degree, and the fourth dispersion degree are all the first code values, determining that the image to be discriminated has a boundary, and the second gradient value and the There is a boundary in the direction corresponding to the smallest one of the two standard deviation values;
  • the output code value corresponding to the first dispersion degree, the second dispersion degree, and the fourth dispersion degree is the first code value
  • the output code value corresponding to the third dispersion degree is the second code value
  • the output code value corresponding to the first dispersion degree, the second dispersion degree, and the third dispersion degree is the first code value
  • the output code value corresponding to the fourth dispersion degree is the second code value
  • the output code value corresponding to the first dispersion degree and the second dispersion degree is the first code value
  • the third dispersion degree, and the output code value corresponding to the fourth dispersion degree is the second code value
  • the first code value is 1 and the second code value is 0.
  • the present disclosure also provides an image boundary determining apparatus, including:
  • a receiving module configured to receive grayscale parameter component value information of each sub-pixel unit in the image information to be discriminated to form a grayscale parameter value matrix, and use the grayscale parameter value corresponding to the sub-pixel unit to be processed as a center
  • the grayscale parameter value matrix is divided into an n ⁇ n matrix and an (n+2) ⁇ (n+2) matrix, where n represents the number of rowwise or columnwise grayscale parameter values, and n is an odd number greater than 1,
  • the gray scale parameter is a brightness parameter or a chromaticity parameter;
  • a first determining module configured to determine, in the n ⁇ n matrix and the (n+2) ⁇ (n+2) matrix, the row-direction gradient value and the column direction where the gray-scale parameter values corresponding to the sub-pixel unit to be processed are located a gradient value, a first gradient direction gradient value, and a minimum gradient value in the second diagonal direction gradient value, and a row direction standard deviation value, a column direction standard deviation value, a first diagonal direction standard deviation value, and The minimum standard deviation of the second diagonal standard deviation;
  • a second determining module configured to determine, respectively, in the n ⁇ n matrix and the (n+2) ⁇ (n+2) matrix: a row-to-standard deviation, a column-to-standard deviation, and a first diagonal direction standard deviation And a dispersion of a standard deviation value of the second diagonal direction with respect to a minimum standard deviation, and a gradient value of the row direction, a gradient value of the column direction, a gradient value of the first diagonal direction, and a gradient value of the second diagonal direction with respect to The dispersion of the minimum gradient value;
  • An analysis module configured to output a first code value when the determined dispersion is greater than N times its corresponding minimum value, and output a second code value when the determined dispersion is less than N times its corresponding minimum value, wherein : the minimum value is a minimum standard deviation value or a minimum gradient value, and N is a constant greater than 1;
  • the judging module is configured to determine, according to the output code value, whether the image to be discriminated has a boundary and a boundary direction existing.
  • the present disclosure also provides a display panel including a boundary discriminating device of the above image.
  • FIG. 1 is a flowchart of a method for determining a boundary of an image according to an embodiment of the present disclosure
  • FIG. 2 is a first distribution diagram of an n ⁇ n matrix and an (n+2) ⁇ (n+2) matrix according to an embodiment of the present disclosure
  • FIG. 3 is a schematic diagram of a second distribution of an n ⁇ n matrix and an (n+2) ⁇ (n+2) matrix according to an embodiment of the present disclosure
  • FIG. 4 is a schematic diagram of a third distribution of an n ⁇ n matrix and an (n+2) ⁇ (n+2) matrix according to an embodiment of the present disclosure
  • FIG. 5 is a schematic structural diagram of an apparatus for discriminating an image boundary according to an embodiment of the present disclosure.
  • FIG. 1 is a flowchart of a method for discriminating an image boundary according to an embodiment of the present disclosure.
  • the present disclosure provides a method for discriminating an image boundary, including:
  • Step S101 Receive grayscale parameter component value information of each sub-pixel unit in the image information to be discriminated to form a grayscale parameter value matrix, and set the grayscale parameter value with the grayscale parameter value corresponding to the sub-pixel unit to be processed as a center.
  • the matrix is divided into an n ⁇ n matrix and an (n+2) ⁇ (n+2) matrix, where n represents the number of rowwise or columnwise grayscale parameter values, and n is an odd number greater than 1, and the grayscale parameter is brightness.
  • Parameter or chrominance parameter Parameter or chrominance parameter
  • Step S102 determining, in the n ⁇ n matrix and the (n+2) ⁇ (n+2) matrix, the row-direction gradient value, the column-direction gradient value, and the corresponding gray-scale parameter value corresponding to the sub-pixel unit to be processed. a minimum gradient value of a pair of diagonal direction gradient values and a second diagonal direction gradient value, and a row direction standard deviation value, a column direction standard deviation value, a first diagonal direction standard deviation value, and a second diagonal angle The minimum standard deviation of the line standard deviations;
  • Step S103 respectively determining in the n ⁇ n matrix and the (n+2) ⁇ (n+2) matrix: the row direction standard deviation value, the column direction standard deviation value, the first diagonal direction standard deviation value, and the second pair The dispersion of the standard deviation of the angular direction with respect to the minimum standard deviation, and the gradient of the row direction, the gradient of the column direction, the gradient value of the first diagonal direction, and the gradient value of the second diagonal direction with respect to the minimum gradient value Dispersion
  • Step S104 output a first code value when the determined dispersion is greater than N times its corresponding minimum value; when the determined dispersion is less than N times its corresponding minimum value, output a second code value; wherein: the minimum The value is the minimum standard deviation or the minimum gradient value, and N is a constant greater than one;
  • Step S105 determining, according to the output code value, whether there is a boundary and an existing image to be discriminated In the direction of the boundary.
  • the method for discriminating the boundary of the image provided by the present disclosure may be based on the luminance component or the chrominance component, and the received image information to be discriminated may be processed to obtain a grayscale parameter value corresponding to the sub-pixel unit to be processed.
  • n ⁇ n matrix and (n + 2) ⁇ (n + 2) matrix using gradient, standard deviation and dispersion parameters for the n ⁇ n matrix and (n + 2) ⁇ (n + 2) matrix respectively corresponding to the image
  • the discrimination can be performed to effectively determine whether the image to be discriminated has a boundary and the direction in which the boundary exists. According to the result of the discrimination, the correct filter can be selected to improve the processing effect of the filter on the image, thereby improving the display effect of the display panel.
  • FIG. 2 is a schematic diagram of a first distribution of an n ⁇ n matrix and an (n+2) ⁇ (n+2) matrix according to an embodiment of the present disclosure.
  • the discriminating method provided by the present disclosure will be explained with reference to FIG. 2, which is illustrated as a 3 ⁇ 3 matrix and a 5 ⁇ 5 matrix, where: Y 3,3 represents the grayscale parameter value corresponding to the sub-pixel unit to be processed.
  • Step S102 determining, in the n ⁇ n matrix and the (n+2) ⁇ (n+2) matrix, the row-direction gradient value, the column-direction gradient value, and the gradient value of the gray-scale parameter corresponding to the sub-pixel unit to be processed, a minimum gradient value of the first diagonal direction gradient value and the second diagonal direction gradient value, and a row direction standard deviation value, a column direction standard deviation value, a first diagonal direction standard deviation value, and a second pair
  • the minimum standard deviation of the standard deviation of the corners including:
  • n ⁇ n matrix and the (n+2) ⁇ (n+2) matrix the row-direction gradient value, the column-direction gradient value, and the first diagonal line where the gray-scale parameter values corresponding to the sub-pixel unit to be processed are located
  • the minimum gradient value of the direction gradient value and the second diagonal direction gradient value, and the gradient value in each direction is the sum of the absolute values of two adjacent gray scale parameter values in the direction:
  • G represents the gradient value
  • x represents the direction (the direction in the scheme is the row direction or the column direction)
  • Y xi represents the i-th gray-scale parameter value in the x direction
  • n represents the row-direction or column-direction gray-scale parameter value.
  • the number of in fact, the number of grayscale parameter values in the x direction, but the number of rows and columns in the present disclosure is the same);
  • the first diagonal direction gradient value is the first diagonal direction gradient value
  • the first diagonal direction gradient value is the first diagonal direction gradient value
  • the result of the comparison is that the first minimum gradient value is G V9 and the second minimum gradient value is G LD25 .
  • step S103 respectively determining in the n ⁇ n matrix and the (n+2) ⁇ (n+2) matrix: the row direction standard deviation value, the column direction standard deviation value, the first diagonal direction standard deviation value, and the second The dispersion of the standard deviation of the diagonal direction with respect to the minimum standard deviation, and the gradient of the row direction, the gradient of the column direction, the gradient value of the first diagonal direction, and the gradient value of the second diagonal direction with respect to the minimum gradient value
  • the dispersion including:
  • A represents a second minimum gradient value
  • Dif represents a third deviation.
  • H, V, LD, RD represent the row-to-standard deviation, column-to-standard deviation, first diagonal direction standard deviation, and second in the (n+2) ⁇ (n+2) matrix, respectively
  • A represents the second minimum standard deviation
  • Dif represents the fourth dispersion.
  • step S104 when the determined dispersion is greater than N times the corresponding minimum value, the output
  • the first code value when the determined dispersion is less than N times the corresponding minimum value, the second code value is output, and the minimum value is the minimum standard deviation value or the minimum gradient value, which specifically includes:
  • the first code value is output correspondingly, and if Dif ⁇ N ⁇ A, the second code value is correspondingly output, where: N is a constant greater than 1, and when Dif represents the first dispersion, A represents a first minimum gradient value; when Dif represents a second dispersion, A represents a first minimum standard deviation; when Dif represents a third dispersion, A represents a second minimum gradient value; when Dif represents a fourth dispersion, A represents the second minimum standard deviation.
  • the discriminating process is: the first dispersion degree Dif>NG V9 , correspondingly outputting the first code value, and the first dispersion degree Dif ⁇ NG V9 , correspondingly outputting the second code value;
  • a second dispersion degree Dif>NS H9 correspondingly outputting a first code value
  • a second dispersion degree Dif ⁇ NS H9 correspondingly outputting a second code value
  • the third dispersion degree Dif>NG LD25 correspondingly outputs the first code value
  • the third dispersion degree Dif ⁇ NG LD25 correspondingly outputs the second code value
  • the fourth dispersion degree Dif>NS RD25 correspondingly outputs the first code value
  • the fourth dispersion degree Dif ⁇ NS RD25 correspondingly outputs the second code value.
  • the value of N is At this time, the image boundary discrimination method provided by the present disclosure has the highest accuracy.
  • step S105 it is determined whether the image to be discriminated has a boundary according to the output code value and the boundary direction of the boundary includes:
  • the output code values corresponding to the first dispersion degree, the second dispersion degree, the third dispersion degree, and the fourth dispersion degree are all the first code values, determining that the image to be discriminated has a boundary, and the second gradient value and the There is a boundary in the direction corresponding to the smallest one of the two standard deviation values;
  • the output code value corresponding to the first dispersion degree, the second dispersion degree, and the fourth dispersion degree is the first code value
  • the output code value corresponding to the third dispersion degree is the second code value
  • the output code value corresponding to the first dispersion degree, the second dispersion degree, and the third dispersion degree is the first code value
  • the output code value corresponding to the fourth dispersion degree is the second code value
  • the output code value corresponding to the first dispersion degree and the second dispersion degree is the first code value
  • the third dispersion degree, and the output code value corresponding to the fourth dispersion degree is the second code value
  • the output code values corresponding to the first dispersion degree, the second dispersion degree, the third dispersion degree, and the fourth dispersion degree are all the first code values, determining that the image to be discriminated has a boundary, if G LD25 ⁇ S RD25 , then There is a boundary in the first diagonal direction of the 5 ⁇ 5 matrix; if G LD25 >S RD25 , there is a boundary in the second diagonal direction of the 5 ⁇ 5 matrix;
  • the output code value corresponding to the first dispersion degree, the second dispersion degree, and the fourth dispersion degree is the first code value
  • the output code value corresponding to the third dispersion degree is the second code value
  • the output code value corresponding to the first dispersion degree, the second dispersion degree, and the third dispersion degree is the first code value
  • the output code value corresponding to the fourth dispersion degree is the second code value
  • the first code value is 1 and the second code value is 0.
  • the first code value and the second code value may also be other values as long as the first code and the second code can be distinguished.
  • FIG. 3 is a schematic diagram of a second distribution of an n ⁇ n matrix and an (n+2) ⁇ (n+2) matrix according to an embodiment of the present disclosure
  • the first diagonal direction gradient value is the first diagonal direction gradient value
  • the minimum first gradient value is a second diagonal direction gradient value.
  • the first diagonal direction gradient value is the first diagonal direction gradient value
  • the minimum second gradient value is a vertical gradient value.
  • the first minimum standard deviation is the standard deviation of the second diagonal direction.
  • the second minimum standard deviation is the vertical standard deviation.
  • FIG. 4 is a schematic diagram of a third distribution of an n ⁇ n matrix and an (n+2) ⁇ (n+2) matrix according to an embodiment of the present disclosure.
  • the first diagonal direction gradient value is the first diagonal direction gradient value
  • the minimum first gradient value is the first diagonal direction gradient value.
  • the first diagonal direction gradient value is the first diagonal direction gradient value
  • the minimum second gradient value is the first diagonal direction gradient value.
  • the first minimum standard deviation is the standard deviation of the first diagonal direction.
  • the second minimum standard deviation is the standard deviation of the first diagonal direction.
  • FIG. 5 is a schematic structural diagram of an apparatus for determining a boundary of an image according to an embodiment of the present disclosure
  • the receiving module 1 is configured to receive grayscale parameter component value information of each sub-pixel unit in the image information to be discriminated to form a grayscale parameter value matrix, and set the grayscale parameter value corresponding to the sub-pixel unit to be processed to be gray
  • the order parameter value matrix is divided into an n ⁇ n matrix and an (n+2) ⁇ (n+2) matrix, where n rows or columns represent the number of grayscale parameter values, and n is an odd number greater than 1, gray scale
  • the parameter is a brightness parameter or a chromaticity parameter;
  • a first determining module 2 configured to determine, in the n ⁇ n matrix and the (n+2) ⁇ (n+2) matrix, the row-direction gradient value and the column where the gray-scale parameter value corresponding to the sub-pixel unit to be processed is located a gradient value, a first gradient direction gradient value, and a minimum gradient value in the second diagonal direction gradient value, and a row direction standard deviation value, a column direction standard deviation value, a first diagonal direction standard deviation value, And a minimum standard deviation of the second diagonal standard deviation;
  • the second determining module 3 is configured to respectively determine the n ⁇ n matrix and the (n+2) ⁇ (n+2) matrix: the row direction standard deviation value, the column direction standard deviation value, and the first diagonal direction standard deviation a value and a dispersion of a standard deviation of the second diagonal direction with respect to a minimum standard deviation, and a row gradient value, a column gradient value, a first diagonal direction gradient value, and a second diagonal direction gradient value The dispersion of the minimum gradient value;
  • the analyzing module 4 is configured to output a first code value when the determined dispersion is greater than N times its corresponding minimum value, and output a second when the determined dispersion is less than N times its corresponding minimum value Code value, where: the minimum value is the minimum standard deviation value or the minimum gradient value, and N is a constant greater than 0;
  • the determining module 5 is configured to determine, according to the output code value, whether the image to be discriminated has a boundary and a boundary direction that exists.
  • the present disclosure also provides a display panel including the above-described image boundary discriminating device.
  • the display panel provided by the present disclosure has a better display effect based on the advantages of the discriminating device.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Hardware Design (AREA)
  • Image Analysis (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Facsimile Image Signal Circuits (AREA)

Abstract

一种图像的边界判别方法、装置和显示面板,用以有效地判别图像是否有边界以及边界的方向。其中判别方法包括接收待判别的图像信息以形成灰阶参数值矩阵,并以待处理的子像素单元对应的灰阶参数值为中心将灰阶参数值矩阵划分为n×n矩阵和(n+2)×(n+2)矩阵(S101);分别确定在n×n矩阵和(n+2)×(n+2)矩阵中:待处理的子像素单元对应的灰阶参数值所在的行向、列向、第一对角线方向和第二对角线方向的最小梯度值、最小标准差值、以及相对于最小标准差值的离散度、相对于最小梯度值的离散度(S102;S103);当确定的离散度大于N倍的与其对应的最小值时,输出第一代码值,当确定的离散度小于N倍的与其对应的最小值时,输出第二代码值(S104),以及根据输出的代码值确定待判别的图像是否存在边界以及所存在的边界方向(S105)。

Description

图像的边界判别方法、装置和显示面板 技术领域
本公开涉及显示技术领域,尤其涉及一种图像的边界判别方法、装置和显示面板。
背景技术
虚拟算法是一种新型的图像处理手段,针对特定的子像素排列方式,虚拟算法能够将较低的物理分辨率提升到较高的虚拟分辨率,优化显示效果,提示人眼的视觉体验。
虚拟算法一般采用滤波器来处理输入信号,通过滤波器对输入信号重新采样分配,实现虚拟显示。但虚拟算法中的滤波器并不能准确处理各种图像类型,比如一些滤波器在斜线图形下会出现彩色边缘,一般把这种现象叫做颜色混叠。为了减少颜色混叠效应,一方面需要不断测试反馈,优化滤波器,改善显示效果;另一方面,需要针对不同的图像类型,或者同一图像的不同位置采用不同的滤波器处理,例如:对于无边界的位置通常采用通用滤波器,而对于有边界的位置通常采用边界滤波器。
为了实现分情况滤波,需要对输入数据的亮度信号进行处理,设计判别流程,识别其中的锐化边界,对特定的横线、竖线、左对角线、右对角线进行分类,从而采用不同的滤波器。
因此,如何有效地判别图像的边界,是本领域技术人员亟需解决的技术问题。
发明内容
有鉴于此,本公开实施例提供了一种图像的边界判别方法和装置,用以有效地判别图像是否有边界以及边界的方向,提高显示面板的显示效果。
相应地,本公开提供如下技术方案:
本公开提供了一种图像的边界判别方法,包括:
接收待判别的图像信息中每个子像素单元的灰阶参数分量值信息以形成灰阶参数值矩阵,并以待处理的子像素单元对应的灰阶参数值为中心将所述灰阶参数值矩阵划分为n×n矩阵和(n+2)×(n+2)矩阵,其中n代表行向或列向 灰阶参数值的个数,且n为大于1的奇数,所述灰阶参数为亮度参数或色度参数;
分别确定在n×n矩阵和(n+2)×(n+2)矩阵中:待处理的子像素单元对应的灰阶参数值所在的行向梯度值、列向梯度值、第一对角线方向梯度值和第二对角线方向梯度值中的最小梯度值,以及行向标准差值、列向标准差值、第一对角线方向标准差值、和第二对角线标准差值中的最小标准差值;
分别确定在n×n矩阵和(n+2)×(n+2)矩阵中:行向标准差值、列向标准差值、第一对角线方向标准差值以及第二对角线方向标准差值相对于最小标准差值的离散度,以及行向梯度值、列向梯度值、第一对角线方向梯度值以及第二对角线方向梯度值相对于最小梯度值的离散度;
当确定的离散度大于N倍的与其对应的最小值时,输出第一代码值;当确定的离散度小于N倍的与其对应的最小值时,输出第二代码值,其中:所述最小值为最小标准差值或最小梯度值,N为大于1的常数;
根据输出的代码值确定待判别的图像是否存在边界以及所存在的边界方向。
本公开提供的图像的边界判别方法,可以基于亮度分量也可以基于色度分量,对接收到的待判别的图像信息进行处理,得到以待处理的子像素单元对应的灰阶参数值为中心的n×n矩阵和(n+2)×(n+2)矩阵,采用梯度、标准差以及离散度等参数对n×n矩阵和(n+2)×(n+2)矩阵分别对应的图像进行判别,能够有效的确定待判别图像是否存在边界,以及边界存在的方向。可以根据判别的结果,选择正确的滤波器,提高滤波器对图像的处理效果,进而提高显示面板的显示效果。
在一些可选的实施方式中,所述分别确定在n×n矩阵和(n+2)×(n+2)矩阵中:待处理的子像素单元对应的灰阶参数值所在的行向梯度值、列向梯度值、第一对角线方向梯度值和第二对角线方向梯度值中的最小梯度值,以及行向标准差值、列向标准差值、第一对角线方向标准差值、和第二对角线标准差值中的最小标准差值,具体包括:
确定在n×n矩阵和(n+2)×(n+2)矩阵中:待处理的子像素单元对应的灰阶参数值所在的行向梯度值、列向梯度值、第一对角线方向梯度值和第二对角线方向梯度值中的最小梯度值,每一方向上梯度值为该方向上相邻两个灰阶参数值的绝对值之和:
Figure PCTCN2014092864-appb-000001
其中:G代表梯度值,x代表方向, Yxi代表x方向上的第i个灰阶参数值,n代表行向或列向灰阶参数值的个数;
比较n×n矩阵中的行向梯度值、列向梯度值、第一对角线方向梯度值和第二对角线方向梯度值,得到第一最小梯度值,比较(n+2)×(n+2)矩阵中的行向梯度值、列向梯度值、第一对角线方向梯度值和第二对角线方向梯度值得到第二最小梯度值;
根据公式:
Figure PCTCN2014092864-appb-000002
确定在n×n矩阵和(n+2)×(n+2)矩阵中:待处理的子像素单元对应的灰阶参数值所在的行向标准差值、列向标准差值、第一对角线方向标准差值和第二对角线方向标准差值,其中:S代表标准差值,x代表方向,Yxi代表x方向上的第i个灰阶参数值,
Figure PCTCN2014092864-appb-000003
代表x方向上的灰阶参数值的平均值,n代表行向或列向灰阶参数值的个数,
Figure PCTCN2014092864-appb-000004
比较n×n矩阵中的行向标准差值、列向标准差值、第一对角线方向标准差值和第二对角线方向标准差值,得到第一最小标准差值,比较(n+2)×(n+2)矩阵中的行向标准差值、列向标准差值、第一对角线方向标准差值和第二对角线方向标准差值得到第二最小标准差值。
在一些可选的实施方式中,所述分别确定在n×n矩阵和(n+2)×(n+2)矩阵中:行向标准差值、列向标准差值、第一对角线方向标准差值以及第二对角线方向标准差值相对于最小标准差值的离散度,以及行向梯度值、列向梯度值、第一对角线方向梯度值以及第二对角线方向梯度值相对于最小梯度值的离散度,具体包括:
根据公式:
Figure PCTCN2014092864-appb-000005
确定在n×n矩阵和(n+2)×(n+2)矩阵中:行向标准差值、列向标准差值、第一对角线方向标准差值以及第二对角线方向标准差值相对于最小标准差值的离散度,以及行向梯度值、列向梯度值、第一对角线方向梯度值以及第二对角线方向梯度值相对于最小梯度值的离散度,其中:当H、V、LD、RD分别代表n×n矩阵中的行向梯度值、列向梯度值、第一对角线方向梯度值和第二对角线方向梯度值时,A代表第一最小梯度值,Dif代表第一离散度;当H、V、LD、RD分别代表n×n矩阵中的行向标准差值、列向标准差值、第一对角线方向标准差值和第二对角线方向标准差值时,A代表第一最小标准差值,Dif代表第二离散度;当H、V、LD、RD分别代表(n+2)×(n+2)矩阵中的行向梯度值、列向梯度值、第一对角线方向梯度值和第二对角线方向梯度值时,A代表第二最小梯度值,Dif代表第三离散度;当H、V、LD、RD分别代表(n+2)×(n+2)矩阵中的行向标准差值、列向标准差值、第一对角线方向标准差值和第二对角线 方向标准差值时,A代表第二最小标准差值,Dif代表第四离散度。
在一些可选的实施方式中,所述当确定的离散度大于N倍的与其对应的最小值时,输出第一代码值,当确定的离散度小于N倍的与其对应的最小值时,输出第二代码值,所述最小值为最小标准差值或最小梯度值,具体包括:
若Dif>N×A,对应地输出第一代码值,若Dif<N×A,对应地输出第二代码值,其中:N为大于1的常数,当Dif代表第一离散度时,A代表第一最小梯度值;当Dif代表第二离散度时,A代表第一最小标准差值;当Dif代表第三离散度时,A代表第二最小梯度值;当Dif代表第四离散度时,A代表第二最小标准差值。
在一些可选的实施方式中,所述N值为1.4~2.0。
在一些可选的实施方式中,所述N值为
Figure PCTCN2014092864-appb-000006
在一些可选的实施方式中,所述根据输出的代码值确定待判别的图像是否存在边界以及所存在的边界方向具体包括:
当第一离散度、第二离散度、第三离散度以及第四离散度对应的输出代码值均为第二代码值时,则确定待判别的图像无边界;
当第一离散度、第二离散度、第三离散度以及第四离散度对应的输出代码值均为第一代码值时,则确定待判别的图像存在边界,且在第二梯度值和第二标准差值中最小的一个值对应的方向上存在边界;
当第一离散度、第二离散度以及第四离散度对应的输出代码值为第一代码值、第三离散度对应的输出代码值为第二代码值时,则确定待判别的图像存在边界,且在第一梯度值和第一标准差值中最小的一个值对应的方向上存在边界;
当第一离散度、第二离散度以及第三离散度对应的输出代码值为第一代码值、第四离散度对应的输出代码值为第二代码值时,则确定待判别的图像存在边界,且在第一梯度值和第一标准差值中最小的一个值对应的方向上存在边界;
当第一离散度和第二离散度对应的输出代码值为第一代码值、第三离散度和第四离散度对应的输出代码值为第二代码值时,则确定待判别的图像存在边界,且在第一梯度值和第一标准差值中最小的一个值对应的方向上存在边界。
在一些可选的实施方式中,所述第一代码值为1,所述第二代码值为0。
本公开还提供了一种图像的边界判别装置,包括:
接收模块,用于接收待判别的图像信息中每个子像素单元的灰阶参数分量值信息以形成灰阶参数值矩阵,并以待处理的子像素单元对应的灰阶参数值为中心将所述灰阶参数值矩阵划分为n×n矩阵和(n+2)×(n+2)矩阵,其中n代表行向或列向灰阶参数值的个数,且n为大于1的奇数,所述灰阶参数为亮度参数或色度参数;
第一确定模块,用于分别确定在n×n矩阵和(n+2)×(n+2)矩阵中:待处理的子像素单元对应的灰阶参数值所在的行向梯度值、列向梯度值、第一对角线方向梯度值和第二对角线方向梯度值中的最小梯度值,以及行向标准差值、列向标准差值、第一对角线方向标准差值、和第二对角线标准差值中的最小标准差值;
第二确定模块,用于分别确定在n×n矩阵和(n+2)×(n+2)矩阵中:行向标准差值、列向标准差值、第一对角线方向标准差值以及第二对角线方向标准差值相对于最小标准差值的离散度,以及行向梯度值、列向梯度值、第一对角线方向梯度值以及第二对角线方向梯度值相对于最小梯度值的离散度;
分析模块,用于在确定的离散度大于N倍的与其对应的最小值时,输出第一代码值,当确定的离散度小于N倍的与其对应的最小值时,输出第二代码值,其中:所述最小值为最小标准差值或最小梯度值,N为大于1的常数;
判断模块,用于根据输出的代码值确定待判别的图像是否存在边界以及所存在的边界方向。
本公开还提供了一种显示面板,包括上述图像的边界判别装置。
附图说明
图1为本公开实施例提供的图像的边界判别方法流程图;
图2为本公开实施例提供的n×n矩阵和(n+2)×(n+2)矩阵第一种分布示意图;
图3为本公开实施例提供的n×n矩阵和(n+2)×(n+2)矩阵第二种分布示意图;
图4为本公开实施例提供的n×n矩阵和(n+2)×(n+2)矩阵第三种分布示意图;
图5为本公开实施例提供的图像边界的判别装置结构示意图。
具体实施方式
下面将结合本公开实施例中的附图,对本公开实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本公开一部分实施例,而不是全部的实施例。基于本公开中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本公开专利保护的范围。
为了实现分情况滤波,需要对输入数据的亮度信号进行处理,设计判别流程,识别其中的锐化边界,对特定的横线、竖线、左对角线、右对角线进行分类,从而采用不同的滤波器。
为了便于对图像边界进行判别,如图1所示,图1为本公开实施例提供的图像的边界判别方法流程图,本公开提供了一种图像的边界判别方法,包括:
步骤S101:接收待判别的图像信息中每个子像素单元的灰阶参数分量值信息以形成灰阶参数值矩阵,并以待处理的子像素单元对应的灰阶参数值为中心将灰阶参数值矩阵划分为n×n矩阵和(n+2)×(n+2)矩阵,其中n代表行向或列向灰阶参数值的个数,且n为大于1的奇数,灰阶参数为亮度参数或色度参数;
步骤S102:分别确定在n×n矩阵和(n+2)×(n+2)矩阵中:待处理的子像素单元对应的灰阶参数值所在的行向梯度值、列向梯度值、第一对角线方向梯度值和第二对角线方向梯度值中的最小梯度值,以及行向标准差值、列向标准差值、第一对角线方向标准差值、和第二对角线标准差值中的最小标准差值;
步骤S103:分别确定在n×n矩阵和(n+2)×(n+2)矩阵中:行向标准差值、列向标准差值、第一对角线方向标准差值以及第二对角线方向标准差值相对于最小标准差值的离散度,以及行向梯度值、列向梯度值、第一对角线方向梯度值以及第二对角线方向梯度值相对于最小梯度值的离散度;
步骤S104:当确定的离散度大于N倍的与其对应的最小值时,输出第一代码值;当确定的离散度小于N倍的与其对应的最小值时,输出第二代码值;其中:最小值为最小标准差值或最小梯度值,N为大于1的常数;
步骤S105:根据输出的代码值确定待判别的图像是否存在边界以及所存 在的边界方向。
本公开提供的图像的边界判别方法,可以基于亮度分量也可以基于色度分量,对接收到的待判别的图像信息进行处理,得到以待处理的子像素单元对应的灰阶参数值为中心的n×n矩阵和(n+2)×(n+2)矩阵,采用梯度、标准差以及离散度等参数对n×n矩阵和(n+2)×(n+2)矩阵分别对应的图像进行判别,能够有效的确定待判别图像是否存在边界,以及边界存在的方向。可以根据判别的结果,选择正确的滤波器,提高滤波器对图像的处理效果,进而提高显示面板的显示效果。
如图2所示,图2为本公开实施例提供的n×n矩阵和(n+2)×(n+2)矩阵第一种分布示意图,为了便于理解本公开提供的判别方法,下面将结合图2对本公开提供的判别方法进行解释说明,图示为3×3矩阵和5×5矩阵,其中:Y3,3代表待处理的子像素单元对应的灰阶参数值。
上述步骤S102:分别确定在n×n矩阵和(n+2)×(n+2)矩阵中:待处理的子像素单元对应的灰阶参数值所在的行向梯度值、列向梯度值、第一对角线方向梯度值和第二对角线方向梯度值中的最小梯度值,以及行向标准差值、列向标准差值、第一对角线方向标准差值、和第二对角线标准差值中的最小标准差值,具体包括:
确定在n×n矩阵和(n+2)×(n+2)矩阵中:待处理的子像素单元对应的灰阶参数值所在的行向梯度值、列向梯度值、第一对角线方向梯度值和第二对角线方向梯度值中的最小梯度值,每一方向上梯度值为该方向上相邻两个灰阶参数值的绝对值之和:
Figure PCTCN2014092864-appb-000007
其中:G代表梯度值,x代表方向(本方案中的方向为行向或列向),Yxi代表x方向上的第i个灰阶参数值,n代表行向或列向灰阶参数值的个数(实际上是x方向上的灰阶参数值的个数,但本公开中行向和列向个数相同);
以图2所示矩阵为例,在3×3矩阵中:
水平方向梯度值:
Figure PCTCN2014092864-appb-000008
竖直方向梯度值:
Figure PCTCN2014092864-appb-000009
第一对角线方向梯度值:
Figure PCTCN2014092864-appb-000010
第二对角线方向梯度值:
Figure PCTCN2014092864-appb-000011
在5×5矩阵中:
水平方向梯度值:
Figure PCTCN2014092864-appb-000012
竖直方向梯度值:
Figure PCTCN2014092864-appb-000013
第一对角线方向梯度值:
Figure PCTCN2014092864-appb-000014
第二对角线方向梯度值:
Figure PCTCN2014092864-appb-000015
比较n×n矩阵中的行向梯度值、列向梯度值、第一对角线方向梯度值和第二对角线方向梯度值,得到第一最小梯度值,比较(n+2)×(n+2)矩阵中的行向梯度值、列向梯度值、第一对角线方向梯度值和第二对角线方向梯度值得到第二最小梯度值;
如图2中,假设比较后的结果为第一最小梯度值为GV9,第二最小梯度值为GLD25
根据公式:
Figure PCTCN2014092864-appb-000016
确定在n×n矩阵和(n+2)×(n+2)矩阵中:待处理的子像素单元对应的灰阶参数值所在的行向标准差值、列向标准差值、第一对角线方向标准差值和第二对角线方向标准差值,其中:S代表标准差值,x代表方向,Yxi代表x方向上的第i个灰阶参数值,
Figure PCTCN2014092864-appb-000017
代表x方向上的灰阶参数值的平均值,n代表行向或列向灰阶参数值的个数,
Figure PCTCN2014092864-appb-000018
以图2所示矩阵为例,在3×3矩阵中:
水平方向标准差值:
Figure PCTCN2014092864-appb-000019
Figure PCTCN2014092864-appb-000020
竖直方向标准差值:
Figure PCTCN2014092864-appb-000021
Figure PCTCN2014092864-appb-000022
第一对角线方向标准差值:
Figure PCTCN2014092864-appb-000023
Figure PCTCN2014092864-appb-000024
第二对角线方向标准差值:
Figure PCTCN2014092864-appb-000025
Figure PCTCN2014092864-appb-000026
在5×5矩阵中:
水平方向标准差值:
Figure PCTCN2014092864-appb-000027
Figure PCTCN2014092864-appb-000028
竖直方向标准差值:
Figure PCTCN2014092864-appb-000029
Figure PCTCN2014092864-appb-000030
第一对角线方向标准差值:
Figure PCTCN2014092864-appb-000031
Figure PCTCN2014092864-appb-000032
第二对角线方向标准差值:
Figure PCTCN2014092864-appb-000033
Figure PCTCN2014092864-appb-000034
比较n×n矩阵中的行向标准差值、列向标准差值、第一对角线方向标准差值和第二对角线方向标准差值,得到第一最小标准差值,比较(n+2)×(n+2)矩阵中的行向标准差值、列向标准差值、第一对角线方向标准差值和第二对角线方向标准差值得到第二最小标准差值。
以图2所示矩阵为例,假设比较后的结果为第一最小标准差值为SH9,第二最小标准差值为SRD25
在步骤S103:分别确定在n×n矩阵和(n+2)×(n+2)矩阵中:行向标准差值、列向标准差值、第一对角线方向标准差值以及第二对角线方向标准差值相对于最小标准差值的离散度,以及行向梯度值、列向梯度值、第一对角线方向梯度值以及第二对角线方向梯度值相对于最小梯度值的离散度,具体包括:
根据公式:
Figure PCTCN2014092864-appb-000035
确定在n×n矩阵和(n+2)×(n+2)矩阵中:行向标准差值、列向标准差值、第一对角线方向标准差值以及第二对角线方向标准差值相对于最小标准差值的离散度,以及行向梯度值、列向梯度值、第一对角线方向梯度值以及第二对角线方向梯度值相对于最小梯度值的离散度,其中:当H、V、LD、RD分别代表n×n矩阵中的行向梯度值、列向梯度值、第一对角线方向梯度值和第二对角线方向梯度值时,A代表第一最小梯度值,Dif代表第一离散度;当H、V、LD、RD分别代表n×n矩阵中的行向标准差值、列向标准差值、第一对角线方向标准差值和第二对角线方向标准差值时,A代表第一最小标准差值,Dif代表第二离散度;当H、V、LD、RD分别代表(n+2)×(n+2)矩阵中的行向梯度值、列向梯度值、第一对角线方向梯度值和第二对角线方向梯度值时,A代表第二最小梯度值,Dif代表第三离散度;当H、V、LD、RD分别代表(n+2)×(n+2)矩阵中的行向标准差值、列向标准差值、第一对角线方向标准差值和第二对角线方向标准差值时,A代表第二最小标准差值,Dif代表第四离散度。
以图2所示矩阵为例,第一离散度:
Figure PCTCN2014092864-appb-000036
第二离散度:
Figure PCTCN2014092864-appb-000037
第三离散度:
Figure PCTCN2014092864-appb-000038
第四离散度:
Figure PCTCN2014092864-appb-000039
步骤S104中,当确定的离散度大于N倍的与其对应的最小值时,输出 第一代码值,当确定的离散度小于N倍的与其对应的最小值时,输出第二代码值,最小值为最小标准差值或最小梯度值,具体包括:
若Dif>N×A,对应地输出第一代码值,若Dif<N×A,对应地输出第二代码值,其中:N为大于1的常数,当Dif代表第一离散度时,A代表第一最小梯度值;当Dif代表第二离散度时,A代表第一最小标准差值;当Dif代表第三离散度时,A代表第二最小梯度值;当Dif代表第四离散度时,A代表第二最小标准差值。
以图2所示矩阵为例,判别过程为:第一离散度Dif>NGV9,对应地输出第一代码值,第一离散度Dif<NGV9,对应地输出第二代码值;
第二离散度Dif>NSH9,对应地输出第一代码值,第二离散度Dif<NSH9,对应地输出第二代码值;
第三离散度Dif>NGLD25,对应地输出第一代码值,第三离散度Dif<NGLD25,对应地输出第二代码值;
第四离散度Dif>NSRD25,对应地输出第一代码值,第四离散度Dif<NSRD25,对应地输出第二代码值。
通过多次试验可知,N值为1.4~2,0范围内的值时,本公开提高的图像边界判别方法的准确度较高。
可选地,N值为
Figure PCTCN2014092864-appb-000040
此时本公开提供的图像边界判别方法的准确度最高。
在步骤S105中:根据输出的代码值确定待判别的图像是否存在边界以及所存在的边界方向具体包括:
当第一离散度、第二离散度、第三离散度以及第四离散度对应的输出代码值均为第二代码值时,则确定待判别的图像无边界;
当第一离散度、第二离散度、第三离散度以及第四离散度对应的输出代码值均为第一代码值时,则确定待判别的图像存在边界,且在第二梯度值和第二标准差值中最小的一个值对应的方向上存在边界;
当第一离散度、第二离散度以及第四离散度对应的输出代码值为第一代码值、第三离散度对应的输出代码值为第二代码值时,则确定待判别的图像存在边界,且在第一梯度值和第一标准差值中最小的一个值对应的方向上存在边界;
当第一离散度、第二离散度以及第三离散度对应的输出代码值为第一代码值、第四离散度对应的输出代码值为第二代码值时,则确定待判别的图像 存在边界,且在第一梯度值和第一标准差值中最小的一个值对应的方向上存在边界;
当第一离散度和第二离散度对应的输出代码值为第一代码值、第三离散度和第四离散度对应的输出代码值为第二代码值时,则确定待判别的图像存在边界,且在第一梯度值和第一标准差值中最小的一个值对应的方向上存在边界。
以图2为例,当第一离散度、第二离散度、第三离散度以及第四离散度对应的输出代码值均为第二代码值时,则确定待判别的图像无边界;
当第一离散度、第二离散度、第三离散度以及第四离散度对应的输出代码值均为第一代码值时,则确定待判别的图像存在边界,若GLD25<SRD25,则在5×5矩阵的第一对角线方向上存在边界;若GLD25>SRD25,则在5×5矩阵的第二对角线方向上存在边界;
当第一离散度、第二离散度以及第四离散度对应的输出代码值为第一代码值、第三离散度对应的输出代码值为第二代码值时,则确定待判别的图像存在边界,若GV9<SH9,则在3×3矩阵的竖直方向上存在边界;若GV9>SH9,则在3×3矩阵的水平方向上存在边界;
当第一离散度、第二离散度以及第三离散度对应的输出代码值为第一代码值、第四离散度对应的输出代码值为第二代码值时,则确定待判别的图像存在边界,若GV9<SH9,则在3×3矩阵的竖直方向上存在边界;若GV9>SH9,则在3×3矩阵的水平方向上存在边界;
当第一离散度和第二离散度对应的输出代码值为第一代码值、第三离散度和第四离散度对应的输出代码值为第二代码值时,则确定待判别的图像存在边界,若GV9<SH9,则在3×3矩阵的竖直方向上存在边界;若GV9>SH9,则在3×3矩阵的水平方向上存在边界。
可选的,第一代码值为1,第二代码值为0。当然第一代码值和第二代码值也可以为其它数值,只要可以区分开第一代码和第二代码即可。
下面将结合具体亮度参数值对本公开提供的图像的边界判别方法进行详细说明:
如图3所示,图3为本公开实施例提供的n×n矩阵和(n+2)×(n+2)矩阵第二种分布示意图;
在3×3矩阵中:
水平方向梯度值:
Figure PCTCN2014092864-appb-000041
竖直方向梯度值:
Figure PCTCN2014092864-appb-000042
第一对角线方向梯度值:
Figure PCTCN2014092864-appb-000043
第二对角线方向梯度值:
Figure PCTCN2014092864-appb-000044
比较上述梯度值可知,最小第一梯度值为第二对角线方向梯度值。
在5×5矩阵中:
水平方向梯度值:
Figure PCTCN2014092864-appb-000045
竖直方向梯度值:
Figure PCTCN2014092864-appb-000046
第一对角线方向梯度值:
Figure PCTCN2014092864-appb-000047
第二对角线方向梯度值:
Figure PCTCN2014092864-appb-000048
比较上述梯度值可知,最小第二梯度值为竖直方向梯度值。
在3×3矩阵中:
水平方向标准差值:
Figure PCTCN2014092864-appb-000049
Figure PCTCN2014092864-appb-000050
竖直方向标准差值:
Figure PCTCN2014092864-appb-000051
Figure PCTCN2014092864-appb-000052
第一对角线方向标准差值:
Figure PCTCN2014092864-appb-000053
Figure PCTCN2014092864-appb-000054
第二对角线方向标准差值:
Figure PCTCN2014092864-appb-000055
Figure PCTCN2014092864-appb-000056
比较上述标准差可知,第一最小标准差为第二对角线方向标准差。
在5×5矩阵中:
水平方向标准差值:
Figure PCTCN2014092864-appb-000057
Figure PCTCN2014092864-appb-000058
竖直方向标准差值:
Figure PCTCN2014092864-appb-000059
Figure PCTCN2014092864-appb-000060
第一对角线方向标准差值:
Figure PCTCN2014092864-appb-000061
Figure PCTCN2014092864-appb-000062
第二对角线方向标准差值:
Figure PCTCN2014092864-appb-000063
Figure PCTCN2014092864-appb-000064
比较上述标准差可知,第二最小标准差为竖直方向标准差。
第一离散度:
Figure PCTCN2014092864-appb-000065
第二离散度:
Figure PCTCN2014092864-appb-000066
第三离散度:
Figure PCTCN2014092864-appb-000067
第四离散度:
Figure PCTCN2014092864-appb-000068
进行判别:第一离散度
Figure PCTCN2014092864-appb-000069
输出1,第二离散度
Figure PCTCN2014092864-appb-000070
输出1,第三离散度
Figure PCTCN2014092864-appb-000071
输出0,第四离散度
Figure PCTCN2014092864-appb-000072
输出0,则可以判别该图像存在边界,且边界方向为3×3矩阵第二对角线方向。
图4为本公开实施例提供的n×n矩阵和(n+2)×(n+2)矩阵第三种分布示意图。
在3×3矩阵中:
水平方向梯度值:
Figure PCTCN2014092864-appb-000073
竖直方向梯度值:
Figure PCTCN2014092864-appb-000074
第一对角线方向梯度值:
Figure PCTCN2014092864-appb-000075
第二对角线方向梯度值:
Figure PCTCN2014092864-appb-000076
比较上述梯度值可知,最小第一梯度值为第一对角线方向梯度值。
在5×5矩阵中:
水平方向梯度值:
Figure PCTCN2014092864-appb-000077
竖直方向梯度值:
Figure PCTCN2014092864-appb-000078
第一对角线方向梯度值:
Figure PCTCN2014092864-appb-000079
第二对角线方向梯度值:
Figure PCTCN2014092864-appb-000080
比较上述梯度值可知,最小第二梯度值为第一对角线方向梯度值。
在3×3矩阵中:
水平方向标准差值:
Figure PCTCN2014092864-appb-000081
Figure PCTCN2014092864-appb-000082
竖直方向标准差值:
Figure PCTCN2014092864-appb-000083
Figure PCTCN2014092864-appb-000084
第一对角线方向标准差值:
Figure PCTCN2014092864-appb-000085
Figure PCTCN2014092864-appb-000086
第二对角线方向标准差值:
Figure PCTCN2014092864-appb-000087
Figure PCTCN2014092864-appb-000088
比较上述标准差可知,第一最小标准差为第一对角线方向标准差。
在5×5矩阵中:
水平方向标准差值:
Figure PCTCN2014092864-appb-000089
Figure PCTCN2014092864-appb-000090
竖直方向标准差值:
Figure PCTCN2014092864-appb-000091
Figure PCTCN2014092864-appb-000092
第一对角线方向标准差值:
Figure PCTCN2014092864-appb-000093
Figure PCTCN2014092864-appb-000094
第二对角线方向标准差值:
Figure PCTCN2014092864-appb-000095
Figure PCTCN2014092864-appb-000096
比较上述标准差可知,第二最小标准差为第一对角线方向标准差。
第一离散度:
Figure PCTCN2014092864-appb-000097
第二离散度:
Figure PCTCN2014092864-appb-000098
第三离散度:
Figure PCTCN2014092864-appb-000099
第四离散度:
Figure PCTCN2014092864-appb-000100
进行判别:第一离散度
Figure PCTCN2014092864-appb-000101
输出1,第二离散度
Figure PCTCN2014092864-appb-000102
输出1,第三离散度
Figure PCTCN2014092864-appb-000103
输出1,第四离散度
Figure PCTCN2014092864-appb-000104
输出1,则可以判别该图像存在边界,且边界方向为5×5矩阵的第一对角线方向。
需要说明的是,上述方法适用于任何子像素排布的图像。
如图5所示,图5为本公开实施例提供的图像的边界判别装置结构示意图;本公开还提供的图像的边界判别装置,包括:
接收模块1,用于接收待判别的图像信息中每个子像素单元的灰阶参数分量值信息以形成灰阶参数值矩阵,并以待处理的子像素单元对应的灰阶参数值为中心将灰阶参数值矩阵划分为n×n矩阵和(n+2)×(n+2)矩阵,其中n行向或列向代表灰阶参数值的个数,且n为大于1的奇数,灰阶参数为亮度参数或色度参数;
第一确定模块2,用于分别确定在n×n矩阵和(n+2)×(n+2)矩阵中:待处理的子像素单元对应的灰阶参数值所在的行向梯度值、列向梯度值、第一对角线方向梯度值和第二对角线方向梯度值中的最小梯度值,以及行向标准差值、列向标准差值、第一对角线方向标准差值、和第二对角线标准差值中的最小标准差值;
第二确定模块3,用于分别确定在n×n矩阵和(n+2)×(n+2)矩阵中:行向标准差值、列向标准差值、第一对角线方向标准差值以及第二对角线方向标准差值相对于最小标准差值的离散度,以及行向梯度值、列向梯度值、第一对角线方向梯度值以及第二对角线方向梯度值相对于最小梯度值的离散度;
分析模块4,用于在确定的离散度大于N倍的与其对应的最小值时,输出第一代码值,当确定的离散度小于N倍的与其对应的最小值时,输出第二 代码值,其中:最小值为最小标准差值或最小梯度值,N为大于0的常数;
判断模块5,用于根据输出的代码值确定待判别的图像是否存在边界以及所存在的边界方向。
本公开还提供了一种显示面板,包括上述图像的边界判别装置,基于上述判别装置的优点,本公开提供的显示面板,具有较好的显示效果。
显然,本领域的技术人员可以对本公开进行各种改动和变型而不脱离本发明的精神和范围。这样,倘若本公开的这些修改和变型属于本发明权利要求及其等同技术的范围之内,则本发明也意图包含这些改动和变型在内。
本申请要求于2014年8月21日递交的中国专利申请第201410415432.9号的优先权,在此全文引用上述中国专利申请公开的内容以作为本申请的一部分。

Claims (10)

  1. 一种图像的边界判别方法,包括:
    接收待判别的图像信息中每个子像素单元的灰阶参数分量值信息以形成灰阶参数值矩阵,并以待处理的子像素单元对应的灰阶参数值为中心将所述灰阶参数值矩阵划分为n×n矩阵和(n+2)×(n+2)矩阵,其中n代表行向或列向灰阶参数值的个数,且n为大于1的奇数,所述灰阶参数为亮度参数或色度参数;
    分别确定在n×n矩阵和(n+2)×(n+2)矩阵中:待处理的子像素单元对应的灰阶参数值所在的行向梯度值、列向梯度值、第一对角线方向梯度值和第二对角线方向梯度值中的最小梯度值,以及行向标准差值、列向标准差值、第一对角线方向标准差值、和第二对角线标准差值中的最小标准差值;
    分别确定在n×n矩阵和(n+2)×(n+2)矩阵中:行向标准差值、列向标准差值、第一对角线方向标准差值以及第二对角线方向标准差值相对于最小标准差值的离散度,以及行向梯度值、列向梯度值、第一对角线方向梯度值以及第二对角线方向梯度值相对于最小梯度值的离散度;
    当确定的离散度大于N倍的与其对应的最小值时,输出第一代码值;当确定的离散度小于N倍的与其对应的最小值时,输出第二代码值,其中:所述最小值为最小标准差值或最小梯度值,N为大于1的常数;
    根据输出的代码值确定待判别的图像是否存在边界以及所存在的边界方向。
  2. 如权利要求1所述的图像的边界判别方法,其中,所述分别确定在n×n矩阵和(n+2)×(n+2)矩阵中:待处理的子像素单元对应的灰阶参数值所在的行向梯度值、列向梯度值、第一对角线方向梯度值和第二对角线方向梯度值中的最小梯度值,以及行向标准差值、列向标准差值、第一对角线方向标准差值、和第二对角线标准差值中的最小标准差值,包括:
    确定在n×n矩阵和(n+2)×(n+2)矩阵中:待处理的子像素单元对应的灰阶参数值所在的行向梯度值、列向梯度值、第一对角线方向梯度值和第二对角线方向梯度值中的最小梯度值,每一方向上梯度值为该方向上相邻两个灰阶参数值的绝对值之和:
    Figure PCTCN2014092864-appb-100001
    其中:G代表梯度值,x代表方向,Yxi代表x方向上的第i个灰阶参数值,n代表行向或列向灰阶参数值的个数;
    比较n×n矩阵中的行向梯度值、列向梯度值、第一对角线方向梯度值和 第二对角线方向梯度值,得到第一最小梯度值,比较(n+2)×(n+2)矩阵中的行向梯度值、列向梯度值、第一对角线方向梯度值和第二对角线方向梯度值得到第二最小梯度值;
    根据公式:
    Figure PCTCN2014092864-appb-100002
    确定在n×n矩阵和(n+2)×(n+2)矩阵中:待处理的子像素单元对应的灰阶参数值所在的行向标准差值、列向标准差值、第一对角线方向标准差值和第二对角线方向标准差值,其中:S代表标准差值,x代表方向,Yxi代表x方向上的第i个灰阶参数值,
    Figure PCTCN2014092864-appb-100003
    代表x方向上的灰阶参数值的平均值,n代表行向或列向灰阶参数值的个数,
    Figure PCTCN2014092864-appb-100004
    比较n×n矩阵中的行向标准差值、列向标准差值、第一对角线方向标准差值和第二对角线方向标准差值,得到第一最小标准差值,比较(n+2)×(n+2)矩阵中的行向标准差值、列向标准差值、第一对角线方向标准差值和第二对角线方向标准差值得到第二最小标准差值。
  3. 如权利要求2所述的图像的边界判别方法,其中,所述分别确定在n×n矩阵和(n+2)×(n+2)矩阵中:行向标准差值、列向标准差值、第一对角线方向标准差值以及第二对角线方向标准差值相对于最小标准差值的离散度,以及行向梯度值、列向梯度值、第一对角线方向梯度值以及第二对角线方向梯度值相对于最小梯度值的离散度,包括:
    根据公式:
    Figure PCTCN2014092864-appb-100005
    确定在n×n矩阵和(n+2)×(n+2)矩阵中:行向标准差值、列向标准差值、第一对角线方向标准差值以及第二对角线方向标准差值相对于最小标准差值的离散度,以及行向梯度值、列向梯度值、第一对角线方向梯度值以及第二对角线方向梯度值相对于最小梯度值的离散度,其中:当H、V、LD、RD分别代表n×n矩阵中的行向梯度值、列向梯度值、第一对角线方向梯度值和第二对角线方向梯度值时,A代表第一最小梯度值,Dif代表第一离散度;当H、V、LD、RD分别代表n×n矩阵中的行向标准差值、列向标准差值、第一对角线方向标准差值和第二对角线方向标准差值时,A代表第一最小标准差值,Dif代表第二离散度;当H、V、LD、RD分别代表(n+2)×(n+2)矩阵中的行向梯度值、列向梯度值、第一对角线方向梯度值和第二对角线方向梯度值时,A代表第二最小梯度值,Dif代表第三离散度;当H、V、LD、RD分别代表(n+2)×(n+2)矩阵中的行向标准差值、列向标准差值、第一对角线方向标准差值和第二对角线方向标准差值时,A代表第二最小标准差值,Dif代表第四离散度。
  4. 如权利要求3所述的图像的边界判别方法,其中,所述当确定的离 散度大于N倍的与其对应的最小值时,输出第一代码值,当确定的离散度小于N倍的与其对应的最小值时,输出第二代码值,所述最小值为最小标准差值或最小梯度值,包括:
    若Dif>N×A,对应地输出第一代码值,若Dif<N×A,对应地输出第二代码值,其中:N为大于1的常数,当Dif代表第一离散度时,A代表第一最小梯度值;当Dif代表第二离散度时,A代表第一最小标准差值;当Dif代表第三离散度时,A代表第二最小梯度值;当Dif代表第四离散度时,A代表第二最小标准差值。
  5. 如权利要求4所述的图像的边界判别方法,其中,所述N值为1.4~2.0。
  6. 如权利要求5所述的图像的边界判别方法,其中,所述N值为
    Figure PCTCN2014092864-appb-100006
  7. 如权利要求4~6任一项所述的图像的边界判别方法,其中,所述根据输出的代码值确定待判别的图像是否存在边界以及所存在的边界方向包括:
    当第一离散度、第二离散度、第三离散度以及第四离散度对应的输出代码值均为第二代码值时,则确定待判别的图像无边界;
    当第一离散度、第二离散度、第三离散度以及第四离散度对应的输出代码值均为第一代码值时,则确定待判别的图像存在边界,且在第二梯度值和第二标准差值中最小的一个值对应的方向上存在边界;
    当第一离散度、第二离散度以及第四离散度对应的输出代码值为第一代码值、第三离散度对应的输出代码值为第二代码值时,则确定待判别的图像存在边界,且在第一梯度值和第一标准差值中最小的一个值对应的方向上存在边界;
    当第一离散度、第二离散度以及第三离散度对应的输出代码值为第一代码值、第四离散度对应的输出代码值为第二代码值时,则确定待判别的图像存在边界,且在第一梯度值和第一标准差值中最小的一个值对应的方向上存在边界;
    当第一离散度和第二离散度对应的输出代码值为第一代码值、第三离散度和第四离散度对应的输出代码值为第二代码值时,则确定待判别的图像存在边界,且在第一梯度值和第一标准差值中最小的一个值对应的方向上存在边界。
  8. 如权利要求7所述的图像的边界判别方法,其中,所述第一代码值 为1,所述第二代码值为0。
  9. 一种图像的边界判别装置,包括:
    接收模块,用于接收待判别的图像信息中每个子像素单元的灰阶参数分量值信息以形成灰阶参数值矩阵,并以待处理的子像素单元对应的灰阶参数值为中心将所述灰阶参数值矩阵划分为n×n矩阵和(n+2)×(n+2)矩阵,其中n代表行向或列向灰阶参数值的个数,且n为大于1的奇数,所述灰阶参数为亮度参数或色度参数;
    第一确定模块,用于分别确定在n×n矩阵和(n+2)×(n+2)矩阵中:待处理的子像素单元对应的灰阶参数值所在的行向梯度值、列向梯度值、第一对角线方向梯度值和第二对角线方向梯度值中的最小梯度值,以及行向标准差值、列向标准差值、第一对角线方向标准差值、和第二对角线标准差值中的最小标准差值;
    第二确定模块,用于分别确定在n×n矩阵和(n+2)×(n+2)矩阵中:行向标准差值、列向标准差值、第一对角线方向标准差值以及第二对角线方向标准差值相对于最小标准差值的离散度,以及行向梯度值、列向梯度值、第一对角线方向梯度值以及第二对角线方向梯度值相对于最小梯度值的离散度;
    分析模块,用于当确定的离散度大于N倍的与其对应的最小值时,输出第一代码值,当确定的离散度小于N倍的与其对应的最小值时,输出第二代码值,其中:所述最小值为最小标准差值或最小梯度值,N为大于1的常数;
    判断模块,用于根据输出的代码值确定待判别的图像是否存在边界以及所存在的边界方向。
  10. 一种显示面板,包括:如权利要求9所述的图像的边界判别装置。
PCT/CN2014/092864 2014-08-21 2014-12-03 图像的边界判别方法、装置和显示面板 WO2016026238A1 (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
EP14883529.1A EP3185238B1 (en) 2014-08-21 2014-12-03 Image border recognition method, device and display panel
US14/771,110 US9607396B2 (en) 2014-08-21 2014-12-03 Method and device for discriminating a boundary of image, and display panel

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201410415432.9A CN104200793B (zh) 2014-08-21 2014-08-21 一种图像的边界判别方法、装置和显示面板
CN201410415432.9 2014-08-21

Publications (1)

Publication Number Publication Date
WO2016026238A1 true WO2016026238A1 (zh) 2016-02-25

Family

ID=52086075

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/CN2014/092864 WO2016026238A1 (zh) 2014-08-21 2014-12-03 图像的边界判别方法、装置和显示面板

Country Status (4)

Country Link
US (1) US9607396B2 (zh)
EP (1) EP3185238B1 (zh)
CN (1) CN104200793B (zh)
WO (1) WO2016026238A1 (zh)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104036710B (zh) * 2014-02-21 2016-05-04 北京京东方光电科技有限公司 像素阵列及其驱动方法、显示面板和显示装置
CN104599625B (zh) * 2015-03-02 2017-06-06 京东方科技集团股份有限公司 边界判定方法和装置、显示驱动方法和装置
CN105206215B (zh) * 2015-10-13 2017-12-15 深圳市华星光电技术有限公司 显示设备及其显示方法
US10013908B2 (en) 2015-10-13 2018-07-03 Shenzhen China Star Optoelectronics Technology Co., Ltd Display devices and displaying methods
CN111080550B (zh) * 2019-12-13 2023-03-07 北京金山云网络技术有限公司 图像处理方法、装置、电子设备及计算机可读存储介质
CN114618371B (zh) * 2022-03-21 2022-11-15 江苏铭瀚智能科技有限公司 基于人工智能的分批式混合机控制方法及***

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6674905B1 (en) * 1999-01-22 2004-01-06 Canon Kabushiki Kaisha Image processing method, image processing apparatus, and storage medium
CN101286233A (zh) * 2008-05-19 2008-10-15 重庆邮电大学 基于对象云的模糊边缘检测方法
CN101340577A (zh) * 2007-07-06 2009-01-07 北京大学软件与微电子学院 基于方向滤波和自适应边界判定的视频后处理方法及***
CN102129681A (zh) * 2011-02-28 2011-07-20 太原理工大学 一种镜头边界检测方法
CN102393959A (zh) * 2010-06-28 2012-03-28 索尼公司 图像处理设备、图像处理方法和图像处理程序
CN103606163A (zh) * 2013-12-04 2014-02-26 南京汇川工业视觉技术开发有限公司 基于四元数理论和canny算法的彩色图像边缘检测方法

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7116823B2 (en) * 2002-07-10 2006-10-03 Northrop Grumman Corporation System and method for analyzing a contour of an image by applying a Sobel operator thereto
JP2004242836A (ja) * 2003-02-13 2004-09-02 Toshiba Corp 超音波診断装置及び超音波診断装置における画像処理方法
KR101303667B1 (ko) * 2007-08-28 2013-09-04 삼성전자주식회사 의사 윤곽을 탐지 및 제거하는 방법 및 장치, 픽셀의 윤곽여부를 확인하는 방법 및 장치 그리고 심플리시티를계산하는 방법 및 장치
US8948474B2 (en) * 2010-01-25 2015-02-03 Amcad Biomed Corporation Quantification method of the feature of a tumor and an imaging method of the same
CN102289825B (zh) * 2011-07-08 2013-07-10 暨南大学 一种实时图像边缘检测电路及其实现方法
CN103292725A (zh) * 2012-02-29 2013-09-11 鸿富锦精密工业(深圳)有限公司 特殊边界量测***及方法
CN103839247B (zh) * 2012-11-20 2017-04-26 富士通株式会社 边缘像素确定方法、边缘像素确定装置和图像处理设备

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6674905B1 (en) * 1999-01-22 2004-01-06 Canon Kabushiki Kaisha Image processing method, image processing apparatus, and storage medium
CN101340577A (zh) * 2007-07-06 2009-01-07 北京大学软件与微电子学院 基于方向滤波和自适应边界判定的视频后处理方法及***
CN101286233A (zh) * 2008-05-19 2008-10-15 重庆邮电大学 基于对象云的模糊边缘检测方法
CN102393959A (zh) * 2010-06-28 2012-03-28 索尼公司 图像处理设备、图像处理方法和图像处理程序
CN102129681A (zh) * 2011-02-28 2011-07-20 太原理工大学 一种镜头边界检测方法
CN103606163A (zh) * 2013-12-04 2014-02-26 南京汇川工业视觉技术开发有限公司 基于四元数理论和canny算法的彩色图像边缘检测方法

Also Published As

Publication number Publication date
EP3185238A1 (en) 2017-06-28
US9607396B2 (en) 2017-03-28
EP3185238B1 (en) 2020-08-19
CN104200793A (zh) 2014-12-10
EP3185238A4 (en) 2018-01-24
CN104200793B (zh) 2016-09-07
US20160371848A1 (en) 2016-12-22

Similar Documents

Publication Publication Date Title
WO2016026238A1 (zh) 图像的边界判别方法、装置和显示面板
US11334981B2 (en) Method and apparatus for detecting a screen, and electronic device
US10147390B2 (en) Sub-pixel rendering method
CN101140365B (zh) 不均匀检查方法、显示面板的制造方法以及不均匀检查装置
CN104952410B (zh) 液晶面板的显示改善方法及其设备
EP3300060B1 (en) Image display method and display device
WO2015035744A1 (zh) 一种图像处理方法
EP2940626B1 (en) Apparatus and method for detecting color checker in image
CN111368717A (zh) 视线确定方法、装置、电子设备和计算机可读存储介质
US11270100B2 (en) Face image detection method and terminal device
US20150049123A1 (en) Display device and driving method thereof
US9679216B2 (en) Morphological automatic triangle orientation detection
WO2017041420A1 (zh) 一种驱动模式切换方法及模块和显示装置
JP5919212B2 (ja) 目視照合支援装置およびその制御方法
WO2019128495A1 (zh) 图像清晰度检测方法、装置、存储介质及电子设备
WO2016070455A1 (zh) 液晶面板及其像素单元设定方法
CN109859668A (zh) 一种圆形显示面板的图像补偿方法及其装置
US8483487B2 (en) Image processing device and method for capturing object outline
US9589187B1 (en) Method for locating center of pupil and electronic apparatus
US10062312B2 (en) Method and apparatus for discriminating luminance backgrounds for images, and a display apparatus
EP3605086B1 (en) Cell-image evaluation device and method and program
EP2919149A2 (en) Image processing apparatus and image processing method
CN108629786A (zh) 图像边缘检测方法及装置
JP5985327B2 (ja) 表示装置
CN111383183B (zh) 图像边缘增强方法、装置以及计算机存储介质

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 14771110

Country of ref document: US

REEP Request for entry into the european phase

Ref document number: 2014883529

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2014883529

Country of ref document: EP

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14883529

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE