WO2004084142A1 - 画像処理装置 - Google Patents

画像処理装置 Download PDF

Info

Publication number
WO2004084142A1
WO2004084142A1 PCT/JP2004/003726 JP2004003726W WO2004084142A1 WO 2004084142 A1 WO2004084142 A1 WO 2004084142A1 JP 2004003726 W JP2004003726 W JP 2004003726W WO 2004084142 A1 WO2004084142 A1 WO 2004084142A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
color component
pixel
image processing
predetermined area
Prior art date
Application number
PCT/JP2004/003726
Other languages
English (en)
French (fr)
Inventor
Naohiro Tabata
Hideyuki Kishiba
Original Assignee
Omron Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corporation filed Critical Omron Corporation
Priority to US10/549,653 priority Critical patent/US7587083B2/en
Priority to EP04722000.9A priority patent/EP1612730B1/en
Publication of WO2004084142A1 publication Critical patent/WO2004084142A1/ja

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/40Image enhancement or restoration using histogram techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/90Dynamic range modification of images or parts thereof
    • G06T5/94Dynamic range modification of images or parts thereof based on local image properties, e.g. for local contrast enhancement
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/46Colour picture communication systems
    • H04N1/56Processing of colour picture signals
    • H04N1/60Colour correction or control
    • H04N1/62Retouching, i.e. modification of isolated colours only or in isolated picture areas only
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/46Colour picture communication systems
    • H04N1/56Processing of colour picture signals
    • H04N1/60Colour correction or control
    • H04N1/62Retouching, i.e. modification of isolated colours only or in isolated picture areas only
    • H04N1/628Memory colours, e.g. skin or sky
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20004Adaptive image processing
    • G06T2207/20012Locally adaptive
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation

Definitions

  • the present invention relates to a technique effectively applied to image processing of a captured image, particularly an image of a person as a subject.
  • the signal level difference between each of the pixels forming the face-based image and each of the pixels surrounding each pixel is detected by the difference detection unit.
  • the signal level difference is compared with a reference value by a threshold value determination unit.
  • the arithmetic unit multiplies the signal level difference by a predetermined coefficient according to the result of the comparison, and adds the result to each pixel value. From the result of the addition, the reference value in the comparison and the coefficient in the multiplication unit are selected according to the position of the pixel and the image, whereby an image from which the undesired components included in the face image are removed is obtained.
  • a person image processing apparatus capable of adding decorations to a body part of a person image, particularly to a face part and a head part, so that decorations do not overlap with each other.
  • This person image processing apparatus includes means for setting a position and a range of a body part region based on at least one element constituting a body part of a person image, and adding a decoration only to a background region excluding the body part region. Means.
  • the person image processing apparatus further includes means for setting the position and range of the body part region based on at least one element constituting the body part of the person image, and adding a decoration along the outer periphery of the body part region. In some cases.
  • the blur processing when the blur processing is performed on the skin of the subject, the blur processing is performed on an object having a color of a component close to the skin color existing in the image. For this reason, even those having a component color different from the skin color were subjected to the blurring process and were prevented from being blurred.
  • the skin color component to be subjected to the blur processing is fixedly held in advance. For this reason, the conventional technology may not be able to cope with differences in skin color due to race and individual differences. In such a case, the blurring of the skin area may not be performed correctly.
  • the above-mentioned problem in the blurring process is not limited to the blurring process, but is also a problem in other image processing.
  • An object of the present invention is to solve such a problem and to prevent image processing from being performed on an area that is not originally subjected to image processing such as blur processing. For example, by performing image processing (for example, blurring processing) only on a specific region (for example, the skin portion of a face) of a person as a subject, a background having a color of a component close to the skin color is not obtained by the image processing.
  • image processing for example, blurring processing
  • a specific region for example, the skin portion of a face
  • the purpose is to prevent a natural state (for example, blurring).
  • an image processing apparatus comprising a predetermined area specifying unit and an image generating unit.
  • the predetermined area specifying means specifies a predetermined area determined based on a body part of a person who is a subject in the image.
  • the predetermined area specifying means may be configured so that the predetermined area is manually specified by the user. That is, the predetermined area specifying means is configured to specify the body part based on the area in the image specified by the user, and further specify the predetermined area based on the specified body part. May be.
  • the predetermined area specifying means may be configured to specify an area specified by the user as a body part, or may be configured to specify a body part based on a point, area, color, shape, etc. specified by the user. May be configured. Then, the predetermined area specifying means may be configured to specify the predetermined area based on the body part specified in this way.
  • the predetermined area specifying means may be configured to specify the predetermined area independently of the input by the user.
  • the predetermined area specifying means includes detection means for detecting a body part of a person who is a subject in an image, and specifying means for specifying a predetermined area based on the body part detected by the detection means. May be configured.
  • the detecting means detects the position and range (size) of the body part of the subject.
  • Body part means a part or the whole of a person's body, such as the head, face, hands, feet, and torso.
  • the detecting means may be configured using any existing means.
  • the image generating means generates an image in which image processing has been performed on the predetermined area specified by the predetermined area specifying means.
  • image processing is processing for operating an image. Examples of image processing include image correction and texture mapping. is there.
  • image correction here is a process of operating an image without changing the essence of a subject in the image.
  • image correction include blurring, edge enhancement, brightness correction, and color correction.
  • the blurring process is a process for blurring an image portion such as wrinkles or spots on the skin to make the skin of the person who is the subject look smooth.
  • the blurring process is a process performed using, for example, a technique called smoothing, and is performed by removing a high-frequency component in a skin image. Examples include moving average filters, weighted average filters (including Gaussian filters) and ⁇ -filters.
  • the first aspect of the present invention it is possible to acquire an image that has not been subjected to image processing for a portion other than the predetermined area specified by the predetermined area specifying means. That is, it is possible to acquire an image that has been subjected to image processing limited to only a predetermined area based on the body part of a person as a subject. Therefore, it is possible to prevent a portion (for example, a background) different from the subject to be subjected to the image processing from becoming unnatural due to the image processing. In other words, image processing is prevented from being performed on a part that the user does not intend.
  • the image processing to be performed on the image is a blurring process
  • the blurring process is not performed on portions other than the predetermined area specified by the predetermined area specifying means, and the image can be obtained.
  • the image generating means is an image which has been subjected to image processing based on the color component of the skin color of the person who is the subject, which is extracted from the body part which is the reference of the predetermined area specified by the predetermined area specifying means. May be generated.
  • the image generating means configured as described above, image processing corresponding to the skin color of each person as a subject is executed. Therefore, it is possible to acquire images in which image processing has been performed accurately even for subjects with different skin colors in response to skin color differences due to race or individual differences.
  • the image generating means is equal to or close to a color component mainly occupying the body part which is the area within the predetermined area specified by the predetermined area specifying means and which is a reference of the predetermined area. It may be configured to generate an image in which image processing has been performed on a region having a color component.
  • the image generation means in the first aspect is configured to include an intensity value calculation means, a mask means, an image processing means, and a color component calculation means.
  • the intensity value calculating means calculates, for each pixel of the image to be processed, an intensity value indicating how close the color component of each pixel is to a predetermined skin color component.
  • the color component may be a value based on any color space, such as a Lab value, an RGB value, and an Xy value.
  • the skin color component is a predetermined value and is stored, for example, in a RAM (Random Access Memory) of the image capturing device.
  • the intensity value is represented by a value of 256 gradations from 0 to 255. For example, if the intensity value is 0, it indicates that it is farthest from the skin color component, and if it is 255, it indicates that it is closest to the skin color component (it is the skin color component itself).
  • the masking unit sets the intensity value of the pixel other than the predetermined region specified by the predetermined region specifying unit to a value indicating that the pixel is far from the skin color component.
  • the mask means generates a mask image for performing a mask process on an area other than the predetermined area, and performs a multiplication process on the generated mask image by an image indicating the intensity value of each pixel, thereby obtaining an intensity value.
  • the image processing means performs image processing on the image to be processed.
  • the definition of the image processing performed by the image processing means is the same as the image processing defined in the description of the image generation means.
  • the color component calculation means calculates a color component closer to the color component of the pixel of the original image as a new color component of the pixel as the intensity value of each pixel is farther from the skin color component. The closer the intensity value at is to the skin color component, the closer to the color component of the pixel of the image generated by the image processing means as a new color component of this pixel. Calculate color components.
  • the color component calculation means calculates a new color component of each pixel (that is, a color component of each pixel of an output image) based on the intensity values calculated by the intensity value calculation means and the mask means.
  • the image processing is a blurring process
  • the larger the intensity value the more strongly the image component that reflects the color components of the blurred image (the image obtained by performing the blurring process on the original image) is generated.
  • a color component calculation means is configured. Further, the color component calculating means is configured so that an image in which the color component of the original image is more strongly reflected as the intensity value is smaller is generated.
  • the image generating means in the first aspect of the present invention is configured to include an intensity value calculating means, a masking means, and an image processing means.
  • the image generation means does not include the color component calculation means, and the color components of the output image are calculated by the image processing means.
  • the intensity value calculation means and the mask means in the third aspect are the same as the intensity value calculation means and the mask means in the second aspect ( while the image processing means in the third aspect is a processing object. As the intensity value of each pixel is farther from the skin color component for the image, the effect of the image processing is weakened and the image processing is performed on this pixel, and the intensity value of each pixel is closer to the skin color component.
  • the image processing means performs image processing on this pixel by increasing the influence of the image processing as shown by c.
  • the image processing means performs image processing based on the intensity values of each pixel of the image obtained by the intensity value calculating means and the masking means.
  • it is not necessary to provide the color component calculating means, and thus, it is possible to realize a reduction in the size of the apparatus, a higher processing speed, a reduction in cost, and the like. .
  • the image generating means includes an intensity value calculating means, an image processing means, and a color component calculating means.
  • the definition of the intensity value calculated by the intensity value calculating means is different from that in the second aspect.
  • the intensity value indicates how close the color component of each pixel is to the color component that mainly occupies the body part that is the reference of the predetermined area. Therefore, the intensity value calculating means according to the fourth aspect is provided for each of the images to be processed. For the pixel, an intensity value is calculated that indicates how close the color component of each pixel is to the color component that mainly occupies the body part that is the reference for the predetermined area.
  • the fourth embodiment is different from the second embodiment in that the mask means may or may not be provided.
  • the color component calculation means calculates a new color component of each pixel without using the intensity value in the mask image, as a matter of course.
  • the image processing means is configured to perform image processing on a predetermined area of the image to be processed.
  • the fourth embodiment and the second embodiment have the same configuration.
  • the intensity value changes according to the processing result of the predetermined area specifying means. That is, image processing corresponding to the skin color of the body part of each person as the subject is executed. Therefore, it is possible to cope with the difference in skin color due to race or individual difference, and to accurately perform image processing on subjects having different skin colors.
  • the image generating means is configured to include an intensity value calculating means and an image processing means. Further, in the fifth aspect of the present invention, similarly to the third aspect of the present invention, it is not necessary to provide a color component calculating means, and the color components of the output image are calculated by the image processing means. Therefore, according to the fifth aspect of the present invention, similarly to the third aspect of the present invention, it is possible to realize a reduction in the size of the device, an increase in the speed of processing, a reduction in cost, and the like.
  • the intensity value is not obtained based on a predetermined skin color component, It is determined based on the color component that mainly occupies the portion. For this reason, according to the fifth aspect of the present invention, it is possible to accurately perform image processing on subjects having different skin colors in response to skin color differences due to race or individual difference. It becomes possible. Further, in the fifth aspect of the present invention, the mask means may or may not be provided as in the fourth aspect.
  • the image processing means may be configured not to execute the image processing on pixels having a predetermined range of intensity values.
  • the “predetermined range of intensity values” is an intensity value indicating an area that is not desired to be subjected to image processing. Specific examples include skin color components and body parts that have There is an intensity value indicating that the color component occupies the farthest position.
  • the color component calculation means in the second and fourth aspects and the image processing means in the third and fifth aspects provide an output in which the influence of the image processing is not reduced for pixels having intensity values within a predetermined range. May be set to generate images. In such a setting, there is no need to perform image processing on pixels having intensity values within a predetermined range.
  • the image processing means performs image processing irrespective of the intensity value of each pixel ( and performs processing corresponding to the intensity value by the color component calculation means). May be executed, and as a result, there may occur pixels in which the image processing performed by the image processing unit is not reflected at all.
  • the configuration determined by the means is particularly effective in the second and fourth aspects.
  • the image generating means determines the content of the image processing to be performed based on the size of the body part which is the reference of the predetermined area specified by the predetermined area specifying means. For example, the image generating means determines a parameter for performing the predetermined image processing based on the size of the body part that has been the reference for the predetermined area. Examples of such parameters include the degree of blurring of the blurring process (more specifically, the size of the radius when performing the blurring process using a Gaussian filter), the degree of edge enhancement, and the brightness. There is a degree of correction and the like. Examples of determining the type of image processing include determining whether to perform edge enhancement, whether to perform brightness correction, and whether to perform blurring processing.
  • the blurring process as an example, if the blurring process is performed excessively on a small area, the entire area will be blurred and a desired image (for example, an image in which the skin has been appropriately smoothed) cannot be obtained.
  • a desired image for example, an image in which the skin has been appropriately smoothed
  • a portion to be blurred for example, an undesired component contained in a face image, such as wrinkles, a spot, rough skin, acne, etc.
  • a desired blur is not obtained. No image is obtained.
  • image processing such as the degree of edge enhancement.
  • an appropriate image processing content is determined and executed in accordance with the size of the body part serving as a reference of the predetermined area, and a desired image of the user is obtained. It becomes possible.
  • the image generating means may be configured to determine the content of the image processing to be performed based on the size of the body part detected by the detecting means.
  • an element extracting means is further provided.
  • the element extracting means extracts at least one element included in a predetermined area, which is an element constituting a body part of a person who is a subject in an image to be processed.
  • elements refer to the parts that make up the body part. Examples of such elements are facial parts (specifically, eyes, eyelids, lips, nose, nostrils, eyebrows, eyelashes, etc.). In this case, the face is the body part, and the face part is the element. Any existing technology may be applied to the element extraction means.
  • the image generating means restricts and executes image processing on an element region determined based on the element extracted by the element extracting means.
  • the image generation means may be configured not to perform image processing on the predetermined area. Further, the image generating means performs processing with different parameters (the degree of image processing is suppressed) when performing image processing on the predetermined area as compared with other areas where image processing is performed. May be configured.
  • the image generating means performs limited image processing on an element region determined based on the elements extracted by the element extracting means. Therefore, the influence of the image processing on the element area is suppressed.
  • the content of the image processing is determined based on the color component and the body part used as a reference for the predetermined area. In this case, for a pixel having a color component close to a skin color component or a color component mainly occupying a body part which is a reference of the predetermined region within the predetermined region, none of the pixels corresponding to the above-mentioned elements are included. Image processing was performed under the conditions.
  • the seventh aspect of the present invention is effective. That is, an element that cannot be sufficiently distinguished by the intensity value calculation means or the mask means It is possible to accurately suppress image processing for.
  • the image generating means may be configured to further include an edge mask means.
  • the edge masking means obtains the edge intensity for each pixel of the image to be processed, and for each pixel, the stronger the intensity of the extracted edge is, the more the skin color component and the body part that is the reference for the predetermined area It gives an intensity value that indicates that the color component is far from the color component that mainly occupies.
  • the edge of the element constituting the body part of the subject is acquired as a pixel having an intensity value indicating that it is far from the color component.
  • the edge mask means may be configured to give the intensity of the edge acquired for a certain pixel to surrounding pixels located within a predetermined range from the pixel.
  • the color component calculation means and the image processing means further include a new color component in each pixel based on the intensity value obtained by the edge mask means.
  • the edge mask means gives an intensity value to each pixel after reducing the image to be processed, and further provides an original value. You may be comprised so that it may enlarge to the image of a magnitude
  • the image processing is restricted and performed as described above.
  • the blur processing for such unnecessary skin components will function effectively. not c Therefore, it is necessary to control the Ejji of these unwanted components can not be extracted by the edge mask means.
  • edge mask means Therefore, it is possible to prevent edge acquisition of unnecessary components of the skin. That is, with the edge mask means configured as described above, it is possible to perform a desired blurring process. To obtain the same effect, it is also effective to perform edge extraction after smoothing processing such as a median filter, or to set a large radius for the filter used for edge extraction processing. In addition, since the edge is extracted from the reduced image, the time required for the edge extraction processing can be reduced.
  • An eighth aspect of the present invention is an image processing device, comprising: an image specifying unit and an image processing unit.
  • the image specifying unit specifies a position and a range of a region including an arbitrary image in the image.
  • the arbitrary image is an image to be subjected to image processing by the image processing means, and may be any image. For example, a part or the whole of a human body such as a face or a hand, an object such as food or a car, or a background such as a sky or a mountain.
  • the image processing means generates an image obtained by performing image processing on an area within the area specified by the image specifying means and having a color component equal to or close to a color component mainly occupying the area.
  • Examples of image processing executed by the image processing means include processing using a low-pass filter or a high-pass filter.
  • There are various other processes such as the image process, the color inversion process, and the image rotation process defined in the first embodiment of the present invention.
  • the eighth aspect of the present invention it is possible to prevent image processing from being performed on a part different from the main part even in the specified area. For example, when it is desired to change the color of only the body (main part) of a car, it is possible to prevent the color of a window glass, a bumper, etc. (a part different from the main part) from being changed.
  • the first to eighth aspects of the present invention may be realized by executing a program by an information processing device. That is, the present invention specifies the processing executed by each means in the first to eighth aspects as a program for causing an information processing apparatus to execute, or a recording medium on which the program is recorded. Can You.
  • the present invention it is possible to perform image correction limited to only a specific region of a person as a subject. Therefore, it is possible to prevent a portion different from the subject (for example, the background) from becoming unnatural due to the image correction. In addition, it is possible to perform image processing according to a difference in skin color due to race or individual difference.
  • FIG. 1 is a diagram showing functional blocks of the first embodiment of the image correction device
  • FIG. 2 is a diagram showing a processing flow of the first embodiment of the image correction device
  • FIG. FIG. 1 is a diagram showing functional blocks of the first embodiment of the image correction device
  • FIG. 2 is a diagram showing a processing flow of the first embodiment of the image correction device
  • FIG. FIG. 1 is a diagram showing functional blocks of the first embodiment of the image correction device
  • FIG. 2 is a diagram showing a processing flow of the first embodiment of the image correction device
  • FIG. 4 is a diagram showing an outline of a skin color region extraction process in the first embodiment
  • FIG. 5 is a diagram showing an outline of a skin color intensity extraction process
  • Figure 6 is a diagram showing an example of a histogram of skin color components
  • FIG. 7 is a diagram showing an outline of the skin beautification process in the first embodiment
  • FIG. 8 is a diagram showing an example of an n ⁇ n operator
  • FIG. 9 is a diagram showing functional blocks of a second embodiment of the image correction device
  • FIG. 10 is a diagram showing a processing flow of the second embodiment of the image correction device
  • FIG. FIG. 12 is a diagram showing a function block of a third embodiment of the device
  • FIG. 12 is a diagram showing a processing flow of a third embodiment of the image correction device
  • FIG. 13 is a diagram showing an example of a Sobel filter And;
  • FIG. 14 is a diagram illustrating an example of a difference between a skin color intensity image and an edge mask image.
  • an image correction device 1a which is a first embodiment of an image correction device for performing image correction on a skin region in a human image will be described. Specifically, a case of blur processing will be described as an example of image processing to be performed.
  • the image correction device 1a is used for images other than a person image, such as a car image. It may be applied to an image or a landscape image. In this case, various types of image processing such as image correction using a high-pass filter that converts colors are conceivable.
  • a person image is an image that includes at least part or all of the face of a person. Therefore, the person image may include an image of the entire person, or may include an image of only the face or upper body of the person. Also, images of a plurality of persons may be included.
  • the background is a scenery other than a person (background: also includes things that were noticed as subjects), patterns, etc.
  • the image correction device la includes hardware such as a CPU (central processing unit), a main memory (RAM), and an auxiliary storage device connected via a bus.
  • the auxiliary storage device is configured using a nonvolatile storage device.
  • the non-volatile storage device referred to here is a so-called ROM (Read-Only Memory: E PROM (Erasable
  • Fluoroelectric RAM refers to a hard disk, etc.
  • the storage unit St is configured using a so-called RAM.
  • the storage unit St is used when each process is executed by the face detection unit 2, the mask processing unit 3, the skin color region extraction unit 4a, and the beautiful skin processing unit 5a.
  • the storage unit St stores the data of the original image 6 to be processed, the mask image 7 as the intermediate generation data, and the color intensity image of the skin. Data such as image 8, masked skin color intensity image 9, skin color region image 10a, blurred image 11 and the like, and unskinned image 12 data as output data are read and written.
  • FIG. 2 is a diagram showing a process executed by each functional unit shown in FIG. 1 and an overall process flow of the image correction device 1a.
  • each functional unit will be described with reference to FIGS.
  • the face detection unit 2 performs a face detection process.
  • the face detection processing the data of the original image 6 is input, and the face position detection processing S O1 is executed to output face rectangle coordinates. That is, in the face detection processing, the face is detected as the body part of the subject. The position of the face of the person who is the subject in the original image 6 is specified by the face rectangle coordinates.
  • the data of the original image 6 is data of a human image input to the image correction device 1a.
  • the face rectangle is a rectangle that is recognized as a rectangle including the face of a person included in the original image 6 (hereinafter, referred to as a face rectangle: see 17 in FIG. 3 (a)).
  • the face rectangle coordinates are data indicating the position and size of the face rectangle in the original image 6.
  • the face position detection processing S O 1 may be realized by any existing method (for example, see Patent Document 3).
  • face rectangular coordinates may be obtained by template matching using a reference template corresponding to the outline of the entire face.
  • face rectangular coordinates may be obtained by template matching based on face components (eyes, nose, ears, etc.).
  • the vertices of the hair may be detected by chroma processing, and the face rectangle coordinates may be obtained based on the vertices.
  • the face rectangle and the face rectangle coordinates may be manually specified by the user.
  • a face rectangle or face rectangle coordinates may be specified based on information input by the user, that is, semi-automatically.
  • the mask processing unit 3 performs a mask process.
  • the masking process the face rectangle coordinates are input, and the mask image creating process S02 is executed to output the data of the mask image 7.
  • the mask image creation processing S02 based on the position of the face of the person who has become the subject, that is, in the present apparatus 1, based on the input face rectangular coordinates, the face of the person who has become the subject and the area below the face Is estimated, and a mask image 7 for masking a region other than the estimated region is generated.
  • a predetermined area here, the face and the area under the face
  • a mask image for masking other than this area is specified. 7 is generated.
  • the face detection unit 2 and the mask processing unit 3 are applied as an example of the predetermined area specifying unit.
  • the mask processing unit 3 is applied as an example of the specifying unit and the masking unit.
  • FIG. 3 is a diagram showing an outline of the mask image creation processing S02.
  • the coordinates of the two ellipses 13 and 14 corresponding to the input face rectangle coordinates are calculated using the following equation (1). Specifically, first, the width of the face rectangle
  • the ellipse 13 is a figure showing the area of the face of the person who became the subject
  • the ellipse 14 is a figure showing the area below the face of the person who was the subject (neck, chest, shoulders, etc.).
  • the ellipse 13 is set to be in contact with the four points of the face rectangle 17.
  • the ellipse 14 is set so as to circumscribe the lowermost part of the ellipse 13 with its major axis being horizontal.
  • the obtained two ellipses 13 and 14 are enlarged to obtain ellipses 15 and 16, respectively.
  • the ellipse 13 and the ellipse 15 and the ellipse 14 and the ellipse 16 have the same center (the long axis and the short axis respectively). Intersection). Then, a mask image 7 is obtained using the obtained ellipses 13 to 16.
  • the inside of the ellipse 13 and the inside of the ellipse 14 are set as transmission regions (regions not masked).
  • the region between the ellipse 15 and the ellipse 13 and the region between the ellipse .16 and the ellipse 14 from the outside (the ellipses 15 and 16) to the inside (the ellipses 13 and 1) 4) Generates a gradation of transmittance that increases the transmission ratio toward. This gradation may be linear or non-linear.
  • An area outside the ellipse 15 and outside the ellipse 16 is set as an opaque area (area to be masked).
  • the mask image 7 may be generated using any figure other than the ellipse. For example, it may be generated by using a special figure having the shape of a person's upper body.
  • the skin color region extraction unit 4a executes a skin color region extraction process.
  • the skin color region extraction processing will be described.
  • the data of the original image 6, the face rectangular coordinates, and the data of the mask image 7 are input, and the skin color intensity extraction process S03, the synthesis process SO4a, and the skin
  • the color area correction processing S05 the data of the skin color area image 10a is output.
  • the skin color region extraction unit 4a is applied as an example of the intensity value calculation unit.
  • FIG. 4 is a diagram showing an outline of the skin color region extraction processing.
  • the skin color region extraction processing first, the data of the original image 6 and the face rectangle coordinates are input, and the skin color intensity extraction processing S O 3 is executed.
  • FIG. 5 is a diagram showing an outline of the skin color intensity extraction processing S03.
  • FIG. 6 is a diagram showing a histogram of skin color components used in skin color intensity extraction processing S 03.
  • the skin color intensity extraction processing S 03 will be described below with reference to FIGS.
  • the sampling area 18 is specified inside the face rectangle 17 using the input face rectangle coordinates.
  • the sampling area 18 is determined by, for example, a value obtained by multiplying the center coordinate of the face rectangle 17 and w and h of the face rectangle 17 by a constant. Is specified.
  • the sampling area 18 may be specified by other methods. It is desirable that the sampling area 18 be set so as not to include an area having a color distinct from the skin color, such as an eye or a nostril.
  • pixel values (color component values) in the sampling area 18 are sampled (skin color sampling).
  • skin color sampling the skin color of the subject's face is mainly sampled.
  • a histogram shown in FIG. 6 is formed based on the sampled color component values.
  • FIG. 6 shows an example of a histogram formed based on the Lab color space.
  • the upper and lower 10% components (shaded area in Fig. 6) on the horizontal axis (L or the values of a and b) are cut off.
  • the value of 10% may be appropriately changed by a designer.
  • the standard deviation and the center of gravity in the sampling area 18 are calculated using the values of L ab of the uncut portion in the skin color component histogram. Then, the degree of skin color at each pixel of the original image 6 (hereinafter, referred to as skin color intensity: equivalent to the intensity value) is calculated by the equation of Equation 2 using these six calculated values ( Extraction of skin color intensity), and a skin color intensity image 8 is generated.
  • the noise component referred to here is information about a pixel mainly having a color component other than the skin color, such as a nostril or an eye in the sampling area 18. Through such processing, even when a color component other than the skin color, such as a nostril or an eye, is included in the sampling area 18, it is possible to delete the information about these. ( ⁇ Synthesis processing>)
  • the skin color region extraction processing the data of the skin color intensity image 8 and the data of the mask image 7 are input, and the synthesis processing S04a is executed.
  • the input skin color intensity image 8 and mask image 7 are combined. That is, execution of a t- synthesis process S 04 a in which a multiplication process is performed using the skin color intensity image 8 generated by the skin color intensity extraction process S 03 and the mask image 7 generated by the mask process. As a result, a color intensity image 9 of the masked skin is generated.
  • the skin color region extraction processing the data of the masked skin color intensity image 9 is input, and the skin color region correction processing S05 is executed.
  • the reduction processing is performed on the masked skin color intensity image 9 generated by the synthesis processing S 04 a.
  • the degeneration process By performing the degeneration process, the color intensity of the skin around the eyes and mouth is reduced. In other words, black areas (areas with low or zero skin color intensity) that are not to be subjected to the blur processing are expanded outward.
  • This degeneration processing prevents the blur processing from being performed around the eyes and the mouth. In other words, it is possible to prevent the area around the eyes and mouth that should obtain a clear image from being blurred.
  • a skin color region image 10a is generated. In the skin color region image 10a, pixels having high skin color intensity are represented by large pixel values, and pixels having low skin color intensity are represented by small pixel values.
  • the beautiful skin processing section 5a performs a beautiful skin treatment.
  • the beautiful skin processing performed by the beautiful skin processing unit 5a will be described.
  • the data of the original image 6 and the data of the skin color area image 10a are input, and the blurring filter processing S06a and the beautiful skin synthesis processing S07 are executed, whereby the beautiful skin image 1 is obtained. 2 data is output.
  • the mask processing unit 3, the skin color region extraction unit 4a, and the beautiful skin processing unit 5a are applied as an example of the image generation unit.
  • the beautiful skin processing unit 5a is applied as an example of a color component calculation unit.
  • the data of the beautiful skin image 12 is also data output by the image correction device 1a.
  • the blur filter processing S06a is executed.
  • the blur filter process SO 6 a a blur process is performed on the original image 6.
  • the blur processing may be any existing blur processing. For example, there are methods using a moving average filter, a weighted average filter (including a Gaussian filter), and an ⁇ -filter.
  • the blur filter processing S 06 a among the pixels of the original image 6, only the pixels in the skin color area image 10 a whose skin color intensity value is greater than 0 are subjected to the blur processing. For this reason, the blurring process is not performed on the pixel having the skin color intensity of 0, that is, the pixel that is obviously not the skin color or the pixel masked by the combining process S04a.
  • the execution of the blurring filter processing S 06 a generates a blurred image 11.
  • the beautiful skin processing the data of the original image 6, the data of the skin color area image 10a, and the data of the blurred image 11 are input, and the beautiful skin synthesis processing S07 is executed.
  • the beautiful skin synthesis process S07 translucent synthesis is performed on the original image 6 and the blurred image 11 using the skin color intensity in the skin color region image 10a.
  • Equation 3 is an equation for translucent synthesis performed in the beautiful skin synthesis process S07.
  • G G ors xQ.-V) + G smaall , xV
  • Ror g , G org , B org RGB component of original image
  • V The skin color intensity of the skin color region image (0 to 1)
  • a synthesis process according to the skin color intensity is executed. Specifically, the pixel value (RGB component) of the blurred image 11 is strongly reflected for pixels with high skin color intensity, and the pixel value (RG B component) is strongly reflected.
  • the degree of blurring is increased in a region having a high skin color intensity (ie, a skin color region), and a region having a low skin color intensity (ie, a region not having a skin color). For, the degree of blur becomes weaker.
  • the beautiful skin synthesis process S07 a beautiful skin image 12 is generated.
  • the face of the subject is detected from the image to be processed by the face position detection process S01, and the face rectangular coordinates are obtained.
  • a mask image 7 for masking other than the upper body of the subject is generated based on the face rectangle coordinates.
  • a blur process in which the mask process by the mask image 7 is reflected is executed. For this reason, when the blurring process is performed on an area having a skin color component such as a subject's face, an area other than the subject having the skin color component (for example, the background) in the same image is blurred. No action is taken.
  • the color component of the skin of the subject is extracted from inside the sampling area 18, that is, inside the face area of the subject detected by the face position detection processing S 01. Then, based on the extracted skin color components, a region to be subjected to the blurring processing is determined. That is, a skin color component that is recognized as a skin color when the skin color intensity image 8 is created is determined based on the extracted skin color component. For this reason, for example, if the skin is white and a person is a subject, a skin color intensity image 8 is generated based on the extracted white and skin color components. A skin color intensity image 8 is generated based on the extracted color components of the black skin color.
  • the skin color is sampled from the face position of the original image 6 without fixedly determining the skin color. Therefore, it is possible to cope with a difference in skin color due to race or individual difference, and a stable correction effect can be obtained.
  • the image correction device 1a of the present invention may be mounted on various existing devices. For example, it may be mounted on a printer, a display, a digital camera, an MPEG (Moving Picture Experts Group) player, or the like. In such a case, the image data input to each device is input to the storage unit St as the original image 6 data.
  • the data of the beautiful skin image 12 output from the image correction device 1a is used in accordance with the characteristics of each device. For example, when the image correction device 1a is mounted on a printer, the beautiful skin image 12 is printed by the printer.
  • the image correction device 1a of the present invention may be virtually realized on an information processing device including a CPU by executing each of the processes S01 to S07 in FIG. 2 by the CPU.
  • a program that causes the information processing device to execute each of the processes S01 to S07 is the invention of the present application.
  • This program is recorded on a recording medium such as a CD-ROM, and may be directly executed by a personal computer or a server (for example, a server installed in an ASP (Application Service Provider)), or may be a hard disk or a ROM.
  • the program may be stored in a nonvolatile storage device and executed by these devices.
  • the data of the original image 6 may be input from a scanner or a digital camera connected to the information processing device. Further, the data of the original image 6 may be input by being uploaded or downloaded from another device via a network such as the Internet.
  • the face detection unit 2, the mask processing unit 3, the skin color region extraction unit 4a, and the beautiful skin processing unit 5a may be configured using chips mounted as hardware, respectively.
  • the storage unit St may be configured using the RAM of another device to which the image correction device 1a is attached. That is, the storage unit St does not necessarily need to be provided inside the image correction device 1a, and is not included in the face detection unit 2, the mask processing unit 3, the skin color region extraction unit 4a, and the beautiful skin processing unit 5a. If it is configured to be accessible, it may be provided outside the image correction device 1a. In this case, the storage unit St is stored by another device (for example, the CPU of the device to which the image correction device 1a is attached) and the processing units 2 to 5 of the image correction device 1a. May be configured to be shared.
  • the degree of blur may be determined based on the size of the face rectangle detected in the face position detection processing S 01. Specifically, the larger the face rectangle, the stronger (larger) the degree of blurring is performed. Conversely, the smaller the face rectangle, the weaker (smaller) the degree of blurring is. For example, this can be realized by operating parameters such as the radius of the moving average filter and the weight average filter. In the case of a Gaussian filter, the degree of blur can be changed by changing the standard deviation ⁇ in the following equation.
  • FIG. 8 is a diagram showing a specific example of an operator of ⁇ ⁇ ⁇ .
  • a blur process is performed, but image processing other than the blur process (eg, edge enhancement, brightness correction, color correction, texture mapping) may be performed.
  • image processing other than the blur process eg, edge enhancement, brightness correction, color correction, texture mapping
  • the mask processing unit 3 does not necessarily need to be provided. However, when the mask processing unit 3 is not provided, the processing based on the mask image 7 is not performed. Therefore, the time required to obtain the beautiful skin image 12 may increase.
  • FIG. 9 is a diagram showing a function block of the image correction device 1b.
  • the image correction device 1b differs from the image correction device 1a in that the image correction device 1b includes a beautiful skin processing unit 5b instead of the beautiful skin processing unit 5a.
  • the image correction device 1b includes a beautiful skin processing unit 5b instead of the beautiful skin processing unit 5a.
  • FIG. 10 is a diagram showing a process executed by each functional unit shown in FIG. 9 and an overall process flow of the image correction device 1b.
  • each functional unit of the image correction device 1b will be described with reference to FIGS.
  • the beautiful skin processing unit 5b is different from the beautiful skin processing unit 5a in that the beautiful skin processing unit 5b does not perform the beautiful skin synthesis process S07 and performs the blur filter process S06b instead of the blur filter process S06a.
  • the beautiful skin processing performed by the beautiful skin processing unit 5b will be described.
  • the data of the original image 6 and the data of the skin color area image 10a are input, and the blur filter processing S06b is executed.
  • the blur filter process S 06 b a blur process according to the skin color intensity included in the skin color region image 10 a is performed on each pixel of the original image 6.
  • the degree of blur is set to a large degree for the blurring process for pixels with high skin color intensity, and the degree of blurring is set to low for pixels with low skin color intensity.
  • the blur filter processing 06b may be configured as follows.
  • a blurred image 11 is generated by the blurring filter process SO6a, and the beautiful skin synthesis process S07 is performed using the blurred image 11, the original image 6, and the skin color region image 10a.
  • the beautiful skin images 1 and 2 were generated.
  • the beautiful skin correction device 1 b may generate the beautiful skin image 12 without generating the blurred image 11. More specifically, when calculating the value of each pixel of the beautiful skin image 12 based on the equation (3), a blur process is executed for the pixel to be processed each time. That is, each value of the RGB component of the blurred image used in Equation 3 is calculated only for the necessary pixels each time. With this configuration, there is no need to buffer the blurred image 11 and it is possible to save memory space. You.
  • the beautiful skin image 12 as an output image is directly generated without generating the blurred image 11 in the beautiful skin processing. Therefore, it is possible to reduce the time required for the blur filter processing S 06 a for generating the blurred image 11 and the beautiful skin synthesis processing S 07.
  • FIG. 1 1 for explaining an image correction apparatus 1 c is a third embodiment of the image correction apparatus is a diagram showing the functional Proc of the image correction apparatus 1 c.
  • the image correction device 1c is different from the image correction device 1b in that the image correction device 1c includes a skin color region extraction unit 4c instead of the skin color region extraction unit 4a and an edge mask processing unit 19.
  • the image correction device 1c includes a skin color region extraction unit 4c instead of the skin color region extraction unit 4a and an edge mask processing unit 19.
  • FIG. 12 is a diagram illustrating a process executed by each functional unit illustrated in FIG. 11 and an overall process flow of the image correction device 1c.
  • the respective functional units of the image correction device 1c will be described with reference to FIGS.
  • the edge mask processing section 19 executes an edge mask process.
  • the edge mask processing the original image 6 is input, and the edge mask image creation processing S08 is executed, so that the data of the edge mask image 20 is output.
  • the input original image 6 is reduced, and a reduced image is obtained.
  • the reduction ratio may be determined based on the size of the face rectangle.
  • the width of the largest one of the input face rectangles may be reduced so as to be about a specified pixel (several tens to one hundred pixels).
  • edge extraction processing is performed by any existing technology.
  • edge extraction using a Sobel filter is performed.
  • Figure 13 shows the Sobelf It is a figure showing an example of a filter.
  • FIG. 13 (a) shows a downward Sobel filter
  • FIG. 13 (b) shows an upward Sobel filter.
  • An edge extraction process using each Sobel filter is performed, and an edge image of each Sobel filter is obtained. In this case, two edge images are acquired.
  • the obtained edge images are grayed and combined to obtain a combined edge image.
  • the edge extracted by the downward soft bell filter and the edge extracted by the upward soft bell filter are represented in the combined edge image.
  • the obtained synthesized edge image is inverted, and an inverted edge image is obtained.
  • a reduction process is performed on the inverted edge image.
  • an image in which the extracted edges are spread around is obtained.
  • the inverted edge image subjected to the degeneration processing is enlarged to the size of the original image 6, and an edge mask image 20 is obtained.
  • the pixel values in the edge mask image 20 are treated as the skin color intensity. That is, since the pixel value of the obtained edge portion has a low or zero pixel value due to the inversion process, it is treated as a pixel having a low skin color intensity.
  • the influence of the extracted edge extends to its surroundings due to the degeneration processing. That is, an edge mask image 20 is created as an image indicating that the extracted edge and its surroundings have low skin color intensity.
  • the skin color region extraction unit 4c differs from the skin color region extraction unit 4b in that the synthesis process S04c is performed instead of the synthesis process S04a.
  • the skin color area extraction processing performed by the skin color area extraction unit 4c will be described, particularly the synthesis processing S04c.
  • the skin color intensity extraction process S03 After the skin color intensity extraction process S03 is performed, the skin color intensity image 8, the mask image 7, and the et al.
  • the dimask image 20 is input, and the combining process S04c is executed.
  • the input skin color intensity image 8, mask image 7, and edge mask image 20 are combined. That is, generated by skin color intensity extraction processing S 03 A multiplication process is performed using the obtained skin color intensity image 8, the mask image 7 generated by the mask process, and the edge mask image 20 generated by the edge mask process.
  • the color intensity image 9 c of the mask Sumihada is generated.
  • the edge mask image 20 is used in the combining process S04c.
  • the color intensity of the extracted edge and the surrounding skin is set to low or zero. Therefore, the synthesis process S04c obtains a masked skin color intensity image 9c in which the color intensity of the edge and the surrounding skin is low or set to 0.
  • the beautiful skin processing is performed using the masked skin color intensity image 9c, the other skin is maintained while maintaining the sharpness of the edge and its surroundings, that is, the eyes, eyebrows, and mouth. It is possible to perform the blurring process on the color portion of. In particular, it is effective for beautiful skin processing of a face image having lipstick close to skin color or eyebrows close to skin color (for example, thin eyebrows).
  • FIG. 14 is a diagram for illustrating a difference between the skin color intensity image 8 and the edge mask image 20.
  • FIG. 14 (a) is an example of the skin color intensity image 8
  • FIG. 14 (b) is an example of the edge mask image 20.
  • the skin color intensity image 8 since the color of the eyebrow of the left person in the original image 6 is close to the skin color, the skin color intensity image 8 has a value indicating that the skin color intensity of the eyebrow portion is close to the skin color.
  • the skin color intensity image 8 since the color of the lips of the right person in the original image 6 is close to the skin color, the skin color intensity image 8 has a value indicating that the skin color intensity of the lips is close to the skin color.
  • the blurring process is performed on the eyebrows of the left person and the lips of the right person, and a beautiful skin image 12 with blurred eyebrows and lips is obtained.
  • the edge mask image 20 since the edges of the eyebrows of the left person and the edges of the lips of the right person were extracted, the skin color intensity of the eyebrows of the left person and the lips of the right person became skin tone. The value indicates that it is far away. For this reason, by using the edge mask image 20, blurring is not performed on the eyebrows and lips, and the sharpness of these portions is maintained. It becomes possible.
  • the order in which the enlargement processing, the inversion processing, and the reduction processing are performed may be changed as necessary.
  • the degeneration processing is performed before the inversion processing, the pixel value (skin color strength) is not high or the pixel value (skin color strength) is not expanded to the outside, but the pixel value (skin color strength) is high. 5 The area of 5 ("1" for skin color intensity) is expanded outward.
  • the face element mask processing section (corresponding to the face element extraction means) and the face element mask image creation processing are executed, and the edge mask image 20 is created.
  • a face element mask image may be created.
  • elements face elements included in the subject's face are extracted instead of edges. Such face elements are extracted, for example, by performing template matching. Then, the face element mask image is configured so that the extracted face element and the skin color intensity of pixels within a predetermined range from this face element are set to low or zero.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Editing Of Facsimile Originals (AREA)

Abstract

画像補正処理の対象となる領域、例えば人物像を含む画像中における人物像の領域を自動的に特定し、特定された領域に限ってぼかし処理などの画像補正処理を実施する。

Description

明 細 書 画像処理装置 技術分野
本発明は、 撮像された画像、 特に人物を被写体とした画像に対する画像処理に 適用されて有効な技術に関する。 背景技術
従来、 人物を被写体とした画像に対して画像補正を行うことにより、 被写体の 肌をなめらかに美しく見せる技術がある。 このような画像捕正の具体的な例とし て、 ε—フィルタを用いることにより、 画像全体のエッジや明るさ差分に対し局 所的にぼかし処理を施す技術や、 画像全体において肌の色成分の領域に対しての みぼかし処理を施す技術がある (例えば、 特許文献 1参照) 。
また、 顔画像に含まれる望ましくない成分、 例えば皺、 しみ、 肌荒れ、 にきび などを修正 ·除去することを目的とする技術として、 以下のような技術もある (特許文献 2参照) 。
まず、 顔を主体とする画像を形成する各画素の信号値に対して、 差分検出部に より各画素の周囲の画素一つ一つとの信号レベル差が検出される。 閾値判定部に より、 この信号レベル差と基準値とが比較される。 演算部により、 この比較の結 果に応じて信号レベル差に所定の係数が乗じられ、 各画素値に加えられる。 この 加算結果から、 比較における基準値や乗算部における係数が画素の位置や画像に 応じて選択されることにより、 顔画像に含まれる望ましくない成分が取り除かれ た画像が得られる。
また、 従来技術として、 人物画像の身体部分、 特に、 その顔部分や頭部分につ いては装飾が重なることがないようにしたうえで装飾を付加することを可能とす る人物画像処理装置がある (特許文献 3参照) 。 この人物画像処理装置は、 人物 画像の身体部分を構成する少なくとも一つの要素に基づいて身体部分領域の位置 及び範囲を設定する手段と、 身体部分領域を除いた背景領域のみに装飾を付加す る手段とを備えている。 また、 この人物画像処理装置は、 人物画像の身体部分を 構成する少なくとも一つの要素に基づいて身体部分領域の位置及び範囲を設定す る手段と、 身体部分領域の外周囲に沿って装飾を付加する手段とを備えるように 構成される場合もある。
[特許文献 1 ]
特許第 3 3 1 9 7 2 7号公報
[特許文献 2 ]
特開 2 0 0 0— 1 0 5 8 1 5号公報
[特許文献 3 ]
特開 2 0 0 0— 0 2 2 9 2 9号公報 発明の開示
従来の技術では、 被写体の肌に対するぼかし処理が行われる場合、 画像内に存 在する肌の色に近い成分の色を有するものを対象としてぼかし処理が実行されて いた。 このため、 肌の色と異なる成分の色を有するものまでがぼかし処理の対象 となりぼやけてしまうことは防止されていた。
しかしながら、 従来の技術では、 画像内に肌の色と近い成分の色を有する物体 や背景があった場合、 このような部分までぼかし処理の対象となっていた。 この ため、 被写体の人物以外の、 肌の色と近い成分の色を有する背景までがぼやけて しまうという問題があった。
また、 従来の技術では、 あらかじめぼかし処理の対象となる肌の色成分が固定 的に保持されていた。 このため、 従来の技術では、 人種や個人差による肌の色の 差異に対応できない場合があった。 このような場合、 肌の領域に対するぼかし処 理が正確に実施されないことがあった。
また、 上記のようなぼかし処理における問題は、 ぼかし処理に限らず他の画像 処理においても問題となっていた。
本発明では、 このような問題を解決し、 本来はぼかし処理などの画像処理の対 象とならない領域に対して画像処理が実施されることを防止することを目的とす る。 例えば、 被写体となる人物の特定領域 (例えば顔の肌部分) のみに限定して画 像処理 (例えばぼかし処理) を行うことにより、 肌の色と近い成分の色を有する 背景が画像処理によって不自然な状態 (例えばぼやけてしまうこと) となること を防止することを目的とする。
また、 例えば、 画像処理 (例えばぼかし処理) の対象となる領域を決定するた めの色成分、 例えば肌の色成分を画像から特定することにより、 人種や個人差に よる肌の色の差異に応じた画像処理を実施することを目的とする。
上記問題を解決するため、 本発明は以下のような構成をとる。 本発明の第一の 態様は、 画像処理装置であって、 所定領域特定手段と画像生成手段とを備える。 所定領域特定手段は、 画像中の被写体である人物の身体部分を基準として決ま る所定領域を特定する。 所定領域特定手段は、 ユーザによって手動で所定領域が 特定されるように構成されても良い。 即ち、 所定領域特定手段は、 ユーザによつ て指定された画像中の領域に基づいて前記身体部分を特定し、 特定されたこの身 体部分を基準として前記所定領域をさらに特定するように構成されても良い。 例 えば、 所定領域特定手段は、 ユーザによって指定された領域を身体部分として特 定するように構成されても良いし、 ユーザによって指定された点、 領域、 色、 形 状などに基づいて身体部分を特定するように構成されても良い。 そして、 所定領 域特定手段は、 このようにして特定された身体部分を基準として所定領域を特定 するように構成されても良い。
また、 所定領域特定手段は、 ユーザによる入力から独立して所定領域を特定す るように構成されても良い。 例えば、 所定領域特定手段は、 画像中の被写体であ る人物の身体部分を検出する検出手段と、 検出手段によつて検出された身体部分 を基準として所定領域を特定する特定手段とを備えるように構成されても良い。 具体的には、 検出手段は、 被写体の身体部分の位置及び範囲 (大きさ) 等を検 出する。 「身体部分」 とは、 頭, 顔, 手, 足, 胴体など、 人物の身体の一部分又 は全体を指す。 検出手段は、 既存のどのような手段を用いて構成されても良い。 画像生成手段は、 所定領域特定手段によって特定された所定領域に対して画像 処理が施された画像を生成する。 ここで言う 「画像処理」 とは、 画像を操作する 処理である。 画像処理の例として、 画像補正やテクスチャマッピング等の処理が ある。
また、 ここで言う 「画像補正」 とは、 画像の被写体の本質を変えることなく画 像を操作する処理である。 画像補正の例として、 ぼかし処理, エッジ強調, 明る さ補正, 色補正などがある。 ぼかし処理とは、 ここでは肌の皺やしみ等の画像部 分をぼかすことにより、 被写体となる人物の肌をなめらかに見せるための処理で ある。 ぼかし処理は、 例えば平滑化と呼ばれる技術を用いて行われる処理であり 肌の画像中の高周波成分を除去することにより実施される。 例として、 移動平均 フィルタや荷重平均フィルタ (ガウシアンフィルタを含む) や ε —フィルタを用 いた方法がある。
本発明の第一の態様によれば、 所定領域特定手段によつて特定された所定領域 以外の部分については画像処理が施されていない画像を取得できる。 即ち、 被写 体となる人物の身体部分を基準とした所定領域のみに限定して画像処理が施され た画像を取得できる。 従って、 画像処理の対象となるべき被写体とは異なる部分 (例えば背景) が画像処理によって不自然な状態となってしまうことが防止され る。 言い換えれば、 ユーザが意図しない部分に対して画像処理が施されることが 防止される。
例えば、 画像に施される画像処理がぼかし処理である場合、 所定領域特定手段 によって特定された所定領域以外の部分についてはぼかし処理が施されな!/、画像 を取得できる。 言い換えれば、 被写体となる人物の所定領域のみに限定してぼか し処理が施された画像を取得することが可能となる。 従って、 被写体とは異なる 部分 (例えば背景) がぼかし処理によってぼやけた画像となってしまうことを防 止できる。
画像生成手段は、 所定領域特定手段によつて特定された所定領域の基準となつ た身体部分から抽出された、 被写体である人物の肌の色の色成分に基づいた画像 処理が施された画像を生成するように構成されても良い。
画像生成手段が上記のように構成されることにより、 被写体である人物各々の 肌の色に対応した画像処理が実行される。 従って、 人種や個人差による肌の色の 差異に対応し、 異なる肌の色の被写体に対してもそれぞれ正確に画像処理が実施 された画像を取得することが可能となる。 同様の効果を奏する構成として、 画像生成手段は、 所定領域特定手段によって 特定された所定領域内の領域であって、 この所定領域の基準となつた身体部分を 主に占める色成分と等しい又は近い色成分を有する領域に対して画像処理が施さ れた画像を生成するように構成されても良い。
本発明の第二の態様では、 第一の態様における画像生成手段は、 強度値算出手 段とマスク手段と画像処理手段と色成分算出手段とを備えるように構成される。 強度値算出手段は、 処理対象となっている画像の各画素について、 各画素の色 成分が、 予め定められた肌の色成分にどれだけ近いかを示す強度値を算出する。 色成分とは、 どのような色空間に基づいた値であっても良く、 例えば L a b値や R G B値や X y値などがある。 肌の色成分は、 予め定められた値であり、 例えば 画像捕正装置の R AM (Random Access Memory) に記憶される。 例えば、 強度値 は、 0から 2 5 5までの 2 5 6階調の値で表現される。 例えば、 強度値は、 0の 場合に最も肌の色成分から遠いことを示し、 2 5 5の場合に最も肌の色成分に近 いこと (肌の色成分そのものであること) を示す。
. マスク手段は、 所定領域特定手段によって特定された所定領域以外の画素につ いての強度値を、 肌の色成分に遠いことを示す値にする。
例えば、 肌の色成分に最も遠いことを示す値として 0を、 最も近いことを示す 値として 2 5 5を適用することが可能である。 マスク手段は、 所定領域以外の領 域にマスク処理を行うためのマスク画像を生成し、 生成されたマスク画像と、 各 画素の強度値を示す画像との乗算処理を行うことによって、 強度値を上記のよう に設定しても良い。 上記例示の場合、 所定領域以外の領域の強度値は 0であり、 所定領域内の強度値は 0以上の値であるように構成される。
画像処理手段は、 処理対象となっている画像に対して画像処理を施す。 画像処 理手段が実施する画像処理の定義は、 画像生成手段の説明において定義した画像 処理と同じである。
色成分算出手段は、 各画素における強度値が肌の色成分に遠いことを示すほど、 この画素の新たな色成分として前記元の画像の画素の色成分に近い色成分を算出 し、 各画素における強度値が肌の色成分に近いことを示すほど、 この画素の新た な色成分として前記画像処理手段によって生成される画像の画素の色成分に近い 色成分を算出する。 色成分算出手段は、 強度値算出手段及びマスク手段によって 算出された強度値に基づいて、 各画素の新たな色成分 (即ち出力となる画像の各 画素の色成分) を算出する。
例えば、 画像処理がぼかし処理である場合、 強度値が大きいほど、 ぼかし画像 (元の画像に対してぼかし処理が実施されて得られる画像) の色成分を強く反映 させた画像が生成されるように、 色成分算出手段は構成される。 また、 強度値が 小さいほど元の画像の色成分を強く反映させた画像が生成されるように、 色成分 算出手段は構成される。 このように構成されることにより、 肌の色以外の領域な どに画像処理の影響が及んでしまうことが防止される。 このような効果を最も顕 著に得たい場合には、 所定領域以外の画素についての強度値を、 肌の色成分に最 も遠いことを示す値となるように設定できる。
本発明の第三の態様では、 本発明の第一の態様における画像生成手段は、 強度 値算出手段とマスク手段と画像処理手段とを備えるように構成される。 本発明の 第三の態様では、 画像生成手段は色成分算出手段を備えず、 画像処理手段によつ て出力となる画像の色成分が算出される。 第三の態様における強度値算出手段と マスク手段とは、 第二の態様における強度値算出手段とマスク手段と同じである ( 一方、 第三の態様における画像処理手段は、 処理対象となっている画像に対し、 各画素における強度値が肌の色成分に遠いことを示すほど画像処理の影響を弱め てこの画素に対する画像処理を実施し、 各画素における強度値が肌の色成分に近 いことを示すほど画像処理の影響を強めてこの画素に対する画像処理を実施する c この画像処理手段は、 強度値算出手段及びマスク手段により得られる該画像の各 画素の強度値に基づいて画像処理を実施する。 このように、 本発明の第三の態様 では、 色成分算出手段を備える必要がない。 このため、 装置の小型化や処理の高 速化、 コストの削減などを実現することができる。
本発明の第四の態様では、 画像生成手段は、 強度値算出手段と画像処理手段と 色成分算出手段とを備える。 第四の態様では、 強度値算出手段が算出する強度値 の定義が第二の態様と異なる。 第四の態様では、 強度値は、 各画素の色成分が、 所定領域の基準となった身体部分を主に占める色成分にどれだけ近いかを示す。 従って、 第四の態様における強度値算出手段は、 処理対象となっている画像の各 画素について、 各画素の色成分が、 所定領域の基準となった身体部分を主に占め る色成分にどれだけ近いかを示す強度値を算出する。
また、 第四の態様では、 マスク手段は備えられても備えられなくても良い点で、 第二の態様と異なる。 マスク手段が備えられない場合、 当然のことではあるが、 色成分算出手段は、 マスク画像における強度値を用いずに、 各画素の新たな色成 分を算出する。 また、 マスク手段が備えられない場合、 画像処理手段は、 処理対 象となっている画像の所定領域に対して画像処理を施すように構成される。
上記三点を除けば、 第四の態様と第二の態様とは同様の構成をとる。 第四の態 様では、 第二の態様と異なり、 強度値は、 所定領域特定手段の処理結果に応じて 変化する。 即ち、 被写体である人物各々の身体部分における肌の色に対応した画 像処理が実行される。 従って、 人種や個人差による肌の色の差異に対応し、 異な る肌の色の被写体に対してもそれぞれ正確に画像処理を実施することが可能とな る。
本発明の第五の態様では、 画像生成手段は、 強度値算出手段と画像処理手段と を備えるように構成される。 また、 本発明の第五の態様では、 本発明の第三の態 様と同様に、 色成分算出手段を備える必要はなく、 画像処理手段によって出力と なる画像の色成分が算出される。 このため、 本発明の第五の態様によれば、 本発 明の第三の態様と同様に、 装置の小型化や処理の高速化、 コストの削減などを実 現することができる。 ただし、 本発明の第五の態様では、 本発明の第四の態様と 同様に、 強度値は予め定められた肌の色成分を基準として求められるのではなく- 所定領域の基準となった身体部分を主に占める色成分に基づいて求められる。 こ のため、 本発明の第五の態様によれば、 人種や個人差による肌の色の差異に対応 し、 異なる肌の色の被写体に対してもそれぞれ正確に画像処理を実施することが 可能となる。 また、 本発明の第五の態様では、 第四の態様と同様にマスク手段は 備えられても備えられなくても良い。
本発明の第二から第五の態様において、 画像処理手段は、 所定の範囲の強度値 を有する画素については画像処理を実行しないように構成されても良い。 「所定 の範囲の強度値」 とは、 画像処理の対象となることを望まない領域を示す強度値 である。 具体的な例として、 肌の色成分や所定領域の基準となった身体部分を主 に占める色成分に最も遠いことを示す強度値がある。 第二, 第四の態様における 色成分算出手段や第三, 第五の態様における画像処理手段が、 所定の範囲の強度 値を有する画素に対しては画像処理の影響が瑰れないような出力画像を生成する ように設定される場合がある。 このような設定の場合、 所定の範囲の強度値を有 する画素に対しわざわざ画像処理を実行する必要は無い。 従って、 このような画 素に対する画像処理を省略することにより、 画像処理手段による画像処理に要す る時間を削減することが可能となる。 特に、 このように構成されていない第二, 第四の態様では、 画像処理手段は各画素の強度値によらずに画像処理を実施する ( そして、 色成分算出手段によって強度値に応じた処理が実行され、 結果として画 像処理手段によつて実施された画像処理が全く反映されない画素が生じることが ある。 このため、 このように強度値に応じて画像処理を実施するか否か画像処理 手段が判断する構成は、 第二, 第四の態様において特に有効である。
本発明の第六の態様では、 画像生成手段は、 実施する画像処理の内容を、 所定 領域特定手段によって特定された所定領域の基準となつた身体部分の大きさに基 づいて決定する。 例えば、 画像生成手段は、 所定の画像処理を実施する際のパラ メタを、 所定領域の基準となった身体部分の大きさに基づいて決定する。 このよ うなパラメタの例として、 ぼかし処理のぼかし度合い (さらに具体的には、 ぼか し処理をガウシアンフィルタを用いて実行する場合にはその半径の大きさ等) 、 エッジ強調の度合い、 明るさ補正の度合い等がある。 画像処理の種類の決定の例 として、 エッジ強調を実行するか否か、 明るさ補正を実行するか否か、 ぼかし処 理を実行するか否かなどの判断がある。
ぼかし処理を例に説明すると、 小さい領域に対してぼかし処理を過度に実行し てしまうと、 領域全体がぼけてしまい所望の画像 (例えば肌が適度になめらかに 補正された画像) が得られない。 一方、 大きい領域に軽微なぼかし処理を実行し てしまうと、 ぼかされるべき箇所 (例えば、 顔画像に含まれる望ましくない成分. 例えば皺、 しみ、 肌荒れ、 にきび等) が十分にぼかされず、 所望の画像が得られ ない。 エッジ強調の度合い等の他の画像処理についても同様である。 このような 問題に対し、 本発明の第六の態様では、 所定領域の基準となった身体部分の大き さに応じた適正な画像処理の内容が決定 ·実行され、 ユーザの所望の画像を得る ことが可能となる。
また、 画像生成手段は、 実施する画像処理の内容を、 検出手段によって検出さ れた身体部分の大きさに基づいて決定するように構成されても良い。
本発明の第七の態様では、 要素抽出手段がさらに備えられる。 要素抽出手段は、 処理対象となっている画像中の被写体である人物の身体部分を構成する要素であ つて、 所定領域に含まれる要素を少なくとも一つ抽出する。 「要素」 とは、 身体 部分を構成する部位を指す。 このような要素の例として、 顔のパーツ (具体的に は目、 瞼、 唇、 鼻、 鼻孔、 眉、 睫毛などがある) がある。 この場合、 顔が身体部 分であり、 顔のパーツが要素となる。 要素抽出手段には、 既存のどのような技術 が適用されても良い。
本発明の第七の態様では、 画像生成手段は、 要素抽出手段によって抽出された 要素を基準として決まる要素領域に対する画像処理を制限して実施する。 具体的 には、 画像生成手段は、 上記所定の領域に対して画像処理を行わないように構成 されても良い。 また、 画像生成手段は、 上記所定の領域に対して画像処理を実施 する際に、 画像処理が実施される他の領域に比べてパラメタが異なる (画像処理 の度合いが抑えられた) 処理を実施するように構成されても良い。
本発明の第七の態様では、 画像生成手段は、 要素抽出手段によって抽出された 要素を基準として決まる要素領域に対し、 制限された画像処理を実施する。 この ため、 要素領域に対する画像処理の影響が抑制される。 本発明の他の態様では、 色成分及び所定領域の基準となった身体部分などに基づいて画像処理の内容が決 定された。 この場合、 所定領域内であって肌の色成分やこの所定領域の基準とな つた身体部分を主に占める色成分に近い色成分を有する画素については、 上記要 素に該当する画素についても無条件で画像処理が実施されていた。 しかし、 実際 にはこれらの要素に対する画像処理の影響を制限したい (抑えたい) という要望 がある。 例えば、 化粧の方法によっては、 唇の色 (口紅の色) や眉毛などの要素 が肌の色成分に近い色成分によって構成される場合がある。 このような場合、 他 の肌の部分と同じような画像処理 (例えばぼかし処理) が各要素に対して実施さ れることは望まれないことがある。 このような場合に本発明の第七の態様は有効 である。 即ち、 強度値算出手段やマスク手段によって十分に区別ができない要素 に対する画像処理を的確に抑制することが可能となる.。
本発明の第二から第五の態様では、 画像生成手段は、 エッジマスク手段がさら に備えられるように構成されても良い。 エッジマスク手段は、 処理対象となって いる画像の各画素についてエッジの強度を取得し、 各画素について、 抽出された ェッジの強度が強いほど肌の色成分や所定領域の基準となつた身体部分を主に占 める色成分に遠いことを示す強度値を与える。 エッジの強度に基づいた上記の強 度値が取得されることにより、 被写体の身体部分を構成する要素の縁が、 上記色 成分に遠いことを示す強度値を持つ画素として取得される。 エッジマスク手段は、 ある画素について取得されたエッジの強度を、 その画素から所定の範囲に位置す る周囲の画素にも与えるように構成されても良い。
このように構成された本発明の第二から第五の態様では、 色成分算出手段や画 像処理手段は、 エッジマスク手段によって取得された強度値にさらに基づいて、 各画素における新たな色成分を取得するように構成される。 このように構成され た本発明の第二から第五の態様では、 第七の態様と同様の効果を得ることが可能 となる。
また、 このように構成された本発明の第二から第五の態様において、 エッジマ スク手段は、 処理対象となっている画像を縮小してから各画素に対し強度値を与 え、 さらに元の大きさの画像に拡大するように構成されても良い。
エッジマスク手段によって抽出されたエッジについては、 上記のように画像処 理が制限されて実施される。 しかし、 たとえば肌の不要な成分をぼかす処理を例 にすると、 肌の不要な成分がエッジとしてエッジマスク手段において検出されて しまっては、 このような肌の不要な成分に対するぼかし処理が有効に機能しない c 従って、 エッジマスク手段によってこれらの不要な成分のェッジが抽出されない ように制御する必要がある。
ところで、 画像は、 縮小される際に元の画像における微少なエッジの情報を喪 失する。 このため、 縮小きれた画像に.おいてエッジ強度が取得されると、 元の画 像における微少なエッジについては取得されない。 また、 ぼかし処理の対象とな る肌の不要な成分は、 一般的に微少なエッジにより構成されることが多い。 この ような特徴を利用し、 上記のように構成されることにより、 エッジマスク手段に よって肌の不要な成分についてのエッジ取得を防止することが可能となる。 即ち、 エッジマスク手段が上記のように構成されることにより、 所望のぼかし処理を実 施することが可能となる。 同様の効果を得るために、 メディアンフィルタ等の平 滑化処理を実施した後にエッジ抽出を実施することや、 ェッジ抽出処理に用いら れるフィルタの半径を大きく設定することなども有効である。 また、 縮小され た画像においてェッジが抽出されるため、 ェッジの抽出処理に要する時間を削減 することも可能となる。
本発明の第八の態様は、 画像処理装置であって、 像特定手段と画像処理手段と を備える。 像特定手段は、 画像中の任意の像を含む領域の位置及び範囲を特定す る。 任意の像とは、 画像処理手段による画像処理の対象となる像であり、 どのよ うなものであっても良い。 例えば、 顔や手などの人物の身体の一部分又は全体や、 食物や自動車等の物や、 空や山などの背景である。
像特定手段は、 既存のどのような技術を用いて構成されても良い。 例えば、 像 特定手段は、 注目される任意の像と似た形状のパターンを用いることによるパタ ーンマッチングを実行するように構成されても良い。
画像処理手段は、 像特定手段によって特定された領域内の領域であって、 この 領域を主に占める色成分と等しい又は近い色成分を有する領域に対して画像処理 が施された画像を生成する。 画像処理手段が実行する画像処理の例として、 ロー パスフィルタやハイパスフィルタを用いた処理がある。 他にも、 本発明の第一の 態様において定義した画像処理や色の反転処理や画像の回転処理など、 様々な処 理がある。
本発明の第八の態様によれば、 特定された領域内の領域であっても、 主要部と は異なる部位に対して、 画像処理が実施されることを防止することが可能となる。 例えば、 車の車体 (主要部) のみの色を変更したい場合に、 窓ガラスやバンパー 等 (主要部と異なる部位) の色が変更されることを防止することが可能となる。 本発明の第一から第八の態様は、 プログラムが情報処理装置によって実行され ることによって実現されても良い。 即ち、 本発明は、 上記した第一から第八の態 様における各手段が実行する処理を、 情報処理装置に対して実行させるためのプ ログラム、 或いは当該プログラムを記録した記録媒体として特定することができ る。
本発明によれば、 被写体となる人物の特定の領域のみに限定して画像補正を行 うことが可能となる。 従って、 被写体とは異なる部分 (例えば背景) が画像補正 によって不自然な状態となってしまうことが防止される。 また、 人種や個人差に よる肌の色の差異に応じた画像処理を実施することが可能となる。 図面の簡単な説明
図 1は、 画像補正装置の第一実施形態の機能ブロックを示す図であり ; 図 2は、 画像補正装置の第一実施形態の処理フローを示す図であり ; 図 3は、 マスク処理の概要を示す図であり ;
図 4は、 第一実施形態における肌の色領域抽出処理の概要を示す図であり ; 図 5は、 肌の色強度抽出処理の概要を示す図であり ;
図 6は、 肌の色成分のヒストグラムの例を示す図であり ;
図 7は、 第一実施形態における美肌処理の概要を示す図であり ;
図 8は、 n X nのオペレータの例を示す図であり ;
図 9は、 画像補正装置の第二実施形態の機能ブロックを示す図であり ; 図 1 0は、 画像補正装置の第二実施形態の処理フローを示す図であり ; 図 1 1は、 画像補正装置の第三実施形態の機能プロックを示す図であり ; 図 1 2は、 画像補正装置の第三実施形態の処理フローを示す図であり ; 図 1 3は、 ソーベルフィルタの例を示す図であり ;
図 1 4は、 肌の色強度画像とエッジマスク画像の違いの例を示す図である。 発明を実施するための最良の形態
[第一実施形態]
次に、 図を用いて本発明の実施形態における画像補正装置について説明する。 以下の説明では、 画像補正装置の具体例として、 人物画像における肌領域への画 像補正を行うための画像捕正装置の第一実施形態である画像補正装置 1 aについ て説明する。 具体的には、 実施される画像処理の例としてぼかし処理の場合につ いて説明する。 ただし、 画像補正装置 1 aは、 人物画像以外の画像、 例えば車の 画像や風景の画像に適用されても良い。 この場合は、 色を変換する画像補正ゃハ ィパスフィルタを用いた画像補正など、 様々な画像処理が考えられる。
この説明において、 人物画像とは、 少なくとも人物の顔の一部または全部の画 像が含まれる画像である。 従って、 人物画像とは、 人物全体の画像を含んでも良 いし、 人物の顔だけや上半身だけの画像を含んでも良い。 また、 複数の人物につ いての画像を含んでも良い。 さらに、 背景に人物以外の風景 (背景:被写体とし て注目された物も含む) や模様など
のいかなるパターンが含まれても良い。
なお、 本実施形態の説明は例示であり、 本発明の構成は以下の説明に限定され ない。
〔システム構成〕
画像補正装置 l aは、 ハードウェア的には、 バスを介して接続された CPU (中央演算処理装置) , 主記憶 (RAM) , 補助記憶装置等を備えている。 補助 記憶装置は、 不揮発性記憶装置を用いて構成される。 ここで言う不揮発性記憶装 置とは、 いわゆる ROM (Read-Only Memory: E PROM (Erasable
Programmable Read-Only Memory) , EE PROM (Electrically Erasable Programmable Read-Only Memory) , マスク ROM等を含む) , FRAM
(Ferroelectric RAM) , ハードディスク等を指す。
図 1は、 画像補正装置 1 aの機能プロックを示す図である。 画像補正装置 1 a は、 補助記憶装置に記憶された各種のプログラム (OS, アプリケーション等) が主記憶にロードされ CPUにより実行されることによって、 顔検出部 2, マス ク処理部 3 , 肌の色領域抽出部 4 a, 美肌処理部 5 a , 及び記憶部 S t等を含む 装置として機能する。 顔検出部 2, マスク処理部 3, 肌の色領域抽出部 4 a, 及 び美肌処理部 5 aは、 本発明による画像補正プログラムが CPUによって実行さ れることにより実現される。
また、 記憶部 S tは、 いわゆる RAMを用いて構成される。 記憶部 S tには、 顔検出部 2, マスク処理部 3, 肌の色領域抽出部 4 a, 及び美肌処理部 5 aによ つて各処理が実行される際に利用される。 例えば、 記憶部 S tには、 処理対象と なる原画像 6のデータや、 中間生成データとしてのマスク画像 7, 肌の色強度画 像 8, マスク済肌の色強度画像 9 , 肌の色領域画像 1 0 a, 及ぴぼかし画像 1 1 等のデータや、 出力データとしての未肌画像 1 2のデータが読み書きされる。 図 2は、 図 1に示される各機能部によって実行される処理と、 画像補正装置 1 aとしての全体の処理フローを示す図である。 以下、 図 1 3を用いて、 各機能部 について説明する。
〈顔検出部〉
顔検出部 2は、 顔検出処理を実行する。 以下、 顔検出処理について説明する。 顔検出処理では、 原画像 6のデータが入力され、 顔位置検出処理 S O 1が実行さ れることにより、 顔矩形座標が出力される。 即ち、 顔検出処理では、 被写体の身 体部分として顔が検出される。 この顔矩形座標により、 原画像 6における被写体 となった人物の顔の位置が特定され
る。
原画像 6のデータとは、 画像補正装置 1 aに対して入力される人物画像のデー タである。 顔矩形とは、 原画像 6に含まれる人物の顔部を含む矩形として認識さ れる矩形 (以下、 顔矩形と呼ぶ:図 3 ( a ) の 1 7を参照) である。 顔矩形座標 とは、 原画像 6における顏矩形の位置や大きさを示すデータである。
顔位置検出処理 S O 1は、 既存のどのような方法によって実現されても良い (例えば、 特許文献 3参照) 。 例えば、 顏全体の輪郭に対応した基準テンプレー トを用いたテンプレートマッチングによつて顔矩形座標が得られても良い。 また、 顔の構成要素 (目, 鼻, 耳など) に基づくテンプレートマッチングによって顔矩 形座標が得られても良い。 また、 クロマキ一処理によって頭髪の頂点が検出され、 この頂点に基づいて顔矩形座標が得られても良い。 また、 顔位置検出処理 S O 1 では、 顔矩形や顔矩形座標がユーザによって手動で特定されても良い。 同様に、 ユーザによって入力された情報に基づいて、 即ち半自動で顔矩形や顔矩形座標が 特定されても良い。
〈マスク処理部〉
マスク処理部 3は、 マスク処理を実行する。 以下、 マスク処理について説明す る。 マスク処理では、 顔矩形座標が入力され、 マスク画像作成処理 S 0 2が実行 されることにより、 マスク画像 7のデータが出力される。 マスク画像作成処理 S 02では、 被写体となった人物の顔の位置を基に、 即ち 本装置 1においては入力された顔矩形座標を基に、 被写体となった人物の顔と顔 の下部の領域を推測し、 推測された領域以外にマスクをかけるためのマスク画像 7が生成される。 言い換えれば、 マスク画像作成処理 S 02では、 身体部分とし ての顔の位置を基準として所定領域 (ここでは顔と顔の下部の領域) が特定され、 この領域以外にマスクをかけるためのマスク画像 7が生成される。 このように、 所定領域特定手段の一例として、 この実施形態では顔検出部 2及びマスク処理部 3が適用される。 また、 特定手段, マスク手段の一例として、 この実施形態では マスク処理部 3が適用される。
図 3は、 マスク画像作成処理 S 02の概要を示す図である。 マスク画像作成処 理 S 02では、 まず、 入力された顔矩形座標に応じた二つの楕円 1 3, 14の座 標が、 以下の数 1の式を用いて算出される。 具体的には、 まず、 顔矩形の幅
(w) 及ぴ高さ (h) が算出又は入力される。 そして、 あらかじめ設定されてい る楕円縦軸係数 (p O, p 1) 及び楕円横軸係数 (q 0, q 1) と w及び hとが それぞれ乗算されることにより、 二つの楕円の長軸及ぴ短軸の長さ (a 0, b 0, a 1 , 1) が得られる。
楕円 1 3は被写体となった人物の顔の領域を、 楕円 14は被写体となった人物 の顔の下部 (首, 胸元, 肩など) の領域を示す図形である。 本発明では、 楕円 1 3は顔矩形 1 7の 4点に接するように設定される。 また、 楕円 14は、 その長軸 が水平となる状態で、 楕円 1 3の最下部に外接するように設定される。
[数 1] aO = h xpO
b0 =ν xqO
al- h x pi
bl =w xql マスク画像作成処理 S 02では、 次に、 得られた二つの楕円 1 3, 14がそれ ぞれ拡大されることにより、 楕円 15, 16が得られる。 ここでは、 楕円 13及 ぴ楕円 1 5と楕円 14及び楕円 1 6とは、 それぞれ同一の中心 (長軸と短軸との 交点) を有する。 そして、 得られた楕円 1 3〜1 6を用いて、 マスク画像 7が得 られる。
例えば、 まず楕円 1 3の内側及び楕円 1 4の内側が透過領域 (マスクされない 領域) に設定される。 次に、 楕円 1 5と楕円 1 3との間の領域、 及び楕円.1 6と 楕円 1 4との間の領域において、 外側 (楕円 1 5, 1 6側) から内側 (楕円 1 3, 1 4側) へ向けて透過の割合が大きくなる透過率のグラデーションを生成する。 このグラデーションは、 線形であっても非線形であっても良い。 そして、 楕円 1 5の外側かつ楕円 1 6の外側である領域は、 不透過領域 (マスクされる領域) に 設定される。
このようなマスク画像生成処理 S 0 2により、 マスク画像 7のデータが出力さ れる。 マスク画像 7は、 楕円以外のどのような図形を用いて生成されても良い。 例えば、 人物の上半身の形状をした特殊な図形を用いて生成されても良い。
〈肌の色領域抽出部〉
肌の色領域抽出部 4 aは、 肌の色領域抽出処理を実行する。 以下、 肌の色領域 抽出処理について説明する。 肌の色領域抽出処理では、 原画像 6のデータ, 顔矩 形座標, 及びマスク画像 7のデータが入力され、 肌の色強度抽出処理 S 0 3, 合 成処理 S O 4 a, 及ぴ肌の色領域補正処理 S 0 5が実行されることにより、 肌の 色領域画像 1 0 aのデータが出力される。 このように、 強度値算出手段の一例と して、 この実施形態では肌の色領域抽出部 4 aが適用される。
< 〈肌の色強度抽出処理〉 〉
図 4は、 肌の色領域抽出処理の概要を示す図である。 肌の色領域抽出処理では、 まず、 原画像 6のデータ及び顔矩形座標が入力され、 肌の色強度抽出処理 S O 3 が実行される。
図 5は、 肌の色強度抽出処理 S 0 3の概要を示す図であ 。'図 6は、 肌の色強 度抽出処理 S 0 3において使用される肌の色成分のヒストグラムを示す図である。 以下、 図 5, 6を使用し肌の色強度抽出処理 S 0 3について説明する。
肌の色強度抽出処理 S 0 3では、 まず、 入力された顔矩形座標を用いて顔矩形 1 7の内側にサンプリング領域 1 8が特定される。 サンプリング領域 1 8は、 例 えば顔矩形 1 7の中心座標と顔矩形 1 7の w及び hに定数が乗じられた値によつ て特定される。 サンプリング領域 1 8は他の方法によって特定されても良い。 サ ンプリング領域 1 8は、 目や鼻の穴など、 肌の色とは明らかに異なる色を有する 領域を含まないように設定されるのが望ましい。
肌の色強度抽出処理 S 0 3では、 次に、 サンプリング領域 1 8内の画素値 (色 成分の値) がサンプリングされる (肌の色サンプリング) 。 このサンプリングで は、 被写体の顔における肌の色が主にサンプリングされる。 サンプリングされた 色成分の値を基に、 図 6に示されるヒストグラムが形成される。 図 6では、 L a b色空間に基づいて形成されたヒストグラムを例として示す。 ヒストグラムが形 成されると、 横軸 (L又は a, bの値) における上下 1 0 %の成分 (図 6斜線 部) がカットされる。 ここで言う 1 0 %という数値は、 設計者によって適宜変更 されても良い。 この後、 肌の色成分のヒストグラムにおいてカットされていない 部分の L a bの値を用いて、 サンプリング領域 1 8内における標準偏差と重心と が算出される。 そして、 算出されたこれら六つの値を用いた数 2の式により、 原 画像 6の各画素における肌の色の度合い (以下、 肌の色強度と呼ぶ:強度値に相 当) が算出され (肌の色強度抽出) 、 肌の色強度画像 8が生成される。
[数 2 ] (b '—bヽ
肌色強度 = exp
Figure imgf000019_0001
L ,a',b ".サンプリング領域の Lab値の重心
WL ,Wa Wb-サンプリング領域の Lab値の標準偏差 X定数 肌の色成分のヒストグラムの形成において、 図 6における横軸の両端から累積 1 0 %分がカットされるため、 ノイズ成分を除去し、 肌の色の成分の分布をより 正確に得ることが可能となる。 ここで言うノイズ成分とは、 例えばサンプリング 領域 1 8内の鼻の穴や目など、 肌の色以外の色成分を主として有する画素につい ての情報である。 このような処理により、 サンプリング領域 1 8内に鼻の穴や目 など、 肌の色以外の色成分が含まれてしまった場合にも、 これらについての情報 を削除することが可能となる。 ( 〈合成処理〉 〉
肌の色領域抽出処理では、 次に、 肌の色強度画像 8のデータ及ぴマスク画像 7 のデータが入力され、 合成処理 S 0 4 aが実行される。
合成処理 S 0 4 aでは、 入力される肌の色強度画像 8とマスク画像 7とが合成 される。 即ち、 肌の色強度抽出処理 S 0 3によって生成された肌の色強度画像 8 とマスク処理によって生成されたマスク画像 7とを用いた乗算処理が実行される t 合成処理 S 0 4 aの実行により、 マスク済肌の色強度画像 9が生成される。
< 〈肌の色領域補正処理〉 〉
肌の色領域抽出処理では、 次に、 マスク済肌の色強度画像 9のデータが入力さ れ、 肌の色領域補正処理 S 0 5が実行される。
肌の色領域補正処理 S 0 5では、 合成処理 S 0 4 aによって生成されたマスク 済肌の色強度画像 9に対し、 縮退処理が実行される。 縮退処理の実行により、 目 や口の周辺の肌の色強度が下げられる。 即ち、 ぼかし処理の対象外となる黒い領 域 (肌の色強度が低い又は 0の領域) が外側に広げられる。 この縮退処理により. 目や口の周辺に対しぼかし処理が実行されることが防止される。 言い換えれば、 はっきりとした画像を取得すべきである目や口の周辺がぼやけてしまうことを防 止することが可能となる。 肌の色領域補正処理 S 0 5の実行により、 肌の色領域 画像 1 0 aが生成される。 肌の色領域画像 1 0 aでは、 肌の色強度の高い画素は 大きい画素値で表現され、 肌の色強度が低い画素は小さい画素値で表現される。
〈美肌処理部〉
美肌処理部 5 aは、 美肌処理を実行する。 以下、 美肌処理部 5 aによって実行 される美肌処理について説明する。 この美肌処理では、 原画像 6のデータ及び肌 の色領域画像 1 0 aのデータが入力され、 ぼかしフィルタ処理 S 0 6 a及ぴ美肌 合成処理 S 0 7が実行されることにより、 美肌画像 1 2のデータが出力される。 このように、 画像生成手段の一例として、 この実施形態では、 マスク処理部 3, 肌の色領域抽出部 4 a, 及び美肌処理部 5 aが適用される。 また、 色成分算出手 段の一例として、 この実施形態では、 美肌処理部 5 aが適用される。 この美肌画 像 1 2のデータは、 画像補正装置 1 aによって出力されるデータでもある。
< 〈ぼかしフィルタ処理〉 > 美肌処理では、 まず、 原画像 6のデータ及び肌の色領域画像 10 aのデータが 入力され、 ぼかしフィルタ処理 S 06 aが実行される。 ぼかしフィルタ処理 S O 6 aでは、 原画像 6に対し、 ぼかし処理が実行される。 ここで言うぼかし処理と は、 既存のどのようなぼかし処理であっても良い。 その例として、 例えば移動平 均フィルタや荷重平均フィルタ (ガウシアンフィルタを含む) や ε—フィルタを 用いた方法がある。
ぼかしフィルタ処理 S 06 aでは、 原画像 6の各画素のうち、 肌の色領域画像 10 aにおいて肌の色強度の値が 0より大きい画素についてのみぼかし処理が実 行される。 このため、 肌の色強度が 0の画素、 即ち明らかに肌の色ではない画素 や合成処理 S 04 aによってマスクがかけられた画素については、 ぼかし処理が 実行されない。 ぼかしフィルタ処理 S 06 aの実行により、 ぼかし画像 1 1が生 成される。
< 〈美肌合成処理〉 〉
美肌処理では.、 次に、 原画像 6のデータ, 肌の色領域画像 10 aのデータ及び ぼかし画像 1 1のデータが入力され、 美肌合成処理 S 07が実行される。 美肌合 成処理 S 07では、 原画像 6とぼかし画像 1 1とについて、 肌の色領域画像 10 aにおける肌の色強度を用いた半透明合成が実行される。 数 3は、 美肌合成処理 S 07において実行される半透明合成の式である。
[数 3]
R -Rarsx(l-V) + RsmmhxV
G = GorsxQ.-V) + Gsmaall,xV
B = Borgx(l-V) + BsaoolhxV '
Rorg,Gorg,Borg:原画像の RGB成分
R一 G耀 tl,,W'ぼかし画像の RGB成分
V:肌色領域画像の肌色強度 (0〜1) 数 3を用いた半透明合成では、 肌の色強度に応じた合成処理が実行される。 具 体的には、 肌の色強度が高い画素についてはぼかし画像 1 1の画素値 (RGB成 分) が強く反映され、 肌の色強度が低い画素については原画像 6の画素値 (RG B成分) が強く反映される。 このような半透明合成により、 肌の色強度の高い領 域 (即ち肌の色の領域) についてはぼかしの度合いが強くなり、 肌の色強度の低 い領域 (即ち肌の色ではない領域) についてはぼかしの度合いが弱くなる。 美肌 合成処理 S 0 7の実行により、 美肌画像 1 2が生成される。
〔作用/効果〕
本発明の画像補正装置 1 aでは、 顔位置検出処理 S 0 1により、 処理の対象と なる画像中から被写体の顔が検出され、 顔矩形座標が得られる。 顔矩形座標に基 づいて被写体の上半身以外をマスクするためのマスク画像 7が生成される。 そし て、 美肌処理において、 このマスク画像 7によるマスク処理が反映されたぼかし 処理が実行される。 このため、 被写体の顔などの肌の色成分を有する領域に対し てぼかし処理が実行される際に、 同一画像中の肌の色成分を有する被写体以外の 領域 (例えば背景) に対してはぼかし処理が実行されない。 従って、 被写体の顔 などにぼかし処理が実施される際に、 肌の色成分を有する背景までがぼけてしま うことを防止し、 このような背景を鮮明なままで維持することが可能となる。 即 ち、 被写体の顔やその周辺に限って画像をなめらかにし、 しわやしみ等を消すこ とが可能となる。
また、 本発明の画像補正装置 1 aでは、 サンプリング領域 1 8の内部、 即ち顔 位置検出処理 S 0 1によって検出された被写体の顔の領域の内部から被写体の肌 の色成分が抽出される。 そして、 抽出された肌の色成分をもとに、 ぼかし処理の 対象となる領域が決定される。 即ち、 抽出された肌の色成分を基に、 肌の色強度 画像 8の作成時に肌の色として認識される肌の色成分が決定される。 このため、 例えば肌が白レ、人が被写体であれば、 抽出された白 、肌の色の色成分に基づいて 肌の色強度画像 8が生成され、 肌が黒い人が被写体であれば、 抽出された黒い肌 の色の色成分に基づいて肌の色強度画像 8が生成される。 このように、 本発明の 画像補正装置 l aでは、 肌の色を固定的に決めずに、 原画像 6の顔の位置から肌 の色がサンプリングされる。 従って、 人種や個人差による肌の色の違いに対応す ることが可能であり、 安定した補正効果を得ることができる。
また、 マスク画像作成処理 S 0 2において、 外側の楕円と内側の楕円との間に, 不透明度についてのグラデーションが施される。 このため、 マスクされない領域 である透過領域と、 マスクされる不透過領域との境目において、 不自然な画像が 生成されることが防止される。
なお、 本発明の画像補正装置 1 aは、 既存の様々な装置に搭載されても良い。 例えば、 プリンタ, ディスプレイ, デジタルカメラ, M P E G (Moving Picture Experts Group) プレイヤ一等に搭載されても良い。 このような場合、 各装置に 入力される画像のデータが、 原画像 6のデータとして、 記憶部 S tに入力される。 そして、 画像補正装置 1 aの出力である美肌画像 1 2のデータは、 各装置の特性 に応じて利用される。 例えば、 画像補正装置 1 aがプリンタに搭載された場合に は、 美肌画像 1 2はプリンタによって印刷される。
また、 本発明の画像補正装置 1 aは、 図2における各処理 S 0 1 〜 S 0 7が C P Uによって実行されることにより、 C P Uを備える情報処理装置上に仮想的に 実現されても良い。 この場合、 情報処理装置に各処理 S 0 1 〜 S 0 7を実行させ るプログラムが本願の発明となる。 このプログラムは、 C D— R OM等の記録媒 体に記録され、 パーソナルコンピュータやサーバ (例えば A S P (Application Service Provider) に設置されるサーバ) によって直接実行されても良いし、 ハ ードディスクや R O M等の不揮発性記憶装置に記憶されてこれらの装置に実行さ れても良い。 この場合、 原画像 6のデータは、 情報処理装置に接続されたスキヤ ナゃデジタルカメラ等から入力されても良い。 また、 原画像 6のデータは、 イン ターネット等のネットワークを介して他の装置からアップロード又はダウンロー ドされることにより入力されても良い。
〔変形例〕
顔検出部 2 , マスク処理部 3, 肌の色領域抽出部 4 a , 及び美肌処理部 5 aは、 それぞれハードウエアとして実装されたチップを用いて構成されても良い。 また、 記憶部 S tは、 画像補正装置 1 aが取り付けられる他の装置の R AMを用いて構 成されても良い。 即ち、 記憶部 S tは、 必ずしも画像補正装置 1 aの内部に備え られる必要はなく、 顔検出部 2, マスク処理部 3, 肌の色領域抽出部 4 a, 及ぴ 美肌処理部 5 aからアクセス可能に構成されれば画像補正装置 1 aの外部に備え られても良い。 この場合、 記憶部 S tは、 他の装置 (例えば、 画像補正装置 1 a が取り付けられた装置の C P U) と、 画像補正装置 1 aの各処理部 2 〜 5とによ つて共用されるように構成されても良い。
また、 ぼかしフィルタ処理 S 0 6 aでは、 顔位置検出処理 S 0 1によって検出 された顔矩形の大きさに基づいてぼかし度合いが決定されても良い。 具体的には、 顔矩形が大きいほど、 強い (大きい) ぼかし度合いのぼかし処理が実行される。 逆に、 顔矩形が小さいほど、 弱い (小さい) ぼかし度合いのぼかし処理が実行さ れる。 例えば、 移動平均フィルタや荷重平均フィルタの半径等のパラメタを操作 することにより実現できる。 また、 ガウシアンフィルタの場合は、 以下の式にお いて標準偏差 σを変えることでぼかし度合いを変化させることができる。
[数 4 ]
Figure imgf000024_0001
また、 単純平滑化フィルタの場合は、 η X ηのオペレータにおいて、 ηの値を 変えることでぼかし度合いを変化させることができる。 図 8は、 η Χ ηのォペレ ータの具体例を示す図である。 図 8 ( a ) は n = 3の場合、 図 8 ( b ) は n = 5 の場合、 図 8 ( c ) は n = 7の場合のオペレータの例をそれぞれ示す。 nの値が 大きいほどぼかし度合いが大きくなる。
このように構成されることにより、 顔の大きさに応じて適したぼかし度合いの ぼかし処理を実施することが可能となる。 従って、 小さい顔に対して過度のぼか し度合いのぼかし処理を実施することにより発生する、 顔全体がぼけてしまう等 の問題を防止することが可能となる。
また、 美肌処理ではぼかし処理が実施されるが、 ぼかし処理以外の画像処理 (例:エッジ強調, 明るさ補正, 色補正, テクスチャマッピング) が実施される ように構成されても良い。
また、 マスク処理部 3は必ずしも備えられる必要はない。 ただし、 マスク処理 部 3が備えられない場合、 マスク画像 7に基づく処理が実施されない。 このため, 美肌画像 1 2を得るまでに要する時間が増加する可能性がある。
[第二実施形態]
〔システム構成〕 次に、 画像補正装置の第二実施形態である画像補正装置 1 bについて説明する。 図 9は、 画像補正装置 1 bの機能プロックを示す図である。 画像補正装置 1 bは、 美肌処理部 5 aに代えて美肌処理部 5 bを備える点で画像補正装置 1 aと異なる。 以下、 画像補正装置 1 bについて、 画像補正装置 1 aと異なる点について説明す る。
図 1 0は、 図 9に示される各機能部によって実行される処理と、 画像補正装置 1 bとしての全体の処理フローを示す図である。 以下、 図 9, 1 0を用いて、 画 像補正装置 1 bの各機能部について説明する。
〈美肌処理部〉
美肌処理部 5 bは、 美肌合成処理 S 0 7を実施せず、 ぼかしフィルタ処理 S O 6 aに代えてぼかしフィルタ処理 S 0 6 bを実施する点で、 美肌処理部 5 aと異 なる。 以下、 美肌処理部 5 bによって実施される美肌処理について説明する。
< 〈ぼかしフィルタ処理〉 〉
美肌処理部 5 bによって実施される美肌処理では、 原画像 6のデータ及び肌の 色領域画像 1 0 aのデータが入力され、 ぼかしフィルタ処理 S 0 6 bが実行され る。 ぼかしフィルタ処理 S 0 6 bでは、 原画像 6の各画素に対し、 肌の色領域画 像 1 0 aに含まれる肌の色強度に応じたぼかし処理が実行される。 具体的には、 肌の色強度が高い画素に対するぼかし処理はぼかし度合いが大きく設定され、 肌 の色強度が低い画素に対するぼかし処理はぼかし度合いが低く設定される。 また、 ぼかしフィルタ処理 0 6 bは以下のように構成されても良い。
画像補正装置 1 aでは、 ぼかしフィルタ処理 S O 6 aによってぼかし画像 1 1 が生成され、 ぼかし画像 1 1と原画像 6と肌の色領域画像 1 0 aとを用いて美肌 合成処理 S 0 7が美肌画像 1 2を生成した。 一方、 美肌補正装置 1 bでは、 ぼか し画像 1 1が生成されることなく美肌画像 1 2が生成されても良い。 具体的には、 美肌画像 1 2の各画素の値を数 3の式に基づいて算出する際に、 処理の対象とな つている画素に対するぼかし処理をその都度実行する。 即ち、 数 3において使用 されるぼかし画像の R G B成分の各値を、 必要になった画素についてのみその都 度算出するように構成される。 このように構成されることにより、 ぼかし画像 1 1をバッファリングする必要が無くなり、 メモリ領域を節約することが可能とな る。
〔作用/効果〕
本発明の画像補正装置 1 bでは、 美肌処理において、 ぼかし画像 1 1が生成さ れることなく、 出力画像としての美肌画像 1 2が直接生成される。 従って、 ぼか し画像 1 1を生成するためのぼかしフィルタ処理 S 0 6 aや美肌合成処理 S 0 7 に要する時間を削減することが可能となる。
[第三実施形態]
〔システム構成〕
次に、 画像補正装置の第三実施形態である画像補正装置 1 cについて説明する c 図 1 1は、 画像補正装置 1 cの機能プロックを示す図である。 画像補正装置 1 c は、 肌の色領域抽出部 4 aに代えて肌の色領域抽出部 4 cを備える点、 エッジマ スク処理部 1 9を備える点で画像捕正装置 1 bと異なる。 以下、 画像補正装置 1 cについて、 画像補正装置 1 bと異なる点について説明する。
図 1 2は、 図 1 1に示される各機能部によって実行される処理と、 画像補正装 置 1 cとしての全体の処理フローを示す図である。 以下、 図 1 1, 1 1を用いて、 画像補正装置 1 cの各機能部について説明する。
〈エッジマスク処理部〉
エッジマスク処理部 1 9は、 エッジマスク処理を実行する。 以下、 エッジマス ク処理について説明する。 エッジマスク処理では、 原画像 6が入力され、 エッジ マスク画像作成処理 S 0 8が実行されることにより、 エッジマスク画像 2 0のデ ータが出力される。
エッジマスク画像作成処理 S 0 8では、 まず、 入力された原画像 6が縮小され、 縮小画像が取得される。 例えば、 顔矩形の大きさがさらに入力されることにより、 顔矩形の大きさに基づいて縮小の割合が決定されても良い。 例えば、 入力された 顔矩形のうち最も大きいものの幅が規定のピクセル (数十ピクセル〜百ピクセル 程度) 程度になるように縮小されても良い。
次に、 縮小画像に基づいてエッジの抽出、 即ちエッジ強度の取得が実施される。 このエッジ抽出処理は、 既存のどのような技術によって実施されても良い。 例え ば、 ソーベルフィルタを用いたエッジ抽出が実施される。 図 1 3は、 ソ一べルフ ィルタの例を示す図である。 図 1 3 ( a ) は、 下方向のソーベルフィルタを示し、 図 1 3 ( b ) は上方向のソーベルフィルタを示す。 それぞれのソーベルフィルタ を用いたェッジ抽出処理が実施され、 各ソ一べルフィルタのェッジ画像が取得さ れる。 この場合、 二つのエッジ画像が取得される。
次に、 取得されたそれぞれのエッジ画像をグレー化し、 合成することにより、 合成エッジ画像が取得される。 この合成処理により、 下方向のソ^ "ベルフィルタ によつて抽出されたェッジと上方向のソ一べルフィルタによつて抽出されたェッ ジとが、 合成エッジ画像に表される。
次に、 取得された合成エッジ画像が反転され、 反転エッジ画像が取得される。 次に、 反転エッジ画像に対し、 縮退処理が実施される。 縮退処理の実行により、 抽出されたエッジが周囲に広がった画像が取得される。 そして、 縮退処理が実施 された反転エッジ画像が、 原画像 6の大きさに拡大され、 エッジマスク画像 2 0 が取得される。 以後の処理では、 エッジマスク画像 2 0における画素値は、 肌の 色強度として扱われる。 即ち、 取得されたエッジ部分の画素は、 反転処理により 画素値が低い又は 0となっているため、 肌の色強度が低い画素として扱われる。 また、 縮退処理により、 抽出されたエッジの影響が、 その周囲にまで及ぶ。 即ち、 抽出されたエッジ及びその周囲における肌の色強度が低いことを示す画像として、 エッジマスク画像 2 0が作成される。
〈肌の色領域抽出部〉
肌の色領域抽出部 4 cは、 合成処理 S 0 4 aに代えて合成処理 S 0 4 cを実施 する点で、 肌の色領域抽出部 4 bと異なる。 以下、 肌の色領域抽出部 4 cによつ て実施される肌の色領域抽出処理について、 特に合成処理 S 0 4 cについて説明 する。
< 〈合成処理〉 〉
肌の色領域抽出部 4 cによって実施される肌の色領域抽出処理では、 肌の色強 度抽出処理 S 0 3が実施された後、 肌の色強度画像 8 , マスク画像 7, 及ぴエツ ジマスク画像 2 0が入力され、 合成処理 S 0 4 cが実行される。
合成処理 S 0 4 cでは、 入力される肌の色強度画像 8とマスク画像 7とエッジ マスク画像 2 0とが合成される。 即ち、 肌の色強度抽出処理 S 0 3によって生成 された肌の色強度画像 8とマスク処理によって生成されたマスク画像 7とエッジ マスク処理によって生成されたエッジマスク画像 2 0とを用いた乗算処理が実行 される。 合成処理 S 0 4 cの実行により、 マスク済肌の色強度画像9 cが生成さ れる。
肌の色領域抽出部 4 cによって実施される肌の色領域抽出処理では、 合成処理 S O 4 cの後、 マスク済肌の色強度画像 9 cを用いた肌の色領域捕正処理 S 0 5 が実施され、 肌の色領域画像 1 0 cが出力される。
〔作用/効果〕
画像補正装置 1 cでは、 合成処理 S 0 4 cにおいて、 エッジマスク画像 2 0が 用いられる。 エッジマスク画像 2 0では、 抽出されたエッジ及ぴその周囲の肌の 色強度が低く又は 0に設定されている。 このため、 合成処理 S 0 4 cによって、 エッジ及ぴその周囲の肌の色強度が低く又は 0に設定されたマスク済肌の色強度 画像 9 cが取得される。 そして、 このようなマスク済肌の色強度画像 9 cを用い て美肌処理が実施されるため、 エッジ及ぴその周囲、 即ち目元, 眉, 口元などの 鮮鋭度を維持したままで、 その他の肌の色部分に対しぼかし処理を実施すること が可能となる。 特に、 肌色に近い口紅や、 肌色に近い眉 (例えば薄い眉毛など) 等を有した顔画像に対する美肌処理の際に有効である。
図 1 4は、 肌の色強度画像 8とエッジマスク画像 2 0との差異を示すための図 である。 図 1 4 ( a ) は肌の色強度画像 8の例であり、 図 1 4 ( b ) はエッジマ スク画像 2 0の例である。 この場合、 原画像 6における左の人物の眉の色が肌色 に近いため、 肌の色強度画像 8では、 眉部分の肌の色強度が肌色に近いことを示 す値になっている。 また、 原画像 6における右の人物の唇の色が肌色に近いため、 肌の色強度画像 8では、 唇部分の肌の色強度が肌色に近いことを示す値になって いる。 このままでは、 左の人物の眉部分や右の人物の唇部分にまでぼかし処理が 実施され、 眉毛や唇がぼやけた美肌画像 1 2が取得されてしまう。 一方、 エッジ マスク画像 2 0では、 左の人物の眉部分や右の人物の唇部分のエッジが抽出され たため、 左の人物の眉部分や右の人物の唇部分の肌の色強度が肌色に遠いことを 示す値になっている。 このため、 エッジマスク画像 2 0を用いることにより、 眉 部分や唇部分などにぼかし処理が実施されず、 これらの部分の鮮鋭度を維持する ことが可能となる。
〔変形例〕
エッジマスク画像作成処理 S 0 8において、 拡大処理と反転処理と縮退処理と は、 必要に応じて実施される順番が変更されても良い。 ただし、 反転処理の前に 縮退処理が実施される場合、 画素値 (肌の色強度) が低い又は 0の領域が外側に 拡げられるのではなく、 画素値 (肌の色強度) が高い又は 2 5 5 (肌の色強度で ある場合は" 1 ") の領域が外側に拡げられる。
ェッジマスク処理部 1 9, エッジマスク画像作成処理 S 0 8の代わりに、 顔要 素マスク処理部 (顔要素抽出手段に相当) , 顔要素マスク画像作成処理が実行さ れ、 エッジマスク画像 2 0に代えて顔要素マスク画像が作成されても良い。 顔要 素マスク画像作成処理では、 エッジが抽出されるのではなく、 被写体の顔に含ま れる要素 (顔要素) が抽出される。 このような顔要素は、 例えばテンプレートマ ツチングを行うことにより抽出される。 そして、 顔要素マスク画像では、 抽出さ れた顔要素及ぴこの顔要素から所定の範囲の画素についての肌の色強度が低く又 は 0に設定されるように構成される。

Claims

請求 の 範囲 .
1 . 画像中の被写体である人物の身体部分を基準として決まる所定領域を特定 する所定領域特定手段と、
前記所定領域特定手段によって特定された所定領域に対して画像処理が施され た画像を生成する画像生成手段と
を備える画像処理装置。
2 . 画像中の被写体である人物の身体部分を基準として決まる所定領域を特定 する所定領域特定手段と、
前記所定領域特定手段によって特定された所定領域に対して、 画像処理として のぼかし処理が施された画像を生成する画像生成手段と
を備える画像処理装置。
3 . 前記所定領域特定手段は、
画像中の被写体である人物の身体部分を検出する検出手段と、
前記検出手段によつて検出された身体部分を基準として前記所定領域を特定す る特定手段と
を備える請求項 1又は 2に記載の画像処理装置。
4 . 前記画像生成手段は、 前記所定領域特定手段によって特定された所定領域 内の領域であつて、 この所定領域の基準となつた身体部分を主に占める色成分と 等しい又は近い色成分を有する領域に対して画像処理が施された画像を生成する 請求項 1〜 3のいずれかに記載の画像処理装置。
5 . 前記画像生成手段は、'
処理対象となっている画像の各画素について、 各画素の色成分が、 前記所定領 域の基準となった身体部分を主に占める色成分にどれだけ近いかを示す強度値を 算出する強度値算出手段と、
処理対象となっている画像の前記所定領域に対して画像処理を施す画像処理手 段と、
各画素における強度値が前記所定領域の基準となった身体部分を主に占める色 成分に遠いことを示すほど、 この画素の新たな色成分として前記元の画像の画素 の色成分に近い色成分を算出し、 各画素における強度値が前記所定領域の基準と なつた身体部分を主に占める色成分に近いことを示すほど、 この画素の新たな色 成分として前記画像処理手段によって生成される画像の画素の色成分に近い色成 分を算出する色成分算出手段とを備え、
前記色成分算出手段は、 前記強度値算出手段によって算出された強度値に基づ いて、 各画素の新たな色成分を算出する
請求項 1〜 3のいずれかに記載の画像処理装置。
6 . 前記画像生成手段は、
処理対象となっている画像の各画素について、 各画素の色成分が、 前記所定領 域の基準となった身体部分を主に占める色成分にどれだけ近いかを示す強度値を 算出する強度値算出手段と、
処理対象となっている画像に対して画像処理を施す画像処理手段と、 前記所定領域特定手段によって特定された所定領域以外の画素についての前記 強度値を、 前記所定領域の基準となった身体部分を主に占める色成分に遠いこと を示す値にするマスク手段と、
各画素における強度値が前記所定領域の基準となつた身体部分を主に占める色 成分に遠いことを示すほど、 この画素の新たな色成分として前記元の画像の画素 の色成分に近い色成分を算出し、 各画素における強度値が前記所定領域の基準と なった身体部分を主に占める色成分に近いことを示すほど、 この画素の新たな色 成分として前記画像処理手段によって生成される画像の画素の色成分に近い色成 分を算出する色成分算出手段とを備え、
前記色成分算出手段は、 前記強度値算出手段及び前記マスク手段によって算出 された強度値に基づいて、 各画素の新たな色成分を算出する
請求項 1〜 3のいずれかに記載の画像処理装置。
7 . 前記画像生成手段は、
処理対象となっている画像の各画素について、 各画素の色成分が、 前記所定領 域の基準となつた身体部分を主に占める色成分にどれだけ近いかを示す強度値を 算出する強度値算出手段と、
処理対象となっている画像の前記所定領域に対し、 各画素における強度値が前 記所定領域の基準となった身体部分を主に占める色成分に遠いことを示すほど画 像処理の影響を弱めてこの画素に対する画像処理を実施し、 各画素における強度 値が前記所定領域の基準となった身体部分を主に占める色成分に近いことを示す ほど画像処理の影響を強めてこの画素に対する画像処理を実施する画像処理手段 とを備え、
前記画像処理手段は、 前記強度値算出手段により得られる該画像の各画素の前 記強度値に基づいて画像処理を実施する
請求項 1〜 3のいずれかに記載の画像処理装置。
8 . 前記画像生成手段は、
処理対象となっている画像の各画素について、 各画素の色成分が、 前記所定領 域の基準となった身体部分を主に占める色成分にどれだけ近いかを示す強度値を 算出する強度値算出手段と、
前記所定領域特定手段によって特定された所定領域以外の画素についての前記 強度値を、 前記所定領域の基準となった身体部分を主に占める色成分に遠いこと を示す値にするマスク手段と、
処理対象となっている画像に対し、 各画素における強度値が前記所定領域の基 準となった身体部分を主に占める色成分に遠いことを示すほど画像処理の影響を 弱めてこの画素に対する画像処理を実施し、 各画素における強度値が前記所定領 域の基準となった身体部分を主に占める色成分に近いことを示すほど画像処理の 影響を強めてこの画素に対する画像
処理を実施する画像処理手段とを備え、
前記画像処理手段は、 前記強度値算出手段及び前記マスク手段によつて得られ る該画像の各画素の前記強度値に基づいて画像処理を実施する請求項 1〜 3のい ずれかに記載の画像処理装置。
9 . 前記画像処理手段は、 所定の範囲の強度値を有する画素については画像処 理を実行しない
請求項 6に記載の画像処理装置。
1 0 . 前記画像生成手段は、 実施する画像処理の内容を、 前記所定領域特定手 段によって特定された所定領域の基準となった身体部分の大きさに基づいて決定 する
請求項 1〜 9のいずれかに記載の画像処理装置。
1 1 . 処理対象となっている画像中の被写体である人物の身体部分を構成する 要素であって、 前記所定領域に含まれる要素を少なくとも一つ抽出する要素抽出 手段をさらに備え、
前記画像生成手段は、 前記要素抽出手段によって抽出された要素を基準として 決まる要素領域に対する画像処理を制限して実施する
請求項 1〜 1 0のいずれかに記載の画像処理装置。
1 2 . 前記画像生成手段は、
処理対象となっている画像の各画素についてエッジの強度を取得し、 前記各画 素について、 抽出されたェッジの強度が強いほど前記所定領域の基準となつた身 体部分を主に占める色成分に遠いことを示す前記強度値を与えるエッジマスク手 段をさらに備え、
前記色成分算出手段は、 前記ェッジマスク手段によって算出された強度値にさ らに基づいて各画素の新たな色成分を算出する
請求項 5又は 6に記載の画像処理装置。
1 3 . 前記画像生成手段は、
処理対象となっている画像の各画素についてエッジの強度を取得し、 前記各画 素について、 抽出されたエッジの強度が強いほど前記所定領域の基準となった身 体部分を主に占める色成分に遠レ、ことを示す前記強度値を与えるエッジマスク手 段をさらに備え、
前記画像処理手段は、 前記エッジマスク手段により得られる該画像の各画素の 前記強度値にさらに基づいて画像処理を実施する
請求項 7又は 8に記載の画像処理装置。
1 4 . 前記エッジマスク手段は、 処理対象となっている画像を縮小してから各 画素に対し前記強度値を与え、 さらに元の大きさの画像に拡大する
請求項 1 2又は 1 3に記載の画像処理装置。
1 5 . 画像中の被写体である人物の身体部分を基準として決まる所定領域を特 定するステップと、 特定された所定領域に対して画像処理が施された画像を生成するステップと を情報処理装置に実行させるためのプログラム。
1 6 . 画像中の被写体である人物の身体部分を基準として決まる所定領域を特 定するステップと、
特定された所定領域に対してぼかし処理が施された画像を生成するステップと を情報処理装置に実行させるためのプログラム。
1 7 . 前記画像を生成するステップにおいて、 前記特定された所定領域の基準 となった身体部分から抽出された、 被写体である人物の肌の色の色成分に基づい た画像処理が施された画像の生成を、 前記情報処理装置に実行させるための請求 項 1 5又は 1 6に記載のプログラム。
1 8 . 画像中の任意の像を含む領域の位置及び範囲を特定するステップと、 特定された領域内の領域であって、 この領域を主に占める色成分と等しい又は 近い色成分を有する領域に対して画像処理が施された画像を生成するステップと を情報処理装置に実行させるためのプログラム。
PCT/JP2004/003726 2003-03-20 2004-03-19 画像処理装置 WO2004084142A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US10/549,653 US7587083B2 (en) 2003-03-20 2004-03-19 Image processing device
EP04722000.9A EP1612730B1 (en) 2003-03-20 2004-03-19 Image processing device

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2003-078467 2003-03-20
JP2003078467 2003-03-20
JP2003-409264 2003-12-03
JP2003409264A JP4461789B2 (ja) 2003-03-20 2003-12-08 画像処理装置

Publications (1)

Publication Number Publication Date
WO2004084142A1 true WO2004084142A1 (ja) 2004-09-30

Family

ID=33032366

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2004/003726 WO2004084142A1 (ja) 2003-03-20 2004-03-19 画像処理装置

Country Status (4)

Country Link
US (1) US7587083B2 (ja)
EP (1) EP1612730B1 (ja)
JP (1) JP4461789B2 (ja)
WO (1) WO2004084142A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080267443A1 (en) * 2006-05-05 2008-10-30 Parham Aarabi Method, System and Computer Program Product for Automatic and Semi-Automatic Modification of Digital Images of Faces
US8379958B2 (en) 2007-03-20 2013-02-19 Fujifilm Corporation Image processing apparatus and image processing method
CN108519400A (zh) * 2018-02-06 2018-09-11 温州市交通工程试验检测有限公司 一种预应力梁灌浆饱满度智能检测方法及***

Families Citing this family (76)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7440593B1 (en) * 2003-06-26 2008-10-21 Fotonation Vision Limited Method of improving orientation and color balance of digital images using face detection information
KR100640427B1 (ko) * 2004-01-05 2006-10-30 삼성전자주식회사 휴대 단말기의 데이터 및 배경 색상변경 방법
JP4534750B2 (ja) * 2004-12-21 2010-09-01 株式会社ニコン 画像処理装置および画像処理プログラム
JP2006215685A (ja) * 2005-02-02 2006-08-17 Funai Electric Co Ltd フォトプリンタ
JP2006338377A (ja) * 2005-06-02 2006-12-14 Fujifilm Holdings Corp 画像補正方法および装置並びにプログラム
JP2007011926A (ja) * 2005-07-04 2007-01-18 Fujifilm Holdings Corp 画像処理方法および装置並びにプログラム
KR101303877B1 (ko) * 2005-08-05 2013-09-04 삼성전자주식회사 얼굴 검출과 피부 영역 검출을 적용하여 피부의 선호색변환을 수행하는 방법 및 장치
KR100735549B1 (ko) * 2005-08-08 2007-07-04 삼성전자주식회사 영상의 피부색을 변환하는 영상 처리 방법 및 장치
JP4977996B2 (ja) * 2005-10-28 2012-07-18 株式会社ニコン 撮像装置
US8620038B2 (en) * 2006-05-05 2013-12-31 Parham Aarabi Method, system and computer program product for automatic and semi-automatic modification of digital images of faces
JP5354842B2 (ja) 2006-05-26 2013-11-27 キヤノン株式会社 画像処理方法および画像処理装置
JP4747970B2 (ja) * 2006-07-04 2011-08-17 オムロン株式会社 画像処理装置
JP4712659B2 (ja) * 2006-09-22 2011-06-29 富士フイルム株式会社 画像評価装置およびそのプログラム
US8131011B2 (en) * 2006-09-25 2012-03-06 University Of Southern California Human detection and tracking system
JP4315215B2 (ja) * 2007-05-18 2009-08-19 カシオ計算機株式会社 撮像装置、及び顔検出方法、顔検出制御プログラム
JP4885079B2 (ja) * 2007-07-04 2012-02-29 富士フイルム株式会社 デジタルカメラ、撮影方法及び撮影プログラム
JP4666179B2 (ja) 2007-07-13 2011-04-06 富士フイルム株式会社 画像処理方法および画像処理装置
CA2635068A1 (en) * 2007-09-18 2009-03-18 Parham Aarabi Emulating cosmetic facial treatments with digital images
JP2009145991A (ja) * 2007-12-11 2009-07-02 Ricoh Co Ltd 画像処理装置、画像処理方法、プログラムおよび記憶媒体
JP4946913B2 (ja) * 2008-02-26 2012-06-06 株式会社ニコン 撮像装置および画像処理プログラム
JP2010003118A (ja) * 2008-06-20 2010-01-07 Seiko Epson Corp 画像処理装置、画像処理方法および画像処理プログラム
JP5127592B2 (ja) 2008-06-25 2013-01-23 キヤノン株式会社 画像処理装置および画像処理方法、プログラム並びに、コンピュータ読み取り可能な記録媒体
KR101445613B1 (ko) 2008-07-23 2014-09-29 삼성전자주식회사 영상 처리 방법 및 장치, 이를 이용한 디지털 촬영 장치
JP5547730B2 (ja) * 2008-07-30 2014-07-16 デジタルオプティックス・コーポレイション・ヨーロッパ・リミテッド 顔検知を用いた顔及び肌の自動美化
JP5181913B2 (ja) * 2008-08-07 2013-04-10 株式会社リコー 画像処理装置、撮像装置、画像処理方法及びプログラム
US8311360B2 (en) * 2008-11-13 2012-11-13 Seiko Epson Corporation Shadow remover
US7916905B2 (en) * 2009-02-02 2011-03-29 Kabushiki Kaisha Toshiba System and method for image facial area detection employing skin tones
US8306283B2 (en) * 2009-04-21 2012-11-06 Arcsoft (Hangzhou) Multimedia Technology Co., Ltd. Focus enhancing method for portrait in digital image
US8339506B2 (en) * 2009-04-24 2012-12-25 Qualcomm Incorporated Image capture parameter adjustment using face brightness information
JP5300595B2 (ja) * 2009-05-28 2013-09-25 キヤノン株式会社 画像処理装置及び方法、及びコンピュータプログラム
KR101613616B1 (ko) 2009-07-17 2016-04-19 삼성전자주식회사 적응적으로 최적의 미백 효과를 설정해주는 디지털 카메라 및 그 제어방법
US8558331B2 (en) 2009-12-08 2013-10-15 Qualcomm Incorporated Magnetic tunnel junction device
JP2010073222A (ja) * 2010-01-07 2010-04-02 Kao Corp メイクアップシミュレーション方法
US8849029B2 (en) 2010-02-26 2014-09-30 Nec Corporation Image processing method, image processing device and program
JP4760999B1 (ja) * 2010-10-29 2011-08-31 オムロン株式会社 画像処理装置、画像処理方法、および制御プログラム
JP4862955B1 (ja) * 2010-10-29 2012-01-25 オムロン株式会社 画像処理装置、画像処理方法、および制御プログラム
CN102696054B (zh) * 2010-11-10 2016-08-03 松下知识产权经营株式会社 进深信息生成装置、进深信息生成方法及立体图像变换装置
US20120288168A1 (en) * 2011-05-09 2012-11-15 Telibrahma Convergent Communications Pvt. Ltd. System and a method for enhancing appeareance of a face
US20130044939A1 (en) * 2011-08-18 2013-02-21 Ucl Business Plc Method and system for modifying binocular images
JP5753055B2 (ja) * 2011-10-05 2015-07-22 花王株式会社 肌画像分析装置及び肌画像分析方法
JP5896204B2 (ja) * 2011-11-04 2016-03-30 カシオ計算機株式会社 画像処理装置及びプログラム
US20140003662A1 (en) * 2011-12-16 2014-01-02 Peng Wang Reduced image quality for video data background regions
JP5959923B2 (ja) * 2012-04-26 2016-08-02 キヤノン株式会社 検出装置、その制御方法、および制御プログラム、並びに撮像装置および表示装置
US20140015854A1 (en) * 2012-07-13 2014-01-16 Research In Motion Limited Application of Filters Requiring Face Detection in Picture Editor
JP5420049B1 (ja) 2012-10-31 2014-02-19 Eizo株式会社 拡大率推定装置またはその方法
CN103905707A (zh) * 2012-12-24 2014-07-02 腾讯科技(深圳)有限公司 一种摄像装置的控制方法及装置
US8983152B2 (en) 2013-05-14 2015-03-17 Google Inc. Image masks for face-related selection and processing in images
JP5632937B2 (ja) * 2013-06-14 2014-11-26 キヤノン株式会社 画像処理装置及び方法、及びコンピュータプログラム
US9639956B2 (en) * 2013-12-19 2017-05-02 Google Inc. Image adjustment using texture mask
JP2014096836A (ja) * 2014-01-08 2014-05-22 Nikon Corp デジタルカメラ
JP6234234B2 (ja) * 2014-01-14 2017-11-22 キヤノン株式会社 情報処理装置、情報処理方法、プログラム
KR101426785B1 (ko) * 2014-03-05 2014-08-06 성결대학교 산학협력단 스마트 디바이스에서 예술감성 반영을 통한 민감영역에 대한 사용자 친화적 영상왜곡 방법
US9256950B1 (en) 2014-03-06 2016-02-09 Google Inc. Detecting and modifying facial features of persons in images
US9679194B2 (en) 2014-07-17 2017-06-13 At&T Intellectual Property I, L.P. Automated obscurity for pervasive imaging
CN104574306A (zh) * 2014-12-24 2015-04-29 掌赢信息科技(上海)有限公司 一种即时视频中的人脸美化方法和电子设备
JP5930245B1 (ja) 2015-01-23 2016-06-08 カシオ計算機株式会社 画像処理装置、画像処理方法及びプログラム
JP6458570B2 (ja) * 2015-03-12 2019-01-30 オムロン株式会社 画像処理装置および画像処理方法
JP6458569B2 (ja) * 2015-03-12 2019-01-30 オムロン株式会社 画像処理装置および画像処理方法
JP6432399B2 (ja) * 2015-03-12 2018-12-05 オムロン株式会社 画像処理装置および画像処理方法
WO2016160638A1 (en) * 2015-03-27 2016-10-06 Google Inc. User sliders for simplified adjustment of images
JP6179569B2 (ja) * 2015-08-20 2017-08-16 カシオ計算機株式会社 画像処理装置、画像処理方法及びプログラム
US9864901B2 (en) 2015-09-15 2018-01-09 Google Llc Feature detection and masking in images based on color distributions
US9547908B1 (en) 2015-09-28 2017-01-17 Google Inc. Feature mask determination for images
JP2017102642A (ja) * 2015-12-01 2017-06-08 カシオ計算機株式会社 画像処理装置、画像処理方法及びプログラム
US10055821B2 (en) * 2016-01-30 2018-08-21 John W. Glotzbach Device for and method of enhancing quality of an image
JP6859611B2 (ja) * 2016-06-09 2021-04-14 カシオ計算機株式会社 画像処理装置、画像処理方法及びプログラム
KR102500715B1 (ko) 2016-07-28 2023-02-17 삼성전자주식회사 전자 장치 및 전자 장치 제어 방법
US11602277B2 (en) 2017-01-16 2023-03-14 Hoya Corporation Endoscope system and image display device
JP2019070870A (ja) * 2017-10-05 2019-05-09 カシオ計算機株式会社 画像処理装置、画像処理方法及びプログラム
JP2019070872A (ja) * 2017-10-05 2019-05-09 カシオ計算機株式会社 画像処理装置、画像処理方法及びプログラム
JP7087331B2 (ja) * 2017-10-05 2022-06-21 カシオ計算機株式会社 画像処理装置、画像処理方法及びプログラム
JP7003558B2 (ja) * 2017-10-12 2022-01-20 カシオ計算機株式会社 画像処理装置、画像処理方法、及びプログラム
JP6972043B2 (ja) * 2019-01-11 2021-11-24 株式会社東芝 情報処理装置、情報処理方法およびプログラム
JP7383891B2 (ja) * 2019-03-25 2023-11-21 カシオ計算機株式会社 画像処理装置、画像処理方法、及びプログラム
JP7400198B2 (ja) * 2019-03-25 2023-12-19 カシオ計算機株式会社 画像処理装置、画像処理方法、及びプログラム
CN113808027B (zh) 2020-06-16 2023-10-17 北京达佳互联信息技术有限公司 一种人体图像处理方法、装置、电子设备及存储介质

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07113612A (ja) * 1993-10-18 1995-05-02 Sanyo Electric Co Ltd 部品位置認識装置
JPH10208038A (ja) * 1997-01-21 1998-08-07 Sharp Corp 画像処理方法および画像処理装置
JPH10229505A (ja) * 1996-12-18 1998-08-25 Lucent Technol Inc 低ビットレートビデオシステムのためのフィルタリング装置および方法
JP2000105815A (ja) * 1998-09-28 2000-04-11 Yasuhiko Arakawa 顔画像処理方法および顔画像処理装置
JP2000187722A (ja) * 1998-12-24 2000-07-04 Dainippon Screen Mfg Co Ltd 画像処理パラメータの決定方法およびその処理を実行するためのプログラムを記録した記録媒体
JP2000196901A (ja) * 1998-12-24 2000-07-14 Dainippon Screen Mfg Co Ltd 画像の鮮鋭度強調方法、並びに、その処理を実行するためのプログラムを記録した記録媒体
WO2000076398A1 (en) 1999-06-14 2000-12-21 The Procter & Gamble Company Skin imaging and analysis systems and methods
JP2001307069A (ja) * 2000-04-24 2001-11-02 Anritsu Corp 画像処理による異物検出方法および装置
JP2002199179A (ja) * 2000-12-27 2002-07-12 Oki Electric Ind Co Ltd 傾き検出装置
JP2003016445A (ja) * 2001-06-29 2003-01-17 Minolta Co Ltd 画像処理のための装置と方法

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000048184A (ja) * 1998-05-29 2000-02-18 Canon Inc 画像処理方法及び顔領域抽出方法とその装置
JP2985879B1 (ja) 1998-06-30 1999-12-06 オムロン株式会社 人物画像処理装置
US6466685B1 (en) * 1998-07-14 2002-10-15 Kabushiki Kaisha Toshiba Pattern recognition apparatus and method
KR100636910B1 (ko) * 1998-07-28 2007-01-31 엘지전자 주식회사 동영상검색시스템
US6829384B2 (en) * 2001-02-28 2004-12-07 Carnegie Mellon University Object finder for photographic images
US7340079B2 (en) * 2002-09-13 2008-03-04 Sony Corporation Image recognition apparatus, image recognition processing method, and image recognition program
US7269292B2 (en) * 2003-06-26 2007-09-11 Fotonation Vision Limited Digital image adjustable compression and resolution using face detection information

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07113612A (ja) * 1993-10-18 1995-05-02 Sanyo Electric Co Ltd 部品位置認識装置
JPH10229505A (ja) * 1996-12-18 1998-08-25 Lucent Technol Inc 低ビットレートビデオシステムのためのフィルタリング装置および方法
JPH10208038A (ja) * 1997-01-21 1998-08-07 Sharp Corp 画像処理方法および画像処理装置
JP2000105815A (ja) * 1998-09-28 2000-04-11 Yasuhiko Arakawa 顔画像処理方法および顔画像処理装置
JP2000187722A (ja) * 1998-12-24 2000-07-04 Dainippon Screen Mfg Co Ltd 画像処理パラメータの決定方法およびその処理を実行するためのプログラムを記録した記録媒体
JP2000196901A (ja) * 1998-12-24 2000-07-14 Dainippon Screen Mfg Co Ltd 画像の鮮鋭度強調方法、並びに、その処理を実行するためのプログラムを記録した記録媒体
WO2000076398A1 (en) 1999-06-14 2000-12-21 The Procter & Gamble Company Skin imaging and analysis systems and methods
JP2001307069A (ja) * 2000-04-24 2001-11-02 Anritsu Corp 画像処理による異物検出方法および装置
JP2002199179A (ja) * 2000-12-27 2002-07-12 Oki Electric Ind Co Ltd 傾き検出装置
JP2003016445A (ja) * 2001-06-29 2003-01-17 Minolta Co Ltd 画像処理のための装置と方法

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080267443A1 (en) * 2006-05-05 2008-10-30 Parham Aarabi Method, System and Computer Program Product for Automatic and Semi-Automatic Modification of Digital Images of Faces
US8265351B2 (en) * 2006-05-05 2012-09-11 Parham Aarabi Method, system and computer program product for automatic and semi-automatic modification of digital images of faces
US8379958B2 (en) 2007-03-20 2013-02-19 Fujifilm Corporation Image processing apparatus and image processing method
CN108519400A (zh) * 2018-02-06 2018-09-11 温州市交通工程试验检测有限公司 一种预应力梁灌浆饱满度智能检测方法及***
CN108519400B (zh) * 2018-02-06 2022-01-18 温州市交通工程试验检测有限公司 一种预应力梁灌浆饱满度智能检测方法及***

Also Published As

Publication number Publication date
EP1612730B1 (en) 2020-07-01
EP1612730A4 (en) 2008-05-14
JP4461789B2 (ja) 2010-05-12
US20070041640A1 (en) 2007-02-22
JP2004303193A (ja) 2004-10-28
EP1612730A1 (en) 2006-01-04
US7587083B2 (en) 2009-09-08

Similar Documents

Publication Publication Date Title
JP4461789B2 (ja) 画像処理装置
EP1596573B1 (en) Image correction apparatus
CN108229278B (zh) 人脸图像处理方法、装置和电子设备
CN108229279B (zh) 人脸图像处理方法、装置和电子设备
JP5547730B2 (ja) 顔検知を用いた顔及び肌の自動美化
US9142054B2 (en) System and method for changing hair color in digital images
US8520089B2 (en) Eye beautification
CN112884637B (zh) 特效生成方法、装置、设备及存储介质
WO2022161009A1 (zh) 图像处理方法及装置、存储介质、终端
EP1372109A2 (en) Method and system for enhancing portrait images
EP1453002A2 (en) Enhancing portrait images that are processed in a batch mode
JP2008234342A (ja) 画像処理装置及び画像処理方法
JP2005293539A (ja) 表情認識装置
JP2006164133A (ja) 画像処理方法および装置並びにプログラム
JP2005242535A (ja) 画像補正装置
CN100458848C (zh) 图像处理装置
KR20010102873A (ko) 정형 이미지 템플릿을 이용한 실사 아바타 생성 방법 및시스템
CN113379623A (zh) 图像处理方法、装置、电子设备及存储介质
JP2004242068A (ja) 画像処理方法、画像処理装置及び画像処理プログラム
JP4349019B2 (ja) 画像補正装置
JP6376673B2 (ja) 画像処理装置
CN114627003A (zh) 人脸图像的眼部脂肪去除方法、***、设备及存储介质
WO2017034012A1 (ja) 画像処理装置およびプログラム

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BW BY BZ CA CH CN CO CR CU CZ DE DK DM DZ EC EE EG ES FI GB GD GE GH GM HR HU ID IL IN IS KE KG KP KR KZ LC LK LR LS LT LU LV MA MD MG MK MN MW MX MZ NA NI NO NZ OM PG PH PL PT RO RU SC SD SE SG SK SL SY TJ TM TN TR TT TZ UA UG US UZ VC VN YU ZA ZM ZW

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): BW GH GM KE LS MW MZ SD SL SZ TZ UG ZM ZW AM AZ BY KG KZ MD RU TJ TM AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IT LU MC NL PL PT RO SE SI SK TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 2004722000

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 20048107412

Country of ref document: CN

WWP Wipo information: published in national office

Ref document number: 2004722000

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2007041640

Country of ref document: US

Ref document number: 10549653

Country of ref document: US

WWP Wipo information: published in national office

Ref document number: 10549653

Country of ref document: US