WO2013179923A1 - 画像処理装置、画像処理方法、画像処理プログラムおよび撮像装置 - Google Patents

画像処理装置、画像処理方法、画像処理プログラムおよび撮像装置 Download PDF

Info

Publication number
WO2013179923A1
WO2013179923A1 PCT/JP2013/063876 JP2013063876W WO2013179923A1 WO 2013179923 A1 WO2013179923 A1 WO 2013179923A1 JP 2013063876 W JP2013063876 W JP 2013063876W WO 2013179923 A1 WO2013179923 A1 WO 2013179923A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
image processing
unit
color
analysis
Prior art date
Application number
PCT/JP2013/063876
Other languages
English (en)
French (fr)
Inventor
智也 明神
土田 博康
英輔 宇根
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Publication of WO2013179923A1 publication Critical patent/WO2013179923A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/46Colour picture communication systems
    • H04N1/56Processing of colour picture signals
    • H04N1/60Colour correction or control
    • H04N1/62Retouching, i.e. modification of isolated colours only or in isolated picture areas only
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2621Cameras specially adapted for the electronic generation of special effects during image pickup, e.g. digital cameras, camcorders, video cameras having integrated special effects capability

Definitions

  • the present technology relates to an image processing device, an image processing method, an image processing program, and an imaging device.
  • part colors In recent years, processing and processing of images called part colors have become widespread.
  • the part color is to make the natural color portion stand out by making only a part of the image a natural color and making the other part monochrome.
  • Patent Document 1 When performing part color processing on an image, it is necessary to perform processing such as leaving a color in some areas in the image or removing a color. Therefore, a special effect processing method for discriminating a moving pixel such as a person and a stationary pixel such as a background and applying a special effect has been proposed (Patent Document 1).
  • the present technology has been made in view of the above points, and is an image processing apparatus, an image processing method, an image processing program, and an imaging method capable of performing image processing such as part color based on an arbitrary color in an image.
  • An object is to provide an apparatus.
  • the first technique includes an area setting unit that sets an analysis area in an image according to an input from a user, an analysis unit that acquires color information of the analysis area, and an analysis unit.
  • An image processing apparatus includes a reference color determination unit that determines a reference color that is a reference for image processing from acquired color information, and an image processing unit that processes the image based on the reference color.
  • an analysis area is set in an image in accordance with an input from a user, color information of the analysis area is acquired, and a reference color that is a reference for image processing is determined from the acquired color information.
  • the image processing method performs processing on the image based on a reference color.
  • an analysis area is set in an image in accordance with an input from a user, color information of the analysis area is acquired, and a reference color serving as a reference for image processing is determined from the acquired color information.
  • An image processing program for causing a computer to execute an image processing method for processing the image based on a reference color.
  • the fourth technique is an image capturing unit that receives light through an optical system to generate an image, and an area setting that sets an analysis region in the image generated by the image capturing unit in response to an input from a user.
  • An image based on the reference color an analysis unit that acquires color information of the analysis region, a reference color determination unit that determines a reference color that is a reference for image processing from the color information acquired by the analysis unit, And an image processing unit that performs processing.
  • image processing such as part color can be easily performed on an image based on an arbitrary color in the image.
  • FIG. 1 is a block diagram illustrating a configuration of the image processing apparatus according to the first embodiment of the present technology.
  • FIG. 2A is a diagram illustrating a first mode of image processing
  • FIG. 2B is a diagram illustrating a second mode of image processing.
  • FIG. 3A is a diagram illustrating a third aspect of image processing
  • FIG. 3B is a diagram illustrating a fourth aspect of image processing.
  • FIG. 4 is a flowchart showing a flow of image processing.
  • FIG. 5A is a diagram showing a first example of setting of an analysis region
  • FIG. 5B is a diagram showing a second example of setting of an analysis region.
  • FIG. 5C is a diagram illustrating a third example of setting an analysis region.
  • FIG. 5A is a diagram showing a first example of setting of an analysis region
  • FIG. 5B is a diagram showing a second example of setting of an analysis region.
  • FIG. 5C is a diagram illustrating a third example of setting an analysis region
  • FIG. 6A is a diagram illustrating a first example of display of a set analysis region
  • FIG. 6B is a diagram illustrating a second example of display of a set analysis region
  • FIG. It is a figure which shows the 3rd example of the display of an analysis area
  • FIG. 7 is a histogram for explaining the determination of the reference color.
  • FIG. 8A is an example of coefficients used for determining the reference color
  • FIG. 8B is a diagram for describing the coefficients used for determining the reference color.
  • 9A is a diagram illustrating a normal display state of an image
  • FIG. 9B is a diagram illustrating a state where the image is displayed in an enlarged manner
  • FIG. 9C is a diagram illustrating a state where the image is displayed in an enlarged manner.
  • FIG. 10 is a diagram for explaining image processing.
  • FIG. 11 is a block diagram illustrating a configuration of an imaging apparatus according to the second embodiment of the present technology.
  • FIG. 12 is a flowchart showing a flow of image processing in the second embodiment.
  • FIG. 13 is a block diagram showing a configuration of an image processing apparatus according to the third embodiment of the present technology.
  • FIG. 14 is a block diagram illustrating a configuration of an imaging apparatus according to the third embodiment of the present technology.
  • FIG. 15 is a flowchart showing the flow of processing in the third embodiment.
  • FIG. 1 is a block diagram illustrating a configuration of an image processing apparatus 10 according to the present technology.
  • the image processing apparatus 10 includes an area setting unit 11, an image analysis unit 12, a reference color determination unit 13, an image processing unit 14, and a display control unit 15.
  • a solid line indicates transmission of image data
  • a broken line indicates transmission of a control signal for image processing, information for image processing, and the like.
  • the image processing apparatus 10 generates an image that has been subjected to so-called part color processing in which only a part is colored in monochrome, sepia, or the like.
  • the image to be processed is input to the image processing apparatus 10.
  • an image obtained by imaging by the imaging apparatus or an image that has been captured and saved in the memory of the imaging apparatus is input.
  • an image processing apparatus 10 is mounted on a personal computer, a smartphone, a tablet terminal, or the like, an image stored in a storage medium such as an HDD (Hard Disc Drive) or a USB (Universal Serial Bus) memory is input. .
  • a storage medium such as an HDD (Hard Disc Drive) or a USB (Universal Serial Bus) memory is input. .
  • the region setting unit 11 sets a region (hereinafter referred to as an analysis region) on which an analysis process is performed on the input image by the image analysis unit 12.
  • Information (hereinafter referred to as position information) indicating a position serving as a reference for analysis area setting is input to the area setting unit 11.
  • the position information is input by a user operation on an input unit in a device on which the image processing device 10 is mounted, such as an imaging device or a smartphone.
  • Information indicating the analysis region designated by the region setting unit 11 is supplied to the image analysis unit 12.
  • a device having the function of the image processing apparatus 10 includes a touch panel in which an input device and a display device are integrated
  • the user touches a finger or the like at an arbitrary position in the image displayed on the touch panel.
  • the position information is input. Therefore, when the user wants to leave a specific color by part color processing, the user may touch a subject having the color to be left in the image with a finger or the like. Even if the touch panel is not a touch panel, the position information may be input by arbitrarily moving the cursor displayed on the screen to the position by operating the cross button or the like. A specific analysis region setting method based on the position information will be described later.
  • the image is input to the image analysis unit 12.
  • the image analysis unit 12 analyzes the color information for the analysis region set by the region setting unit 11.
  • the color information analysis process may be performed with the RGB signal as it is, or may be performed after being converted into a YCrCb signal or the like in accordance with an analysis method, an analysis algorithm, or the like.
  • the reference color determination unit 13 determines a color (hereinafter referred to as a reference color) that is a reference for image processing performed by the image processing unit 14 from colors existing in the analysis region. A method for determining the reference color will be described later. Information indicating the determined reference color is supplied to the image processing unit 14.
  • the image processing unit 14 performs image processing for converting the color of the input image based on the reference color determined by the reference color determination unit 13.
  • the color conversion is performed using a predetermined color conversion formula.
  • the image processing by the image processing unit 14 has a plurality of modes.
  • the first mode of processing performs processing on colors other than the reference color.
  • colors other than the reference color in the image into monochrome, or convert colors other than the reference color into sepia.
  • the color of the cat on the right side of the image is the reference color, and colors other than the color of the cat are changed by image processing. Accordingly, it is possible to create an image in which only the color designated by the user is emphasized as a color. Note that color conversion is not limited to monochrome and sepia. If a color other than the reference color is converted into a uniform color other than the reference color, a part color can be realized.
  • the reference color in the image is processed.
  • the reference color in the image is changed to monochrome, and the reference color is changed to sepia.
  • the color of the right cat in the image is the reference color, and only the color of the right cat is changed by image processing. Thereby, it is possible to create an image in which a color other than the color designated by the user is emphasized as a color.
  • the reference color is converted into another color.
  • the color of the cat on the right side in the image is the reference color, and only the color of the cat is changed by image processing. Thereby, it is possible to create an image in which the color designated by the user is a different color.
  • the fourth mode of image processing is to convert a color other than the reference color into another color as shown in FIG. 3B.
  • the color of the right cat in the image is the reference color, and colors other than the color of the cat are changed by image processing. Thereby, it is possible to create an image in which a color other than the color designated by the user is a different color.
  • image processing may be performed by combining the first to fourth aspects of the image processing.
  • the color other than the reference color is changed to monochrome, and the reference color is converted to another color.
  • the setting of the above-described image processing mode may be appropriately set by an input from a user to a device on which the image processing apparatus 10 is mounted. However, it is not always necessary for the image processing unit 14 to be able to perform image processing in all the modes described above. Any one, two, or three may be sufficient.
  • the display control unit 15 controls display of an image on a display device such as a device on which the image processing apparatus 10 is mounted. Specifically, an input image is displayed for the user to input position information, and an image processed by the image processing unit 14 is displayed.
  • a reference color that is a reference for processing is set in accordance with an input from a user, and processing is performed on the reference color or processing is performed on a color other than the reference color. On the other hand, processing such as part color is performed.
  • the image processing apparatus 10 is configured as described above.
  • the image processing apparatus 10 is realized, for example, by executing a program by an arithmetic device including a CPU (Central Processing Unit) RAM (Random Access Memory), a ROM (Read Only Memory), and the like.
  • the ROM stores programs that are read and operated by the CPU.
  • the RAM is used as a work memory for the CPU.
  • the CPU functions as the area setting unit 11, the image analysis unit 12, the reference color determination unit 13, the image processing unit 14, and the display control unit 15 by executing the program stored in the ROM.
  • the image processing apparatus 10 is installed in advance in an imaging apparatus, a personal computer, a smartphone, or the like, or provided as a program and installed in those apparatuses.
  • a program for example, a portable recording medium such as an optical disk or a semiconductor memory on which the program is recorded is provided or sold.
  • the program can be stored in a server, and the program can be provided and sold via a network.
  • the device that executes the program stores, for example, the program recorded on the portable recording medium or the program transferred from the server in its own storage device. Then, the device reads the program from its own storage device and executes processing according to the program. The device can also read the program directly from the portable recording medium and execute processing according to the program.
  • the image processing apparatus 10 is not only realized by a program, but also includes hardware having functions of an area setting unit 11, an image analysis unit 12, a reference color determination unit 13, an image processing unit 14, and a display control unit 15. It may be realized as a combined dedicated device.
  • FIG. 4 is a flowchart showing the flow of processing by the image processing apparatus 10.
  • an image processing mode is set.
  • This mode setting is to set the type of image processing performed by the image processing unit 14 described above. For details, process the reference color to make it a part color, process the color other than the reference color to make it a part color, convert the reference color to another color, change the color other than the reference color to another color There are four modes of conversion.
  • step S102 an image to be processed is input to the image processing apparatus 10.
  • the input image is supplied to the image analysis unit 12.
  • the mode setting in step S101 may be performed after an image is input.
  • step S103 the input image is displayed on a display device or the like in the device under the control of the display control unit 15, and is in a state of accepting input of position information from the user for setting the analysis region.
  • a device on which the image processing apparatus 10 is mounted includes a touch panel in which an input device and a display device are integrated
  • the user makes a finger or the like touch an arbitrary position in an image displayed on the touch panel.
  • the position information is input.
  • the region setting unit 11 sets an analysis region.
  • the analysis region is set based on the input position information.
  • the setting of the analysis region will be described with reference to FIG.
  • the analysis area is set as a circular area having a predetermined size centered on the position designated by the user, which is indicated by the position information.
  • FIG. 5B it may be set as a rectangular area centered on the position designated by the user.
  • the specification of two points from the user may be accepted, and a rectangular region having a line segment connecting the two points as a diagonal may be used as the analysis region.
  • the size and shape of the rectangular analysis area may be changed by moving the two specified positions.
  • an arbitrary shape input by the user through a tracing operation or the like may be set as the analysis region.
  • a frame or the like indicating the set analysis area may be always displayed on the image displayed on the display device.
  • the user grasps the position and size of the analysis area in the through image, image processing, imaging, tracking of the subject while viewing the through image, etc. It can be performed.
  • the display mode of the set analysis area for example, a color frame, a blinking or lighting frame as shown in FIG. 7A, a net-like frame as shown in FIG. 7B, or a color frame showing a trace traced by the user as shown in FIG. 7C.
  • Etc. can be considered.
  • the shape of the frame may be a shape corresponding to the shape of the region set in step S104, a square shape, a round shape, or the like.
  • any form can be used as long as the user can recognize the analysis region.
  • step S105 the image analysis unit 12 analyzes the color information in the analysis area. Thereby, the color distribution in the analysis region is acquired. The analysis result by the image analysis unit 12 is supplied to the reference color determination unit 13.
  • step S106 the reference color determining unit 13 determines a reference color region for determining the reference color.
  • FIG. 7 is a histogram for explaining a reference color determination method.
  • a reference color region for determining a reference color is determined using the average value, standard deviation, and coefficient of Cr. It calculates
  • Equation 1 a portion with low frequency is removed, such as a hatched portion in the histogram of FIG. 7, and a portion with high frequency is extracted as a reference color region.
  • the coefficient k in Equation 1 may be determined for each hue, for example, as shown in FIG. 8A.
  • four hues of Red, Green, Blue, and Yellow are shown, but this is an example.
  • the value of the coefficient k may be defined for more colors without being limited to these four.
  • the value of the coefficient k is determined for each hue as described above, it is necessary to determine which hue the reference color corresponds to.
  • a method for determining the hue there is a method for determining the hue from the average value of Cr, the average value of Cb, and Cr and Cb that are the centers of the hues. For example, as shown in FIG. 8B, it is assumed that the reference color is at a position represented by an asterisk on the CrCb plane. In this case, since the reference color is closest to Red, a coefficient k corresponding to the hue Red is employed.
  • 0”, Interpolation by linear interpolation or the like can be considered as appropriate.
  • the value of the coefficient k may be changed according to the user input, and the color range included in the reference color may be changed.
  • the value of the coefficient k is increased and the range of colors included in the reference color is increased compared to the case where tap input is performed. It can be considered.
  • the tap input is an input operation in which a user's finger or the like is brought into contact with the operation surface only once for a short time.
  • the double tap input is an input operation in which a finger or the like is contacted twice continuously at a short interval on the operation surface.
  • the input method is not limited to this. Any input method may be used as long as the user can change the color range.
  • histogram and reference color region shown in FIG. 7 are merely illustrative examples and are not limited thereto.
  • step S107 the reference color determination unit 13 determines whether the number of pixels other than the reference color area among the pixels existing in the analysis area is equal to or less than a predetermined threshold value. If the number of pixels other than the reference color region is not less than or equal to the predetermined threshold value, the process proceeds to step S108 (No in step S107). When the number of pixels in the analysis area other than the reference color area is not equal to or less than a predetermined threshold, there are a plurality of colors in the reference color area, and the reference color cannot be determined as one color. Is the case.
  • step S108 the reference color determination unit 13 instructs the display control unit 15 to display an enlarged image.
  • the display control unit 15 performs display control so that the image is enlarged and displayed with reference to the position designated by the user when inputting the analysis region.
  • the user can input the position information for setting the analysis region in the next step S104 in more detail.
  • the enlarged display of the image is displayed from the display state of 1.0 times that of FIG. 9A at the magnification rate of 2 times shown in FIG. 9B.
  • step S108 the analysis region is set again in step S104 based on the position information input in a state where the image is enlarged and displayed. Then, the color information in the analysis region in step S105 is analyzed, the reference color region is determined in step S106, and the determination in step S107 is performed again. In step S107, until the reference color determination unit 13 determines that the number of pixels other than the reference color area among the pixels existing in the analysis area is equal to or less than a predetermined threshold, steps S104 to S108 are performed. This process is repeated.
  • step S108 it is preferable that the enlarged display of the image is performed as much as the processing from step S104 to step S108 is repeated.
  • the process of step S108 is performed in the image display state of 1.0 times shown in FIG. 9A, the display is performed with the enlargement factor of 2 shown in FIG. 9B, and the process of step S108 is repeated again.
  • the image is displayed as shown in FIG. 9C at a magnification twice as large as the state shown in FIG. 9B.
  • step S107 if the number of pixels other than the reference color area is equal to or smaller than the predetermined threshold value in step S107, the process proceeds to step S109 (Yes in step S107).
  • the number of pixels other than the reference color area is equal to or smaller than a predetermined threshold in the analysis area, there are few colors other than the color desired by the user as the reference color in the analysis area, and one reference color is determined. If you can.
  • Information indicating the determined reference color is supplied to the image processing unit 14.
  • step S109 the image processing unit 14 processes the image.
  • the image processing in step S109 is performed according to the mode determined in step S101 described above. Specifically, as described above with reference to FIGS. 2 and 3, the reference color is processed to become a part color, and the color other than the reference color is processed to be a part color. In this process, a color other than the reference color is converted into another color.
  • step S110 the image subjected to the image processing in step S109 is output.
  • Examples of the output method include display on a display device under the control of the display control unit 15, storage in a storage unit, and writing to an external medium.
  • Examples of the format of the saved and exported image include JPEG (Joint Photographic Experts Group) and GIF (Graphics Interchange Format).
  • This technology determines a reference color based on position information input from a user, and performs image processing based on the reference color. Therefore, as shown in FIG. 10, when there is the same color as the reference color at a position separated from the analysis area in the image, if processing other than the reference color is performed, an area of the same color as the separated reference color is obtained. However, the color remains without being processed.
  • FIG. 10 shows a case where the right-side cat and the left-side cat in the image have the same color, the right-side cat color becomes the reference color, and processing is performed on colors other than the reference color. In this case, the right cat and the left cat having the same color as the right cat are not processed, and the colors other than the left and right cats in the image are processed.
  • the image processing in the first embodiment of the present technology is performed. According to the present technology, it is possible to easily create an image such as a part color by performing color conversion processing on an image based on a color arbitrarily selected by a user from among colors existing in the image.
  • FIG. 11 is a block diagram illustrating a configuration of the imaging apparatus 100 having the functions of the image processing apparatus.
  • the image processing apparatus according to the present technology functions in the imaging apparatus 100 will be described as an example.
  • the imaging apparatus 100 includes an imaging unit 101, a timing generator 102, a preprocessing circuit 103, a camera processing circuit 104, an image memory 105, a control unit 106, a display unit 107, an input unit 108, an R / W (reader / writer) 109, and a storage.
  • the medium 110 is configured.
  • the imaging unit 101, timing generator 102, preprocessing circuit 103, camera processing circuit 104, image memory 105, input unit 108 and R / W 109 are connected to the control unit 106.
  • the control unit 106 functions as an area setting unit 11, an image analysis unit 12, a reference color determination unit 13, an image processing unit 14, and a display control unit 15 constituting the image processing apparatus by executing a program.
  • the imaging unit 101 includes an optical imaging system and an imaging element.
  • the optical imaging system includes a lens for condensing light from a subject on an imaging device, a driving mechanism for moving a lens to perform focusing and zooming, a shutter mechanism, an iris mechanism, and the like. These are driven based on a control signal from the control unit 106.
  • An optical image of a subject obtained through the optical imaging system is formed on an imaging element as an imaging device.
  • the image sensor is driven based on the timing signal output from the timing generator 102, photoelectrically converts incident light from the subject, converts it into a charge amount, and outputs it as an image signal.
  • An image signal output from the image sensor is supplied to the preprocessing circuit 103.
  • the imaging device 12 a CCD (Charge Coupled Device), a CMOS (Complementary Metal Oxide Semiconductor), or the like is used.
  • the timing generator 102 outputs a timing signal to the image sensor under the control of the control unit 106.
  • the pre-processing circuit 103 performs a sample hold or the like on the image signal output from the image sensor so as to maintain a good S / N (Signal / Noise) ratio by CDS (Correlated Double Sampling) processing. Further, the gain is controlled by AGC (Auto Gain Control) processing, A / D (Analog / Digital) conversion is performed, and a digital image signal is output.
  • AGC Auto Gain Control
  • a / D Analog / Digital
  • the camera processing circuit 104 performs signal processing such as white balance adjustment processing, color correction processing, gamma correction processing, Y / C conversion processing, and AE (Auto Exposure) processing on the image signal from the preprocessing circuit 103.
  • signal processing such as white balance adjustment processing, color correction processing, gamma correction processing, Y / C conversion processing, and AE (Auto Exposure) processing on the image signal from the preprocessing circuit 103.
  • the image memory 105 is a volatile memory, for example, a buffer memory composed of DRAM (Dynamic Random Access Memory), and temporarily stores image data that has been subjected to predetermined processing by the preprocessing circuit 103 and the camera processing circuit 104. It is something to store.
  • DRAM Dynamic Random Access Memory
  • the control unit 106 includes, for example, a CPU, a RAM, a ROM, and the like.
  • the ROM stores a program that is read and operated by the CPU.
  • the RAM is used as a work memory for the CPU.
  • the CPU controls the entire imaging apparatus 100 by executing various processes in accordance with programs stored in the ROM and issuing commands.
  • the control unit 17 also functions as an area setting unit 11, an image analysis unit 12, a reference color determination unit 13, an image processing unit 14, and a display control unit 15 that constitute the image processing apparatus 10 by executing a predetermined program. .
  • an image processed by the image processing apparatus 10 as an input image is an image acquired by the imaging unit 101.
  • the display control unit 15 displays the image acquired by the imaging unit 101 as a through image on the display unit 107, and further displays the processed image on the display unit 107 as a through image when image processing is performed. Is done.
  • Other functions of the image processing apparatus 10 are the same as those in the first embodiment.
  • the display unit 107 is a display unit configured by, for example, an LCD (Liquid Crystal Display), a PDP (Plasma Display Panel), an organic EL (Electro Luminescence) panel, or the like.
  • the display unit 107 displays a through image being imaged, an image recorded in the storage medium 110, and the like under the control of the display control unit 15.
  • the input unit 108 includes, for example, a power button for switching power on / off, a release button for instructing start of recording of a captured image, an operation element for zoom adjustment, and a touch screen configured integrally with the display unit 107. Etc.
  • a control signal corresponding to the input is generated and output to the control unit 106. Then, the control unit 106 performs arithmetic processing and control corresponding to the control signal.
  • the imaging apparatus 100 is a touch panel in which the display unit 107 and the input unit 108 are integrally configured, the user can intuitively perform processing on the image by touching the touch panel several times. An image that has undergone processing such as part color can be created.
  • the R / W 109 is an interface to which a recording medium for recording image data generated by imaging is connected.
  • the R / W 109 writes the data supplied from the control unit 106 to the storage medium 110 and outputs the data read from the storage medium 110 to the control unit 106.
  • the storage medium 110 is a large-capacity storage medium such as a hard disk, a memory stick (registered trademark of Sony Corporation), and an SD memory card.
  • the image is stored in a compressed state based on a standard such as JPEG.
  • EXIF Exchangeable Image File Format
  • data including additional information such as information on the stored image and imaging date and time is stored in association with the image.
  • the function of the image processing apparatus may be provided in the imaging apparatus 100 in advance. Further, the image processing apparatus may be provided as an application, and the application may be installed in the imaging apparatus 100 so that the imaging apparatus 100 has a function of the image processing apparatus.
  • the processed image is displayed as a through image on the display unit 107 of the imaging apparatus 100.
  • FIG. 12 is a flowchart showing a processing flow in the second embodiment. Note that step S101, step S104 to step S107, and step S109 are the same as those in the first embodiment, and a description thereof will be omitted.
  • step S101 image acquisition is started by the imaging unit 101 in step S201.
  • the image obtained by the imaging unit 101 is subjected to predetermined processing in the preprocessing circuit 103 and the like, and is displayed as a through image on the display unit 107 under the control of the display control unit 15 in step S202.
  • the image processing mode may be set after the through image is displayed on the display unit 107.
  • step S104 designation of the position by the user for setting the analysis area in step S104 is performed on the through image displayed on the display unit 107.
  • step S107 If it is determined in step S107 that the number of pixels outside the reference color area is not less than or equal to the threshold value in the pixels in the analysis area, the process proceeds to step S203, and the through image is enlarged and displayed on the display unit 107.
  • the aspect of the enlarged display is the same as that described with reference to FIG. 9 in the first embodiment.
  • step S107 if it is determined in step S107 that the number of pixels outside the reference color area is not less than or equal to the threshold value in the pixels in the analysis area, the process proceeds to step S109, and the image processing unit 14 converts the image into a through image. On the other hand, image processing is performed. The contents of the image processing are the same as in the first embodiment. Then, the image processed by the image processing unit 14 in step S109 is displayed on the display unit 107 as a through image in step S204.
  • the image processed by the image processing unit 14 is captured as a captured image. Accordingly, the user can perform image processing, capture an image by the imaging apparatus 100 while viewing a through image displayed in a state such as a part color, and acquire the processed image by imaging. .
  • FIG. 13 is a block diagram illustrating a configuration of an image processing device 30 according to the third embodiment.
  • the third embodiment differs from the first embodiment in that an imaging unit 31, a focus control unit 32, and an exposure control unit 33 are provided. Since the configuration other than the imaging unit 101, the focus control unit 32, and the exposure control unit 33 is the same as that of the first embodiment, the description thereof is omitted.
  • the imaging unit 31 includes an imaging element and an optical imaging system.
  • the optical imaging system includes a lens for condensing light from a subject on an imaging device, a driving mechanism for moving a lens to perform focusing and zooming, a shutter mechanism, an iris mechanism, and the like.
  • An optical image of a subject obtained through the optical imaging system is formed on an imaging element as an imaging device.
  • the image sensor photoelectrically converts incident light from the subject, converts it into a charge amount, and outputs it as an image signal.
  • the imaging unit 31 is the same as the imaging unit 101 in the imaging device 100 described in the second embodiment.
  • the focus control unit 32 is connected to the region setting unit 11, the image processing unit 14, and the imaging unit 31.
  • the focus control unit 32 is supplied with analysis region information indicating an analysis region in the image set by the region setting unit 11 and information on a region subjected to image processing by the image processing unit 14.
  • the focus control unit 32 performs focus control in the imaging unit 31 by supplying a control signal to the imaging unit 31 based on the information.
  • the imaging unit 31 is controlled so as to focus on the analysis region in the image set by the region setting unit 11 and / or the region on which image processing has been performed by the image processing unit 14. This is because the analysis area is based on the position specified by the user and is the area that the user is paying attention to, or the area that the user wants the user to view the image. This is because it is considered appropriate to focus. This is because the area where image processing is performed becomes a conspicuous area in the image due to the part color, and it is considered appropriate to focus on that area. If the analysis region is A and the region where image processing is performed by the image processing unit 14 is B, the region to be focused may be A ⁇ B, or only A or B.
  • the exposure control unit 33 is connected to the region setting unit 11, the image processing unit 14, and the imaging unit 31.
  • the exposure control unit 33 is supplied with analysis region information indicating an analysis region in the image set by the region setting unit 11 and processing region information indicating a region subjected to image processing by the image processing unit 14. Based on the information, the exposure control unit 33 supplies a control signal to the imaging unit 101 to adjust the shutter speed, F value (aperture value), and the like in the imaging unit 31 to perform exposure control.
  • the imaging unit 31 is controlled so that the exposure is matched with the analysis region in the image set by the region setting unit 11 and / or the region where image processing is performed by the image processing unit 14.
  • the analysis area is based on the position specified by the user and is the area that the user is paying attention to, or the area that the user wants the user to view the image. This is because it is considered appropriate to adjust the exposure. This is because the area where image processing is performed becomes a conspicuous area in the image due to the part color, and it is considered appropriate to match the exposure there.
  • the analysis region is C and the region where image processing is performed by the image processing unit 14 is D
  • the region to be exposed may be C ⁇ D, or only C or only D.
  • FIG. 14 is a block diagram showing a configuration of an imaging apparatus 300 having the functions of the image processing apparatus according to the third embodiment. Since the configuration other than the focus control unit 32 and the exposure control unit 33 is the same as that of the first embodiment, the description thereof is omitted.
  • the control unit 106 also functions as the focus control unit 32 and the exposure control unit 33 by executing a predetermined program.
  • step S104 When the analysis region is set in step S104, information indicating the analysis region is supplied to the focus control unit 32 and the exposure control unit 33 in addition to the image analysis unit 12.
  • image processing is performed by the image processing unit 14 in step S109, information indicating a region in the processed image is supplied to the focus control unit 32 and the exposure control unit 33. Then, the process proceeds to step S301.
  • step S301 the focus control unit 32 controls focus in the imaging unit 31 based on the analysis region information and the processing region information. Further, the exposure control unit 33 controls exposure in the imaging unit 31 based on the analysis region information and the processing region information. Note that both the focus control and the exposure control in step S301 are not necessarily performed, and only one of them may be performed.
  • an image generated by the imaging unit 31 in a state in which focus control and / or exposure control is performed is displayed on the display unit 107 as a through image under the control of the display control unit 15 in step S204.
  • an image captured by the imaging unit 31 that has been subjected to focus control and / or exposure control and processed by the image processing unit 14 is obtained as a captured image. .
  • the format and / or exposure can be automatically adjusted to an area designated by the user as an analysis area or an area subjected to image processing.
  • the analysis area and the area that has undergone image processing are highly likely to be the area that the user is paying attention to or the area that the user wants to pay attention to. An image in which a high area is clearly projected can be obtained.
  • an area setting unit that sets an analysis area in an image according to an input from a user
  • An analysis unit for obtaining color information of the analysis region
  • a reference color determination unit that determines a reference color as a reference for image processing from the color information acquired by the analysis unit
  • An image processing apparatus comprising: an image processing unit that performs processing on the image based on the reference color.
  • the image processing apparatus according to any one of (1) to (8), further including a display control unit that performs control to display the set analysis region on a display unit that displays the image.
  • An analysis area is set in the image according to the input from the user, Obtaining color information of the analysis area; Determine a reference color as a reference for image processing from the acquired color information, An image processing method for performing processing on the image based on the reference color.
  • An analysis area is set in the image in response to an input from the user, Obtaining color information of the analysis area; Determine a reference color as a reference for image processing from the acquired color information, An image processing program for causing a computer to execute an image processing method for processing the image based on the reference color.
  • An imaging unit that receives light through the optical system and generates an image; An area setting unit that sets an analysis area in the image generated by the imaging unit in response to an input from the user; An analysis unit for obtaining color information of the analysis region; A reference color determination unit that determines a reference color as a reference for image processing from the color information acquired by the analysis unit; An imaging apparatus comprising: an image processing unit that performs processing on the image based on the reference color.
  • the imaging apparatus further including a focus control unit that performs focus control in the imaging unit.
  • the imaging apparatus according to any one of (12) to (14), further including an exposure control unit that performs exposure control in the imaging unit.
  • the imaging apparatus further including a display control unit that performs control to display the set analysis region on a display unit that displays the image.
  • Image processing device 11 Area setting unit 12... Image analysis unit 13.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)

Abstract

ユーザからの入力に応じて画像中に解析領域を設定する領域設定部と、解析領域の色情報を取得する解析部と、解析部により取得された色情報から画像処理の基準となる基準色を決定する基準色決定部と、基準色に基づいて、画像に処理を施す画像処理部とを備える画像処理装置である。

Description

画像処理装置、画像処理方法、画像処理プログラムおよび撮像装置
 本技術は、画像処理装置、画像処理方法、画像処理プログラムおよび撮像装置に関する。
 近年、パートカラーと称される画像の処理・加工が普及してきている。パートカラーとは、画像の一部分のみを自然色とし、その他の部分はモノクロなどにすることにより、自然色部分を際立たせることである。
 画像にパートカラー処理を施す場合、画像内における一部の領域について色を残す、色を抜くなどの処理が必要となる。そこで、人物のように動きのある画素と背景のように静止している画素を判別し、特殊効果を施す特殊効果処理方法が提案されている(特許文献1)。
特開2000−232609号公報
 しかし、特許文献1に記載の技術では、特殊効果を施す領域はユーザが入力する画像とのマッチングにより決定しており、画面内の一つの色を選択する方法については記載されていない。
 本技術は、このような点に鑑みてなされたものであり、画像中の任意の色に基づいてパートカラーなどの画像処理を行うことができる画像処理装置、画像処理方法、画像処理プログラムおよび撮像装置を提供することを目的とする。
 上述した課題を解決するために、第1の技術は、ユーザからの入力に応じて画像中に解析領域を設定する領域設定部と、解析領域の色情報を取得する解析部と、解析部により取得された色情報から画像処理の基準となる基準色を決定する基準色決定部と、基準色に基づいて、前記画像に処理を施す画像処理部とを備える画像処理装置である。
 また、第2の技術は、ユーザからの入力に応じて画像中に解析領域を設定し、解析領域の色情報を取得し、取得された色情報から画像処理の基準となる基準色を決定し、基準色に基づいて、前記画像に処理を施す画像処理方法である。
 また、第3の技術は、ユーザからの入力に応じて画像中に解析領域を設定し、解析領域の色情報を取得し、取得された色情報から画像処理の基準となる基準色を決定し、基準色に基づいて、前記画像に処理を施す画像処理方法をコンピュータに実行させる画像処理プログラムである。
 また、第4の技術は、光学系を介した光を受光して画像を生成する撮像部と、ユーザからの入力に応じて、撮像部により生成された画像中に解析領域を設定する領域設定部と、前記解析領域の色情報を取得する解析部と、解析部により取得された色情報から画像処理の基準となる基準色を決定する基準色決定部と、基準色に基づいて、画像に処理を施す画像処理部とを備える撮像装置である。
 本技術によれば、画像内の任意の色に基づいて容易に画像にパートカラーなどの画像処理を施すことができる。
 図1は、本技術の第1の実施の形態に係る画像処理装置の構成を示すブロック図である。
 図2Aは、画像処理の第1の態様を示す図であり、図2Bは、画像処理の第2の態様を示す図である。
 図3Aは、画像処理の第3の態様を示す図であり、図3Bは、画像処理の第4の態様を示す図である。
 図4は、画像処理の流れを示すフローチャートである
 図5Aは、解析領域の設定の第1の例を示す図であり、図5Bは、解析領域の設定の第2の例を示す図であり、図5Cは解析領域の設定の第3の例を示す図である。
 図6Aは、設定された解析領域の表示の第1の例を示す図であり、図6Bは、設定された解析領域の表示の第2の例を示す図であり、図6Cは、設定された解析領域の表示の第3の例を示す図である。
 図7は、基準色の決定について説明するためのヒストグラムである。
 図8Aは、基準色の決定に用いられる係数の例であり、図8Bは、基準色の決定に用いられる係数について説明するための図である。
 図9Aは、画像の通常の表示状態を示す図であり、図9Bは、画像が拡大表示された状態を示す図であり、図9Cは、画像が拡大表示された状態を示す図である。
 図10は、画像処理の説明のための図である。
 図11は、本技術の第2の実施の形態に係る撮像装置の構成を示すブロック図である。
 図12は、第2の実施の形態における画像処理の流れを示すフローチャートである
 図13は、本技術の第3の実施の形態に係る画像処理装置の構成を示すブロック図である。
 図14は、本技術の第3の実施の形態に係る撮像装置の構成を示すブロック図である。
 図15は、第3の実施の形態における処理の流れを示すフローチャートである。
 以下、本技術の実施の形態について図面を参照しながら説明する。ただし、本技術は以下の実施の形態のみに限定されるものではない。なお、説明は以下の順序で行う。
<1.第1の実施の形態>
[1−1.画像処理装置の構成]
[1−2.画像処理装置における処理]
<2.第2の実施の形態>
[2−1.画像処理装置の機能を備える撮像装置の構成]
[2−2.撮像装置における処理]
<3.第3の実施の形態>
[3−1.画像処理装置および画像処理装置の機能を備える撮像装置の構成]
[3−2.撮像装置における処理]
<4.変形例>
<1.第1の実施の形態>
[1−1.画像処理装置の構成]
 図1は、本技術に係る画像処理装置10の構成を示すブロック図である。画像処理装置10は、領域設定部11、画像解析部12、基準色決定部13、画像処理部14、表示制御部15とから構成されている。なお、図1において、実線は画像データの伝送を示し、破線は画像処理のための制御信号、画像処理のための情報などの伝送を示すものである。画像処理装置10は、モノクロ、セピアなどの中で一部分だけに色が付されているいわゆるパートカラー処理が施された画像を生成するものである。
 画像処理装置10には、処理を施す対象となる画像が入力される。画像処理装置10が撮像装置に搭載されている場合、撮像装置による撮像で得られた画像または、撮影済みで撮像装置のメモリに保存された画像などが入力される。また、画像処理装置10がパーソナルコンピュータ、スマートフォン、タブレット端末などに搭載される場合においては、HDD(Hard Disc Drive)、USB(Universal Serial Bus)メモリなどの記憶媒体に保存された画像が入力される。
 領域設定部11は、入力画像に対して画像解析部12により解析処理が施される領域(以下、解析領域と称する。)を設定するものである。領域設定部11には、解析領域設定の基準となる位置を示す情報(以下、位置情報と称する。)が入力される。位置情報は、例えば、撮像装置、スマートフォンなど、画像処理装置10が搭載される機器における入力部に対するユーザの操作により入力される。領域設定部11により指定された解析領域を示す情報は画像解析部12に供給される。
 例えば、画像処理装置10の機能を備える機器が入力デバイスと表示デバイスとが一体に構成されたタッチパネルを備える場合、タッチパネルに表示されている画像中における任意の位置にユーザが指などを接触させることにより、位置情報の入力が行われる。したがって、ユーザは、パートカラー処理により特定の色を残したい場合には、画像中において残したい色を有する被写体に指などを接触させればよい。タッチパネル以外であっても、十字ボタンの操作などで画面上に表示されるカーソルを任意に位置に移動させることによって位置情報の入力がなされてもよい。位置情報に基づく具体的な解析領域の設定方法については後述する。
 画像解析部12には画像が入力される。画像解析部12は、領域設定部11によって設定された解析領域について色情報の解析を行う。色情報の解析処理はRGB信号のままで行なってもよいし、例えば、解析方法、解析アルゴリズムなどに合わせてYCrCb信号などに変換して行なってもよい。
 基準色決定部13は、解析領域中に存在する色の中から画像処理部14により行われる画像処理の基準となる色(以下、基準色と称する。)を決定する。基準色の決定方法については後述する。決定された基準色を示す情報は画像処理部14に供給される。
 画像処理部14は、基準色決定部13により決定された基準色に基づいて入力画像に対して色を変換する画像処理を施すものである。色の変換は、所定の色変換式などを用いて行われる。
 画像処理部14による画像処理には複数のモードがある。図2Aに示されるように、処理の第1のモードは、基準色以外の色に処理を施すものである。この場合の処理としては、画像中における基準色以外の色をモノクロに変換する、基準色以外の色をセピア色に変換するなどが考えられる。図2Aでは、画像中右側の猫の色が基準色であり、その猫の色以外の色が画像処理により変化している。これにより、ユーザが指定した色のみがカラーとなって強調される画像を作成することができる。なお、色の変換はモノクロ、セピアに限られるものではない。基準色以外の色を基準色以外の統一感ある色に変換すればパートカラーを実現することができる。
 また、画像処理の第2のモードは、図2Bに示されるように、画像中における基準色に処理を施すものである。この場合の処理としては、画像中における基準色をモノクロにする、基準色をセピア色にするなどがある。図2Bでは、画像中の右側の猫の色が基準色であり、その右側猫の色のみが画像処理により変化している。これにより、ユーザが指定した色以外の色がカラーとなって強調される画像を作成することができる。
 また、画像処理の第3のモードは、図3Aに示されるように、基準色を他の色に変換するものである。図3Aでは、画像中の右側の猫の色が基準色であり、その猫の色のみが画像処理により変化している。これにより、ユーザが指定した色が別の色となった画像を作成することができる。
 さらに、画像処理の第4のモードは、図3Bに示されるように、基準色以外の色を他の色に変換するものである。図3Bでは、画像中の右側の猫の色が基準色であり、その猫の色以外の色が画像処理により変化している。これにより、ユーザが指定した色以外の色が別の色となった画像を作成することができる。
 なお、上記画像処理の第1の態様から第4の態様を組み合わせて画像処理を行なってもよい。例えば、基準色以外をモノクロにし、基準色を別の色に変換する、などである。
 上述した画像処理のモードの設定は、画像処理装置10が搭載される機器に対するユーザからの入力などにより適宜設定されるようにするとよい。ただし、必ずしも画像処理部14が上述した全ての態様の画像処理を行える必要はない。いずれか1つでもよいし、2つ、または3つでもよい。
 表示制御部15は、画像処理装置10が搭載される機器などの表示デバイスにおける画像の表示を制御するものである。具体的には、ユーザによる位置情報の入力のために入力画像を表示する、画像処理部14により処理が施された画像を表示するなどである。
 このように、本技術は、ユーザからの入力に応じて処理の基準となる基準色を設定し、その基準色に処理を施す、または、基準色以外の色に処理を施すかによって、画像に対してパートカラーなどの処理を施すものである。画像処理装置10は以上のように構成されている。
 画像処理装置10は、例えば、CPU(Central Processing Unit)RAM(Random Access Memory)、およびROM(Read Only Memory)などから構成されている演算装置によりプログラムが実行されることにより実現される。ROMには、CPUにより読み込まれ動作されるプログラムなどが記憶される。RAMは、CPUのワークメモリとして用いられる。CPUは、ROMに記憶されたプログラムに実行することによって、領域設定部11、画像解析部12、基準色決定部13、画像処理部14、表示制御部15として機能する。
 画像処理装置10は、撮像装置、パーソナルコンピュータ、スマートフォンなどにあらかじめ搭載、またはプログラムとして提供されてそれらの機器にインストールされる。プログラムを流通させる場合には、例えば、そのプログラムが記録された光ディスクや半導体メモリなどの可搬型記録媒体が提供または販売される。また、プログラムをサーバに格納しておき、ネットワークを介してそのプログラムを提供、販売することもできる。
 プログラムを実行する機器は、例えば、可搬型記録媒体に記録されたプログラムまたはサーバから転送されたプログラムを自己の記憶装置に格納する。そして、機器は、自己の記憶装置からプログラムを読み取り、プログラムに従った処理を実行する。なお、機器は、可搬型記録媒体から直接プログラムを読み取り、そのプログラムに従った処理を実行することもできる。
 ただし、画像処理装置10は、プログラムによって実現されるのみでなく、領域設定部11、画像解析部12、基準色決定部13、画像処理部14、表示制御部15それぞれの機能を有するハードウェアを組み合わせた専用の装置として実現されてもよい。
[1−2.画像処理装置における処理]
 次に、画像処理装置10により行われる処理について説明する。図4は画像処理装置10による処理の流れを示すフローチャートである。
 まず、ステップS101で画像処理のモードが設定される。このモードの設定とは、上述した画像処理部14による画像処理の種類を設定するものである。詳しくは、基準色に処理を施してパートカラーにする、基準色以外の色に処理を施してパートカラーにする、基準色を別の色に変換する、基準色以外の色を別の色に変換する、という4つのモードである。
 次にステップS102で、画像処理装置10に処理対象となる画像が入力される。入力画像は画像解析部12に供給される。なお、ステップS101のモードの設定は、画像が入力された後に行われてもよい。
 次にステップS103で、入力画像が表示制御部15の制御により機器における表示デバイスなどに表示されて、解析領域設定のためのユーザからの位置情報の入力を受け付ける状態となる。
例えば、画像処理装置10が搭載される機器が、入力デバイスと表示デバイスとが一体となったタッチパネルを備える場合、ユーザがそのタッチパネルに表示されている画像中の任意の位置に指等を接触させることにより位置情報の入力が行なわれる。
 次にステップS104で、領域設定部11により解析領域の設定が行われる。上述したように、解析領域は入力される位置情報に基づいて設定される。ここで、図5を参照して、解析領域の設定について説明する。解析領域は、例えば、図5Aに示されるように、位置情報で示される、ユーザにより指定された位置を中心とした所定の大きさの円形の領域として設定される。また、図5Bに示されるように、ユーザにより指定された位置を中心とした矩形の領域として設定されてもよい。なお、矩形の場合には、ユーザからの2点の指定を受け付け、その2点を結ぶ線分を対角線とした矩形状の領域を解析領域としてもよい。この場合、指定された2点の位置を移動させることにより矩形の解析領域の大きさ、形状を変更できるようにしてもよい。さらに、図5Cに示されるように、ユーザがなぞり操作などにより入力した任意の形状が解析領域として設定されるようにしてもよい。
 なお、ステップS104の解析領域の設定が行われた後、設定された解析領域を示す枠などを表示デバイスに表示される画像上に常時表示しておくようにしてもよい。これにより、例えば、画像処理装置が撮像装置に適用される場合、ユーザはスルー画で常時解析領域の位置、大きさなどを把握しながら画像処理、撮像、スルー画を見ながらの被写体の追尾などを行うことができる。
 設定された解析領域の表示態様としては、例えば、色枠、図7Aのような点滅または点灯する枠、図7Bのような網状の枠、図7Cのようなユーザがなぞった軌跡を示す色枠、などが考えられる。枠の態様としては、例えば、ステップS104で設定された領域の形状に対応した形状、四角形状、丸型形状などが考えられる。また、図7に示される態様以外でも、ユーザが解析領域を認識できるものであればどのようなものであってもよい。
 フローチャートの説明に戻る。次にステップS105で、画像解析部12によって解析領域内の色情報の解析が行われる。これにより、解析領域内の色の分布が取得される。画像解析部12による解析結果は基準色決定部13に供給される。次にステップS106で、基準色決定部13により、基準色を決定するための基準色領域が求められる。
 ここで、基準色の決定方法について説明する。図7は基準色の決定方法を説明するためのヒストグラムである。画像解析部12により取得した解析領域におけるCrのヒストグラムが図7に示されるものである場合、まず、Crの平均値、標準偏差、係数を用いて、基準色を決定するための基準色領域を下記の式1から求める。
[式1]
Figure JPOXMLDOC01-appb-I000001
 式1により、図7のヒストグラムにおいて斜線が付された部分のように、頻度が低い部分は除かれ、頻度が高い部分が基準色領域として抽出される。
 なお、式1における係数kは例えば、図8Aに示されるように色相ごとに値を決めておくとよい。図8Aの例では、Red、Green、Blue、Yellowの4つの色相が示されているが、これは例示である。この4つに限られず、さらに多くの色について係数kの値を定義してもよい。
 なお、このように色相ごとに係数kの値を定めておく場合、基準色がどの色相に相当するかを判定する必要がある。色相の判定方法としては、Crの平均値と、Cbの平均値と、各色相の中心となるCr、Cbとから色相を決定する方法がある。例えば、図8Bに示されるように、CrCb平面上において基準色が星印で表される位置にあるとする。その場合、基準色はRedに最も近いため、色相Redに対応した係数kを採用する。
 また、彩度に応じて係数kを決定してもよい。例えば、Crの値に基づき、「|Cr|=128(最大)」のときに「k=2.0」とし、「|Cr|=0」のときに「k=3.0」とし、中間は適宜、線形補間などで補間する、などが考えられる。
 また、ユーザの入力に応じて係数kの値が変更され、基準色に含まれる色の範囲が変動するようにしてもよい。例えば、タッチパネルにおいて位置情報を入力する際に、ダブルタップ入力を行った場合には、タップ入力を行った場合に比べて係数kの値を大きくして、基準色に含まれる色の範囲を大きくするなどが考えられる。なお、タップ入力とは、ユーザの指などを操作面上に短時間1回だけ接触させる入力動作である。ダブルタップ入力とは、指などを操作面上に短い間隔で連続して2回接触させる入力動作である。ただし、入力方法はこれに限られるものではない。ユーザが色の範囲を変動させることが出来ればどのような入力方法でもよい。
 なお、図7に示されたヒストグラム、基準色領域はあくまで説明上の例示であり、それに限られるものではない。
 図4のフローチャートの説明に戻る。次にステップS107で、基準色決定部13は、解析領域内に存在する画素の内、基準色領域以外の画素の数が所定の閾値以下であるか否かを判定する。基準色領域以外の画素の数が所定の閾値以下ではない場合、処理はステップS108に進む(ステップS107のNo)。解析領域内の画素の内、基準色領域以外の画素の数が所定の閾値以下ではない場合とは、基準色領域内に複数の色があり、基準色を一つの色に決定することができない場合である。
 次にステップS108で、基準色決定部13は、表示制御部15に対して画像を拡大表示するように指示を行う。これを受けて表示制御部15は、解析領域の入力の際にユーザが指定した位置を基準として画像が拡大表示されるように表示制御を行う。これにより、ユーザは、次のステップS104における解析領域設定のための位置情報の入力をより詳細に行うことが可能となる。
 なお、画像の拡大表示は例えば、図9Aの1.0倍の表示状態から図9Bに示される2倍の拡大率で表示することなどが考えられる。
 なお、処理がステップS108に進んだ場合、画像が拡大表示された状態において入力された位置情報に基づいてステップS104における解析領域の設定が再度行われる。そして、ステップS105における解析領域内の色情報の解析、ステップS106における基準色領域の決定が行われ、再びステップS107における判定が行われる。そして、ステップS107において、基準色決定部13により、解析領域内に存在する画素の内、基準色領域以外の画素の数が所定の閾値以下である、と判定されるまで、ステップS104~ステップS108の処理が繰り返して行われることとなる。
 ステップS104~ステップS108の処理が繰り返して行われる場合、ステップS108では、ステップS104~ステップS108の処理が繰り返される分だけ画像の拡大表示がなされるようにするとよい。例えば、図9Aに示される1.0倍の画像表示状態でステップS108の処理がなされた場合、図9Bに示される2倍の拡大率で表示が行われ、さらに、再びステップS108の処理が繰り返された場合、図9Bに示される状態からさらに2倍の拡大率で図9Cのように表示されるようにするとよい。なお、拡大率として記載した「2倍」とはあくまで例示であり、拡大率はそれに限られず、3倍、4倍などどのような倍率でもよい。また、ユーザが拡大率を設定できるようにしてもよい。
 このように、ユーザが入力した位置情報に基づく解析領域において基準色を1つに決定できない場合に自動的に拡大表示を行うことにより、より詳細な解析領域設定のための位置情報の入力を受け付けることができる。これにより、画像処理の基準となる色を正確に決定することができる。
 一方、ステップS107で、基準色領域以外の画素の数が所定の閾値以下である場合、処理はステップS109に進む(ステップS107のYes)。解析領域内において、基準色領域以外の画素の数が所定の閾値以下である場合とは、解析領域内に基準色としてユーザが希望する色以外の色が少なく、基準色を1つに決定することが出来る場合である。決定された基準色を示す情報は画像処理部14に供給される。
 そしてステップS109で、画像処理部14により、画像に処理が施される。ステップS109における画像処理は、上述したステップS101において決定されたモードに従って行われる。詳しくは、図2および図3を参照して上述したように、基準色に処理を施してパートカラーにする、基準色以外の色に処理を施してパートカラーにする、基準色を別の色に変換する、基準色以外の色を別の色に変換する、という処理である。
 次にステップS110で、ステップS109で画像処理が施された画像が出力される。出力方法としては、表示制御部15の制御による表示デバイスへの表示、記憶部への保存、外部メディアなどへの書き出し、などがある。保存される、書き出される画像のフォーマットとしては、JPEG(Joint Photographic Experts Group)、GIF(Graphics Interchange Format)などがある。
 本技術は、ユーザからの位置情報の入力に基づいて基準色を決定し、その基準色に基づいて画像処理を施す。したがって、図10に示されるように、画像中において解析領域から離間した位置に基準色と同一の色がある場合で、基準色以外に処理を施すと、その離間した基準色と同一色の領域も処理がなされずに色が残ることとなる。図10は、画像中の右側の猫と左側の猫が同一の色であり、右側の猫の色が基準色となり、基準色以外の色に処理が施される場合である。この場合、その右側の猫と、右側の猫と同一の色である左側の猫には処理は施されず、画像中の左右の猫以外の色に処理が施されることとなる。
 以上のようにして、本技術の第1の実施の形態における画像処理が行われる。本技術によれば、画像中に存在する色の中からユーザが任意に選択した色を基準として画像に色変換処理を施し、パートカラーなどの画像を容易に作成することが可能になる。
 ユーザは、パートカラー処理の基準となる基準色特定のために位置情報を入力するだけなので、タッチパネルを備える機器においては、ユーザはタッチパネルを数回タッチするだけでパートカラーなどの処理が施された画像を生成することができる。
<2.第2の実施の形態>
[2−1.画像処理装置の機能を備える撮像装置の構成]
 次に、本技術の第2の実施の形態について説明する。図11は、画像処理装置の機能を備える撮像装置100の構成を示すブロック図である。以下、本技術に係る画像処理装置が撮像装置100において機能する場合を例にして説明を行う。
 撮像装置100は、撮像部101、タイミングジェネレータ102、前処理回路103、カメラ処理回路104、画像メモリ105、制御部106、表示部107、入力部108、R/W(リーダ/ライタ)109および記憶媒体110から構成されている。これらのうち、撮像部101、タイミングジェネレータ102、前処理回路103、カメラ処理回路104、画像メモリ105、入力部108およびR/W109は制御部106に接続されている。また、制御部106はプログラムを実行することにより、画像処理装置を構成する領域設定部11、画像解析部12、基準色決定部13、画像処理部14、表示制御部15として機能する。
 撮像部101は、光学撮像系および撮像素子から構成されている。光学撮像系は被写体からの光を撮像素子に集光するためのレンズ、レンズを移動させてフォーカス合わせやズーミングを行うための駆動機構、シャッタ機構、アイリス機構、などから構成されている。これらは制御部106からの制御信号に基づいて駆動される。光学撮像系を介して得られた被写体の光画像は、撮像デバイスとしての撮像素子上に結像される。
 撮像素子は、タイミングジェネレータ102から出力されるタイミング信号に基づいて駆動され、被写体からの入射光を光電変換して電荷量に変換し、画像信号として出力する。撮像素子から出力される画像信号は前処理回路103に供給される。撮像素子12としては、CCD(Charge Coupled Device)、CMOS(Complementary Metal Oxide Semiconductor)などが用いられる。タイミングジェネレータ102は、制御部106の制御に従い撮像素子に対してタイミング信号を出力する。
 前処理回路103は、撮像素子から出力された画像信号に対して、CDS(Correlated Double Sampling)処理によりS/N(Signal/Noise)比を良好に保つようにサンプルホールドなどを行う。さらに、AGC(Auto Gain Control)処理により利得を制御し、A/D(Analog/Digital)変換を行ってデジタル画像信号を出力する。
 カメラ処理回路104は、前処理回路103からの画像信号に対して、ホワイトバランス調整処理や色補正処理、ガンマ補正処理、Y/C変換処理、AE(Auto Exposure)処理などの信号処理を施す。
 画像メモリ105は、揮発性メモリ、例えば、DRAM(Dynamic Random Access Memory)で構成されるバッファメモリであり、前処理回路103およびカメラ処理回路104によって所定の処理が施された画像データを一時的に蓄えておくものである。
 制御部106は、例えばCPU、RAMおよびROMなどから構成されている。ROMには、CPUにより読み込まれ動作されるプログラムなどが記憶されている。RAMは、CPUのワークメモリとして用いられる。CPUは、ROMに記憶されたプログラムに従い様々な処理を実行してコマンドの発行を行うことによって撮像装置100全体の制御を行う。また、制御部17は所定のプログラムを実行することにより、画像処理装置10を構成する領域設定部11、画像解析部12、基準色決定部13、画像処理部14、表示制御部15として機能する。
 第2の実施の形態において、入力画像として画像処理装置10により処理される画像は撮像部101により取得された画像である。表示制御部15は、撮像部101により取得された画像を表示部107においてスルー画として表示させ、さらに、画像処理が行われた際は処理が施された画像をスルー画として表示部107に表示される。画像処理装置10のその他の機能は第1の実施の形態と同様である。
 表示部107は、例えば、LCD(Liquid Crystal Display)、PDP(Plasma Display Panel)、有機EL(Electro Luminescence)パネルなどにより構成された表示手段である。表示部107は、表示制御部15の制御のもと、撮像中のスルー画、記憶媒体110に記録された画像などを表示する。
 入力部108は、例えば、電源オン/オフ切り替えのための電源ボタン、撮像画像の記録の開始を指示するためのレリーズボタン、ズーム調整用の操作子、表示部107と一体に構成されたタッチスクリーンなどからなる。入力部108に対して入力がなされると、その入力に応じた制御信号が生成されて制御部106に出力される。そして、制御部106はその制御信号に対応した演算処理や制御を行う。
 なお、撮像装置100が表示部107と入力部108とが一体に構成されたタッチパネルである場合、そのタッチパネルに数回タッチするのみで画像に処理を施すことができるので、ユーザは、直感的にパートカラーなどの処理が施された画像を作成することができる。
 R/W109には、撮像により生成された画像データなどを記録する記録媒体が接続されるインターフェースである。R/W109は、制御部106から供給されたデータを記憶媒体110に書き込み、また、記憶媒体110から読み出したデータを制御部106に出力する。記憶媒体110は、例えば、ハードディスク、メモリースティック(ソニー株式会社の登録商標)、SDメモリーカードなどの大容量記憶媒体である。画像は例えばJPEGなどの規格に基づいて圧縮された状態で保存される。また、保存された画像に関する情報、撮像日時などの付加情報を含むEXIF(Exchangeable Image File Format)データもその画像に対応付けられて保存される。
 なお、画像処理装置の機能は、撮像装置100にあらかじめ設けられていてもよい。また、画像処理装置がアプリケーションとして提供され、撮像装置100にそのアプリケーションがインストールされることにより、撮像装置100が画像処理装置の機能を有するようにしてもよい。
[2−2.撮像装置における処理]
 次に本技術の第2の実施の形態における処理について説明する。第2の実施の形態は、処理が施された画像を撮像装置100の表示部107においてスルー画として表示させる。
 図12は第2の実施の形態における処理の流れを示すフローチャートである。なお、ステップS101、ステップS104乃至ステップS107、ステップS109は第1の実施の形態と同様であるため、説明は省略する。
 ステップS101における画像処理モード設定後、ステップS201で撮像部101により画像の取得が開始される。撮像部101により得られた画像は、前処理回路103などにおいて所定の処理が施されて、ステップS202で表示制御部15の制御のもと表示部107においてスルー画として表示される。なお、画像処理モードの設定はスルー画が表示部107に表示されて後でもよい。
 なお、ステップS104における解析領域の設定のためのユーザによる位置の指定は、表示部107に表示されているスルー画に対して行われる。
 ステップS107で、解析領域内の画素において、基準色領域外の画素数が閾値以下ではないと判定された場合、処理はステップS203に進み、表示部107においてスルー画が拡大表示される。拡大表示に態様は、第1の実施の形態において図9を参照して説明したものと同様である。
 一方、ステップS107で、解析領域内の画素において、基準色領域外の画素数が閾値以下ではないと判定された場合、処理はステップS109に進み、画像処理部14によりスルー画を構成する画像に対して画像処理が施される。画像処理の内容は第1の実施の形態と同様である。そして、ステップS109で画像処理部14により処理が施された画像が、ステップS204においてスルー画として表示部107に表示される。
 そして、ユーザによりシャッタ操作が行われた場合には、画像処理部14により処理が施された画像を撮影済みの画像としてキャプチャーされる。これにより、ユーザは、画像処理が施され、パートカラーなどの状態で表示されているスルー画を見ながら、撮像装置100による撮像を行い、処理が施された画像を撮像により取得することができる。
<3.第3の実施の形態>
[3−1.画像処理装置および画像処理装置の機能を備える撮像装置の構成]
 次に本技術の第3の実施の形態について説明する。図13は、第3の実施の形態に係る画像処理装置30の構成を示すブロック図である。第3の実施の形態は撮像部31、フォーカス制御部32、露出制御部33を備える点で第1の実施の形態と異なる。撮像部101、フォーカス制御部32、露出制御部33以外の構成は第1の実施の形態と同様であるため、説明を省略する。
 撮像部31は、撮像素子および光学撮像系とから構成されている。光学撮像系は被写体からの光を撮像素子に集光するためのレンズ、レンズを移動させてフォーカス合わせやズーミングを行うための駆動機構、シャッタ機構、アイリス機構、などから構成されている。光学撮像系を介して得られた被写体の光画像は、撮像デバイスとしての撮像素子上に結像される。撮像素子は、被写体からの入射光を光電変換して電荷量に変換し、画像信号として出力する。撮像部31は、第2の実施の形態において説明した撮像装置100における撮像部101と同様のものである。
 フォーカス制御部32は、領域設定部11、画像処理部14および撮像部31に接続されている。フォーカス制御部32には、領域設定部11で設定された画像中の解析領域を示す解析領域情報と、画像処理部14で画像処理を行った領域の情報が供給される。フォーカス制御部32はそれらの情報に基づいて、撮像部31に対して制御信号を供給することにより、撮像部31におけるフォーカス制御を行う。
 具体的には、領域設定部11により設定された画像中の解析領域および/または画像処理部14により画像処理が行われた領域にフォーカスを合わせるように撮像部31を制御する。これは、解析領域はユーザが指定した位置に基づくもので領域であるため、ユーザが注目している領域、またはユーザが画像を見る者に注目して欲しい領域であると考えられるため、そこにフォーカスを合わせるのが適切だと考えられるからである。また、画像処理がなされる領域は、パートカラーによって画像において目立つ領域となるため、そこにフォーカスを合わせるのが適切だと考えられるからである。なお、解析領域をAとし、画像処理部14により画像処理が行われた領域をBとすると、フォーカスを合わせる領域は、A∪Bとしてもいいし、Aのみ、Bのみとしてもよい。
 露出制御部33は、領域設定部11、画像処理部14および撮像部31に接続されている。露出制御部33には、領域設定部11で設定された画像中の解析領域を示す解析領域情報と、画像処理部14で画像処理を行った領域を示す処理領域情報が供給される。露出制御部33はそれらの情報に基づいて、撮像部101に対して制御信号を供給することにより、撮像部31におけるシャッタスピード、F値(絞り値)などを調整して露出制御を行う。
 具体的には、領域設定部11により設定された画像中の解析領域および/または画像処理部14により画像処理が行われた領域に露出を合わせるように撮像部31を制御する。これは、解析領域はユーザが指定した位置に基づくもので領域であるため、ユーザが注目している領域、またはユーザが画像を見る者に注目して欲しい領域であると考えられるため、そこに露出を合わせるのが適切だと考えられるからである。また、画像処理がなされる領域は、パートカラーによって画像において目立つ領域となるため、そこに露出を合わせるのが適切だと考えられるからである。なお、解析領域をCとし、画像処理部14により画像処理が行われた領域をDとすると、露出を合わせる領域は、C∪Dとしてもいいし、Cのみ、Dのみとしてもよい。
 図14は、第3の実施の形態に係る画像処理装置の機能を備える撮像装置300の構成を示すブロック図である。フォーカス制御部32と露出制御部33以外の構成は第1の実施の形態と同様であるため、説明を省略する。制御部106は所定のプログラム実行することにより、フォーカス制御部32、露出制御部33としても機能する。
[3−2.撮像装置における処理]
 次に、図15のフローチャートを参照して、第3の実施の形態に係る画像処理装置による処理について説明する。なお、ステップS301以外は第2の実施の形態と同様であるためその説明を省略する。
 ステップS104で解析領域が設定されると、解析領域を示す情報は画像解析部12に加え、フォーカス制御部32、露出制御部33にも供給される。ステップS109で画像処理部14により画像処理が施されると、処理が施された画像中の領域を示す情報がフォーカス制御部32および露出制御部33に供給される。そして、処理はステップS301に進む。
 ステップS301で、フォーカス制御部32は解析領域情報と、処理領域情報とに基づいて、撮像部31におけるフォーカスの制御を行う。また、露出制御部33は、解析領域情報と、処理領域情報とに基づいて、撮像部31における露出の制御を行う。なお、ステップS301におけるフォーカス制御と露出制御は、必ずしも両方行う必要があるものではなく、いずれか一方のみを行うようにしてもよい。
 そして、フォーカス制御および/または露出制御がなされた状態で撮像部31により生成された画像が、ステップS204で、表示制御部15の制御によりスルー画として表示部107に表示される。この状態でユーザによりシャッタ操作が行われた場合には、フォーカス制御および/または露出制御がなされた撮像部31によりキャプチャーされ、画像処理部14により処理が施された画像が撮像済画像として得られる。
 第3の実施の形態によれば、ユーザが解析領域として指定した領域、または画像処理が施された領域に自動的にフォーマットおよび/または露出を合わせることができる。解析領域、画像処理が施された領域はユーザが注目している領域、またはユーザが注目して欲しい領域である可能性が高いため、その領域にフォーカス、露出を合わせることで、より注目度の高い領域が鮮明に写し出された画像を得ることができる。
<4.変形例>
 以上、本技術の実施の形態について具体的に説明したが、本技術は上述の実施形態に限定されるものではなく、本技術の技術的思想に基づく各種の変形が可能である。なお、本技術は以下のような構成も取ることができる。
 (1)ユーザからの入力に応じて画像中に解析領域を設定する領域設定部と、
 前記解析領域の色情報を取得する解析部と、
 該解析部により取得された前記色情報から画像処理の基準となる基準色を決定する基準色決定部と、
 前記基準色に基づいて、前記画像に処理を施す画像処理部と
を備える画像処理装置。
 (2)前記画像処理部は、前記画像中における前記基準色以外の色に対して処理を施す
前記(1)に記載の画像処理装置。
 (3)前記画像処理部は、前記画像中における前記基準色以外の色をモノクロにする処理を施す
前記(2)に記載の画像処理装置。
 (4)前記画像処理部は、前記画像中における前記基準色に対して処理を施す
前記(1)から(3)のいずれかに記載の画像処理装置。
 (5)前記画像処理部は、前記画像中における前記基準色をモノクロにする処理を施す
前記(4)に記載の画像処理装置。
 (6)前記領域設定部は、前記ユーザの入力により指定された前記画像中の位置を基準とした円形の領域として前記解析領域を設定する
前記(1)から(5)のいずれかに記載の画像処理装置。
 (7)前記領域設定部は、前記ユーザの入力により指定された前記画像中の位置を基準とした矩形の領域として前記解析領域を設定する
前記(1)から(6)のいずれかに記載の画像処理装置。
 (8)前記領域設定部は、前記ユーザの入力により指定された任意の形状の領域として前記解析領域を設定する
前記(1)から(7)のいずれかに記載の画像処理装置。
 (9)設定された前記解析領域を、前記画像を表示する表示部に表示する制御を行う表示制御部をさらに備える
前記(1)から(8)のいずれかに記載の画像処理装置。
 (10)ユーザからの入力に応じて画像中に解析領域を設定し、
 前記解析領域の色情報を取得し、
 取得された前記色情報から画像処理の基準となる基準色を決定し、
 前記基準色に基づいて、前記画像に処理を施す
画像処理方法。
 (11)ユーザからの入力に応じて画像中に解析領域を設定し、
 前記解析領域の色情報を取得し、
 取得された前記色情報から画像処理の基準となる基準色を決定し、
 前記基準色に基づいて、前記画像に処理を施す
画像処理方法をコンピュータに実行させる画像処理プログラム。
 (12)光学系を介した光を受光して画像を生成する撮像部と、
 ユーザからの入力に応じて、前記撮像部により生成された画像中に解析領域を設定する領域設定部と、
 前記解析領域の色情報を取得する解析部と、
 該解析部により取得された前記色情報から画像処理の基準となる基準色を決定する基準色決定部と、
 前記基準色に基づいて、前記画像に処理を施す画像処理部と
を備える撮像装置。
 (13)前記撮像部におけるフォーカス制御を行うフォーカス制御部をさらに備える
前記(12)に記載の撮像装置。
 (14)前記フォーカス制御部は、前記解析領域にフォーカスが合うように前記撮像部におけるフォーカス制御を行う
前記(13)に記載の撮像装置。
 (15)前記撮像部における露出制御を行う露出制御部
をさらに備える
前記(12)から(14)のいずれかに記載の撮像装置。
 (16)前記露出制御部は、前記解析領域に露出が合うように前記撮像部における露出制御を行う
前記(15)に記載の撮像装置。
 (17)設定された前記解析領域を、前記画像を表示する表示部に表示する制御を行う表示制御部をさらに備える
前記(12)に記載の撮像装置。
10、30・・・・・画像処理装置
11・・・・・・・・領域設定部
12・・・・・・・・画像解析部
13・・・・・・・・基準色決定部
14・・・・・・・・画像処理部
100、300・・・撮像装置
31・・・・・・・・撮像部
32・・・・・・・・フォーカス制御部
33・・・・・・・・露出制御部

Claims (17)

  1.  ユーザからの入力に応じて画像中に解析領域を設定する領域設定部と、
     前記解析領域の色情報を取得する解析部と、
     該解析部により取得された前記色情報から画像処理の基準となる基準色を決定する基準色決定部と、
     前記基準色に基づいて、前記画像に処理を施す画像処理部と
    を備える画像処理装置。
  2.  前記画像処理部は、前記画像中における前記基準色以外の色に対して処理を施す
    請求項1に記載の画像処理装置。
  3.  前記画像処理部は、前記画像中における前記基準色以外の色をモノクロにする処理を施す
    請求項2に記載の画像処理装置。
  4.  前記画像処理部は、前記画像中における前記基準色に対して処理を施す
    請求項1に記載の画像処理装置。
  5.  前記画像処理部は、前記画像中における前記基準色をモノクロにする処理を施す
    請求項4に記載の画像処理装置。
  6.  前記領域設定部は、前記ユーザの入力により指定された前記画像中の位置を基準とした円形の領域として前記解析領域を設定する
    請求項1に記載の画像処理装置。
  7.  前記領域設定部は、前記ユーザの入力により指定された前記画像中の位置を基準とした矩形の領域として前記解析領域を設定する
    請求項1に記載の画像処理装置。
  8.  前記領域設定部は、前記ユーザの入力により指定された任意の形状の領域として前記解析領域を設定する
    請求項1に記載の画像処理装置。
  9.  設定された前記解析領域を、前記画像を表示する表示部に表示する制御を行う表示制御部をさらに備える
    請求項1に記載の画像処理装置。
  10.  ユーザからの入力に応じて画像中に解析領域を設定し、
     前記解析領域の色情報を取得し、
     取得された前記色情報から画像処理の基準となる基準色を決定し、
     前記基準色に基づいて、前記画像に処理を施す
    画像処理方法。
  11.  ユーザからの入力に応じて画像中に解析領域を設定し、
     前記解析領域の色情報を取得し、
     取得された前記色情報から画像処理の基準となる基準色を決定し、
     前記基準色に基づいて、前記画像に処理を施す
    画像処理方法をコンピュータに実行させる画像処理プログラム。
  12.  光学系を介した光を受光して画像を生成する撮像部と、
     ユーザからの入力に応じて、前記撮像部により生成された画像中に解析領域を設定する領域設定部と、
     前記解析領域の色情報を取得する解析部と、
     該解析部により取得された前記色情報から画像処理の基準となる基準色を決定する基準色決定部と、
     前記基準色に基づいて、前記画像に処理を施す画像処理部と
    を備える撮像装置。
  13.  前記撮像部におけるフォーカス制御を行うフォーカス制御部
    をさらに備える
    請求項12に記載の撮像装置。
  14.  前記フォーカス制御部は、前記解析領域にフォーカスが合うように前記撮像部におけるフォーカス制御を行う
    請求項13に記載の撮像装置。
  15.  前記撮像部における露出制御を行う露出制御部
    をさらに備える
    請求項12に記載の撮像装置。
  16.  前記露出制御部は、前記解析領域に露出が合うように前記撮像部における露出制御を行う
    請求項15に記載の撮像装置。
  17.  設定された前記解析領域を、前記画像を表示する表示部に表示する制御を行う表示制御部をさらに備える
    請求項12に記載の撮像装置。
PCT/JP2013/063876 2012-05-28 2013-05-14 画像処理装置、画像処理方法、画像処理プログラムおよび撮像装置 WO2013179923A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2012121152 2012-05-28
JP2012-121152 2012-05-28

Publications (1)

Publication Number Publication Date
WO2013179923A1 true WO2013179923A1 (ja) 2013-12-05

Family

ID=49673125

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2013/063876 WO2013179923A1 (ja) 2012-05-28 2013-05-14 画像処理装置、画像処理方法、画像処理プログラムおよび撮像装置

Country Status (1)

Country Link
WO (1) WO2013179923A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020112618A (ja) * 2019-01-09 2020-07-27 株式会社Jvcケンウッド 表示制御装置、表示装置、表示制御方法及びプログラム

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0263095A (ja) * 1988-08-30 1990-03-02 Fujitsu Ltd 映像表示方式
JPH07274190A (ja) * 1994-02-14 1995-10-20 Clarion Co Ltd 映像信号処理装置
JP2001128044A (ja) * 1999-10-26 2001-05-11 Minolta Co Ltd デジタルカメラ、再生画像表示装置、及び画像データのファイリング方法
JP2001282223A (ja) * 2000-03-30 2001-10-12 Hitachi Software Eng Co Ltd 図形表示方法及び図形表示装置
JP2004007370A (ja) * 2001-12-07 2004-01-08 Ricoh Co Ltd 画像処理装置、画像処理方法、およびコンピュータが実行するためのプログラム
JP2009015117A (ja) * 2007-07-06 2009-01-22 Nikon Corp 焦点調節装置および撮像装置
WO2009050798A1 (ja) * 2007-10-17 2009-04-23 Mitsubishi Electric Corporation 画像処理装置

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0263095A (ja) * 1988-08-30 1990-03-02 Fujitsu Ltd 映像表示方式
JPH07274190A (ja) * 1994-02-14 1995-10-20 Clarion Co Ltd 映像信号処理装置
JP2001128044A (ja) * 1999-10-26 2001-05-11 Minolta Co Ltd デジタルカメラ、再生画像表示装置、及び画像データのファイリング方法
JP2001282223A (ja) * 2000-03-30 2001-10-12 Hitachi Software Eng Co Ltd 図形表示方法及び図形表示装置
JP2004007370A (ja) * 2001-12-07 2004-01-08 Ricoh Co Ltd 画像処理装置、画像処理方法、およびコンピュータが実行するためのプログラム
JP2009015117A (ja) * 2007-07-06 2009-01-22 Nikon Corp 焦点調節装置および撮像装置
WO2009050798A1 (ja) * 2007-10-17 2009-04-23 Mitsubishi Electric Corporation 画像処理装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020112618A (ja) * 2019-01-09 2020-07-27 株式会社Jvcケンウッド 表示制御装置、表示装置、表示制御方法及びプログラム
JP7279365B2 (ja) 2019-01-09 2023-05-23 株式会社Jvcケンウッド 表示制御装置、表示装置、表示制御方法及びプログラム

Similar Documents

Publication Publication Date Title
US20120105590A1 (en) Electronic equipment
JP5752866B2 (ja) 画像処理装置、撮像装置、画像処理方法及びプログラム並びに記録媒体
US10095941B2 (en) Vision recognition apparatus and method
CN104159021A (zh) 成像设备、成像方法和程序
US20100329552A1 (en) Method and apparatus for guiding user with suitable composition, and digital photographing apparatus
JP6096382B2 (ja) 画像処理装置、撮像装置、画像処理方法及びプログラム
JP2013106284A (ja) 光源推定装置、光源推定方法、光源推定プログラムおよび撮像装置
JP2010021921A (ja) 電子カメラおよび画像処理プログラム
JP5749406B2 (ja) 画像処理装置、撮像装置、コンピュータ、画像処理方法及びプログラム
US8334919B2 (en) Apparatus and method for digital photographing to correct subject area distortion caused by a lens
US9363435B2 (en) Apparatus and method of determining how to perform low-pass filter processing as a reduction association processing when moire is suppressed in a captured image represented by image capture data according to an array of color filters and when the moire appears in the reduced image after processing the reduction processing on the image pickup data, on the basis of an acquisition result of the shooting condition data
JP2009290819A (ja) 撮影装置、撮影制御プログラム、並びに画像再生装置、画像再生プログラム
US9691362B2 (en) Display control apparatus, display control method, and recording medium displaying frames indicating portions of an image
JPWO2018235382A1 (ja) 撮像装置、撮像装置の制御方法、及び撮像装置の制御プログラム
JP4609315B2 (ja) 撮像装置、ズーム時の画角枠表示方法、およびプログラム
US8537266B2 (en) Apparatus for processing digital image and method of controlling the same
US8260083B2 (en) Image processing method and apparatus, and digital photographing apparatus using the same
JP6099973B2 (ja) 被写体領域追跡装置、その制御方法及びプログラム
WO2013179923A1 (ja) 画像処理装置、画像処理方法、画像処理プログラムおよび撮像装置
JP2013225779A (ja) 画像処理装置、撮像装置および画像処理プログラム
JP2006211321A (ja) 撮像装置、画像効果付与方法および画像効果付与プログラム
JP2009296172A (ja) 画像処理装置、撮像装置、画像処理装置の制御方法、撮像装置の制御方法、プログラム及び記録媒体
JP5880221B2 (ja) 撮像装置、撮像方法、及び画像処理装置
CN112640430A (zh) 成像元件、摄像装置、图像数据处理方法及程序
JP5448799B2 (ja) 表示制御装置及び表示制御方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13797868

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 13797868

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP