JP2013098925A - Image processing apparatus, image processing method and program - Google Patents

Image processing apparatus, image processing method and program Download PDF

Info

Publication number
JP2013098925A
JP2013098925A JP2011242576A JP2011242576A JP2013098925A JP 2013098925 A JP2013098925 A JP 2013098925A JP 2011242576 A JP2011242576 A JP 2011242576A JP 2011242576 A JP2011242576 A JP 2011242576A JP 2013098925 A JP2013098925 A JP 2013098925A
Authority
JP
Japan
Prior art keywords
image
blurred
painting
converted
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011242576A
Other languages
Japanese (ja)
Other versions
JP5896204B2 (en
Inventor
Kazunori Kita
一記 喜多
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2011242576A priority Critical patent/JP5896204B2/en
Publication of JP2013098925A publication Critical patent/JP2013098925A/en
Application granted granted Critical
Publication of JP5896204B2 publication Critical patent/JP5896204B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Editing Of Facsimile Originals (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To enable generation of an image with adequate reality as a photographed image and atmosphere as a painting when converting a photographed image into a painterly image.SOLUTION: A photographed image which is original image data G1 is subjected to painting conversion and generates first painterly image data G2. Monochrome image data G3 is generated from original image data G1 to generate a background blurred image G4 in which a background area other than a face region detected by face detection is blurred. From the background blurred image G4, a translucent image such as α mixed data G5 in which transmittance according to luminance of each pixel is set for each pixel is generated, and second painterly image data G6 is generated by subjecting a translucent image and first painterly image data G2 to transmission synthesis so that image data in which collapse of detail is inconspicuous and appearance degree of useless brush line or color tone is decreased compared to the first painterly image data is obtained.

Description

本発明は、例えば写真撮影により得られた撮影画像を、絵画調等の視覚的特徴を備えた画像に変換するための画像処理技術に関するものである。   The present invention relates to an image processing technique for converting, for example, a photographed image obtained by taking a photograph into an image having a visual feature such as a painting style.

従来、例えば下記特許文献1には、写真撮影により得られた撮影画像を絵画調(油絵調や水彩画調等)の画像に変換する際、顔認識技術を用いて撮影画像内に存在する人物の種別(年齢、性別、人種等)を特定し、前記撮影画像を、特定した人物の種別に対応付けられている種類の絵画調を備えた画像に変換する(絵画変換する)画像処理技術が開示されている。   Conventionally, for example, in Patent Document 1 below, when a photographed image obtained by photography is converted into a picture-like (oil-like, watercolor-like, etc.) image, a person who is present in the photographed image using face recognition technology is disclosed. An image processing technique for specifying a type (age, gender, race, etc.) and converting the photographed image into an image having a painting style of a type associated with the specified type of person (conversion to painting). It is disclosed.

特開2011−139329号公報JP2011-139329A

しかしながら、上記の画像処理技術では、人物の種別に応じて画調を変えたとしても、景色や建物等は比較的美しく変換されるが、画像内の細部、特に人物部分は不自然になってしまうことがある。すなわち絵画変換を行うと、人物の顔部分につぶれが生じたり、無用な刷毛目や色調が現れたりして細部のリアリティが失われる。言い換えると絵画的にデフォルメされ過ぎるという課題があった。   However, in the above image processing technology, even if the image tone is changed according to the type of person, the scenery, buildings, etc. are converted relatively beautifully, but the details in the image, especially the person part, become unnatural. May end up. In other words, when picture conversion is performed, the face portion of a person is crushed, and unnecessary brush eyes and colors appear, resulting in loss of detail reality. In other words, there was a problem that it was too deformed like a painting.

本発明は、撮影画像を絵画調画像に変換する場合、撮影画像としての適度なリアリティと絵画としての趣との双方を備えた画像の生成を可能とすることを目的とする。   An object of the present invention is to make it possible to generate an image having both an appropriate reality as a photographed image and a taste as a painting when the photographed image is converted into a picture-like image.

前記課題を解決するため、本発明においては、撮影画像を、人工的な特徴を備えた第1の変換画像に変換する変換手段と、前記撮影画像の被写体にぼけを生じさせた合成用のぼけ画像を生成するぼけ画像生成手段と、前記ぼけ画像生成手段により生成された前記ぼけ画像を所定の透過率で前記変換手段による変換後の第1の変換画像に透過合成することにより第2の変換画像を生成する透過合成手段とを備えたことを特徴とする。   In order to solve the above-described problem, in the present invention, a conversion unit that converts a captured image into a first converted image having an artificial feature, and a blur for synthesis that causes a blur in the subject of the captured image. A blurred image generating means for generating an image, and a second conversion by transparently synthesizing the blurred image generated by the blurred image generating means with a first converted image converted by the converting means at a predetermined transmittance. And a transmission composition unit for generating an image.

本発明によれば、撮影画像を絵画調画像に変換する場合、撮影画像としての適度なリアリティと絵画としての趣との双方を備えた画像の生成が可能となる。   According to the present invention, when a captured image is converted into a painting-like image, an image having both an appropriate reality as a captured image and a taste as a painting can be generated.

画像サービスサイトを含むネットワークを示すブロック図である。It is a block diagram which shows the network containing an image service site. 画像サービスサイトを実現するサーバーの概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the server which implement | achieves an image service site. ぼかし強度テーブルを示す概念図である。It is a conceptual diagram which shows a blur intensity | strength table. サーバーの制御部による画像変換処理を示すフローチャートである。It is a flowchart which shows the image conversion process by the control part of a server. 画像変換処理の要部を示す説明図である。It is explanatory drawing which shows the principal part of an image conversion process. 人物の顔が存在する元画像と、第1の絵画調画像の例を示す図である。It is a figure which shows the example of the original image in which a person's face exists, and a 1st painting style image. 図6に対応する背景ぼけ画像と、第2の絵画調画像の例を示す図である。It is a figure which shows the example of a background blurred image corresponding to FIG. 6, and a 2nd painting style image.

以下、本発明の実施形態について説明する。図1は、SNS機能を持った画像サービスサイト10を含むネットワークを示すブロック図である。画像サービスサイト10は、ユーザーからアップロードされた画像データ(主としてデジタルカメラにより撮影された写真の画像データ)の保存や、アップロードされた画像データの絵画調画像への変換、アップロードされた画像や、変換後の絵画調画像の閲覧、ダウンロード等のサービスを行うサイトである。   Hereinafter, embodiments of the present invention will be described. FIG. 1 is a block diagram showing a network including an image service site 10 having an SNS function. The image service site 10 stores image data uploaded by the user (mainly image data of a photograph taken by a digital camera), converts the uploaded image data into a painting-like image, uploads an image, and converts It is a site that provides services such as browsing and downloading of later painting-like images.

画像サービスサイト10には、インターネット500を介して、任意のユーザーが使用する複数の端末1−1、1−2、1−3・・・が接続される。端末1−1、1−2、1−3・・・は、通信機能、及び画像データにより表される画像の表示機能を備えた任意の装置であり、例えば通常のパーソナルコンピュータや、スマートフォンを含む携帯電話端末である。   A plurality of terminals 1-1, 1-2, 1-3... Used by an arbitrary user are connected to the image service site 10 via the Internet 500. The terminals 1-1, 1-2, 1-3... Are arbitrary devices having a communication function and a function for displaying an image represented by image data, and include, for example, ordinary personal computers and smartphones. It is a mobile phone terminal.

図2は、画像サービスサイト10を実現するとともに本発明が適用されたサーバー11の概略構成を示すブロック図である。サーバー11は、主として制御部12と、通信処理部13、表示用バッファ14、管理データ記憶部15、絵画変換部16、画像記憶部17、プログラム記憶部18から構成される。   FIG. 2 is a block diagram showing a schematic configuration of the server 11 that realizes the image service site 10 and to which the present invention is applied. The server 11 mainly includes a control unit 12, a communication processing unit 13, a display buffer 14, a management data storage unit 15, a picture conversion unit 16, an image storage unit 17, and a program storage unit 18.

通信処理部13は、TCP/IP(Transmission Control Protocol/Internet Protocol)に基づいてサーバー11と端末1−1、1−2、1−3・・・との間における、画像データを含む各種のデータの送受信を制御する。   The communication processing unit 13 is a variety of data including image data between the server 11 and the terminals 1-1, 1-2, 1-3... Based on TCP / IP (Transmission Control Protocol / Internet Protocol). Controls sending and receiving.

管理データ記憶部15は、画像サービスサイト10を利用するユーザー(以下、単にユーザーという。)に関する種々の情報や、それらのユーザーによってアップロードされた画像データ等からなる各種の管理データを記憶する。管理データ記憶部15は、例えばハードディスク装置により構成される。   The management data storage unit 15 stores various types of management data including various information related to users who use the image service site 10 (hereinafter simply referred to as users), image data uploaded by the users, and the like. The management data storage unit 15 is configured by, for example, a hard disk device.

絵画変換部16は、ユーザーからアップロードされた画像データや、画像記憶部17に記憶されている画像データを絵画調画像の画像データ(以下、絵画調画像データという。)に変換する絵画変換処理を行うための画像処理回路、及びメモリ等から構成される。   The picture conversion unit 16 performs a picture conversion process for converting image data uploaded from a user or image data stored in the image storage unit 17 into image data of a picture image (hereinafter referred to as picture image data). It comprises an image processing circuit for performing, a memory and the like.

ここで、絵画変換処理とは、写真等の画像を構成する各画素を所定のパラメータ(絵画変換パラメータ)に従って変換し、(a)油絵調、(b)水彩画調、(c)パステル調、(d)色鉛筆画調、(e)クレヨン画調、(f)イラスト画調、(g)点描画調、(h)エアブラシ、(i)シルクスクリーン調、(i)刺繍絵調、(k)コラージュ(糊付け)調、HDR(High Dynamic Range)等、いわゆる絵画調に変換する画像処理である。   Here, the painting conversion processing means that each pixel constituting an image such as a photograph is converted according to a predetermined parameter (painting conversion parameter), and (a) oil painting tone, (b) watercolor painting tone, (c) pastel tone, ( d) Color pencil style, (e) Crayon style, (f) Illustration style, (g) Point drawing style, (h) Airbrush, (i) Silk screen style, (i) Embroidery style, (k) Collage This is image processing for conversion to a so-called painting tone, such as (gluing) tone or HDR (High Dynamic Range).

なお、HDRは、通常の写真では表現できない広いダイナミックレンジの写真を、トーンマッピングにより狭いダイナミックレンジ幅内に入れ込むことで露出過多の白飛びや露出不足の黒つぶれを補正して表現力を増大した画像である。つまりHDRは、撮影画像(写真)を人の脳が受けた記憶や印象に近づけた画像である。   HDR enhances expressive power by correcting overexposures and underexposures by inserting a wide dynamic range photo that cannot be expressed with normal photos within a narrow dynamic range by tone mapping. It is an image. That is, HDR is an image obtained by approximating a captured image (photograph) to a memory or impression received by a human brain.

絵画変換処理は、原理的にはエフェクト処理の一種であり、基本的にはフォトレタッチソフト等で知られている各種エフェクト処理のパラメータを調整・組み合わせて絵画調に見えるように変換するプログラムが組んであるものである。   Painting conversion processing is a kind of effect processing in principle, and basically there is a program that converts and combines various effect processing parameters known for photo retouching software to make it look like a painting. It is what is.

エフェクト処理としては、例えば以下のような処理がある。
(a)解像度処理・・・画像にテクスチャをマッピングし、特殊な質感を与えるテクスチャ処理、画像を輪郭部・細かい模様などのテクスチャ部・平坦部に分類し、それぞれに適宜処理を施すことで、質感と解像感を高める。
(b)HSV処理・・・色を色相(Hue)、彩度(Saturation)、明度(Value)の3要素に分類して調整する。
(c)RGB処理・・・画像のR(赤)G(緑)B(青)各色の度合いを調整する。
(d)RGB交換処理・・・画像のR(赤)G(緑)B(青)各色の値をR→G→Bの方向に交換する。
(e)エッジ抽出処理・・・ラプラシアンフィルタと呼ばれるフィルタをかけてエッジを抽出する。
(f)中間濃度抽出処理・・・メディアンフィルタと呼ばれるフィルタをかけて中間濃度を抽出する。
(g)濃度抽出処理・・・隣接する画素のRGBのヒストグラムを抽出し、それぞれ最小/中間/最大の濃度を抽出した場合の処理を行う。
(h)イコライズ処理・・・画像の一番暗い部分を黒、一番明るい部分を白とし、間のヒストグラムを適宜分布させ、コントラスト修正を行ったり、画像のヒストグラムを引き伸ばしたりする。
(i)ガンマ補正処理・・・明るい部分と暗い部分を維持して中間的な明るさを調節する。
(j)シャドー処理・・・画像の暗い領域を明るくしたり、明るい領域を暗くしたりする。
(k)ソラリゼーション処理・・・各ピクセルのRGB値が、しきい値以上の明るさの時に、そのRGB値を反転する
(l)ノイズ付加処理・・・ランダムにドットを描画し、ノイズを発生させ、ノイズの量や色を調整する。
Examples of the effect processing include the following processing.
(A) Resolution processing: Texture processing for mapping texture to an image, giving a special texture, classifying an image into a texture portion / flat portion such as a contour portion / fine pattern, and appropriately processing each, Increase texture and resolution.
(B) HSV processing: Color is classified and adjusted into three elements of hue, saturation, and value.
(C) RGB processing: Adjusts the degree of each color of R (red), G (green), and B (blue) of an image.
(D) RGB exchange processing: R (red), G (green), and B (blue) values of each color of the image are exchanged in the direction of R → G → B.
(E) Edge extraction process: Edges are extracted by applying a filter called a Laplacian filter.
(F) Intermediate density extraction process: An intermediate density is extracted by applying a filter called a median filter.
(G) Density extraction processing: Extracts RGB histograms of adjacent pixels, and performs processing when the minimum / intermediate / maximum densities are extracted.
(H) Equalization processing: The darkest part of the image is black and the brightest part is white, and the histogram between them is distributed as appropriate, and the contrast is corrected or the histogram of the image is stretched.
(I) Gamma correction processing: An intermediate brightness is adjusted while maintaining a bright portion and a dark portion.
(J) Shadow processing: Brighten a dark area of an image or darken a bright area.
(K) Solarization processing: When the RGB value of each pixel is higher than the threshold value, the RGB value is inverted. (L) Noise addition processing: Randomly draw dots and generate noise Adjust the amount and color of noise.

画像記憶部17は、ユーザーからアップロードされた画像データや、前述した絵画調画像データを記憶する。画像記憶部17は、例えば大容量のハードディスク装置によって構成される画像データベースである。   The image storage unit 17 stores the image data uploaded from the user and the above-described picture-like image data. The image storage unit 17 is an image database configured by a large-capacity hard disk device, for example.

表示用バッファ14は、サーバー11が、画像記憶部17に記憶されている画像データ等をユーザーに閲覧させる際、閲覧用の1又は多数の画像データからなる表示用のデータを記憶するメモリである。   The display buffer 14 is a memory that stores display data including one or a plurality of image data for browsing when the server 11 allows the user to browse the image data or the like stored in the image storage unit 17. .

制御部12は、サーバー11の全体的な動作、すなわち画像サービスサイト10の運営に要する各種の動作を制御する。また、制御部12は、絵画変換部16と協同して後述するアート変換処理を行う。制御部12は、CPU及びその周辺回路や、作業用の外部メモリ、高機能のグラフィックアクセラレータ等から構成される。   The control unit 12 controls the overall operation of the server 11, that is, various operations required for the operation of the image service site 10. In addition, the control unit 12 performs art conversion processing described later in cooperation with the painting conversion unit 16. The control unit 12 includes a CPU and its peripheral circuits, a work external memory, a high-performance graphic accelerator, and the like.

プログラム記憶部18は、制御部12に上記の各種処理を行わせるためのプログラム、及び種々のデータを更新可能に記憶するハードディスク装置等の記憶装置である。プログラム記憶部18に記憶されている種々のデータには、図3に示したぼかし強度テーブル100を示すデータも含まれる。   The program storage unit 18 is a storage device such as a hard disk device that stores a program for causing the control unit 12 to perform the above-described various processes and various data in an updatable manner. The various data stored in the program storage unit 18 also includes data indicating the blur intensity table 100 shown in FIG.

ぼかし強度テーブル100は、制御部12が後述する画像変換処理を行う際に、処理対象の撮影画像から生成されるモノクロ画像に対するぼかし処理で使用されるデータであって、図3に示したように、絵画変換部16において変換可能な画調(油絵調、水彩画調、パステル調等)の種類に対応するぼかし強度を示すものである。   The blur intensity table 100 is data used in a blur process for a monochrome image generated from a captured image to be processed when the control unit 12 performs an image conversion process to be described later, as shown in FIG. The blur intensity corresponding to the type of painting tone (oil painting tone, watercolor painting tone, pastel tone, etc.) that can be converted by the painting conversion unit 16 is shown.

具体的なぼかし強度は経験則に基づいて予め決められたものであり、基本的には、任意の撮影画像である元画像を絵画調画像に変換したとき元画像の細部に生じる変化が小さな画調のぼかし強度に比べ、元画像の細部に生じる変化が大きな画調のぼかし強度が相対的に高くなっている。例えば油絵調と水彩画調とを比較すると、油絵調のぼかし強度が相対的に高めに調整されており、水彩画調のぼかし強度が相対的に低めに調整されている。   The specific blur intensity is predetermined based on empirical rules. Basically, when an original image, which is an arbitrary photographed image, is converted into a painting-like image, the change that occurs in the details of the original image is small. Compared with the tone blur strength, the blur strength of the image tone having a large change in the details of the original image is relatively high. For example, when comparing the oil painting tone and the watercolor painting tone, the blurring strength of the oil painting tone is adjusted to be relatively high, and the blurring strength of the watercolor painting tone is adjusted to be relatively low.

以下、サーバー11が、例えばユーザーによりアップロードされた画像や、画像記憶部17に記憶されている画像をユーザーの指示に従い絵画調画像へ変換する際の制御部12の動作について説明する。   Hereinafter, the operation of the control unit 12 when the server 11 converts, for example, an image uploaded by the user or an image stored in the image storage unit 17 into a painting-like image according to the user's instruction will be described.

サーバー11においては、絵画調画像へ変換すべき処理対象の画像(以下、元画像という。)がユーザーによって指定されると、制御部12が図4のフローチャートに示した画像変換処理を実行する。なお、図5は、画像変換処理の要部を示す説明図である。   In the server 11, when an image to be processed (hereinafter referred to as an original image) to be converted into a painting-like image is designated by the user, the control unit 12 executes the image conversion process shown in the flowchart of FIG. FIG. 5 is an explanatory diagram showing a main part of the image conversion process.

制御部12は、ユーザーによって元画像が指定されることにより処理を開始し、直ちに前処理を行う(ステップS1)。この前処理は、元画像に対して画素単位での画像処理を可能とするために、JPEG形式等の画像データをビットマップ形式の画像データに変換する処理である。   The control unit 12 starts processing by designating the original image by the user, and immediately performs preprocessing (step S1). This pre-processing is processing for converting image data in JPEG format or the like into image data in bitmap format in order to enable image processing in units of pixels with respect to the original image.

次に、制御部12は、ユーザーに、変換したい画調を選択させる(ステップS2)。ユーザーに選択させる画調としては、前述した油絵調、水彩画調、パステル調、色鉛筆画調、HDR等である。   Next, the control part 12 makes a user select the image tone to convert (step S2). The painting tone to be selected by the user is the oil painting tone, watercolor painting tone, pastel tone, color pencil painting tone, HDR, etc. described above.

次に、制御部12は、ステップS1の前処理で変換した元画像の画像データ(以下、元画像データという)を絵画変換部16へ送り、絵画変換部16に、ユーザーに選択された画調への絵画変換処理を行わせる(ステップS3)。   Next, the control unit 12 sends the image data of the original image (hereinafter referred to as original image data) converted in the pre-processing in step S1 to the painting conversion unit 16, and the painting conversion unit 16 sends the image tone selected by the user. A picture conversion process is performed (step S3).

すなわち、制御部12は、絵画変換部16に、選択された画調に応じた画調変換アルゴリズムによる絵画変換処理を行わせることによって、図5に示したように元画像データG1を第1の絵画調画像データG2に変換する。また、制御部12は、絵画変換部16により変換された第1の絵画調画像データG2を表示用バッファ14に確保されている作業領域に保存する。なお、以下の説明においては、ステップS3の処理による変換後の絵画調画像を第1の絵画調画像という。   That is, the control unit 12 causes the painting conversion unit 16 to perform the painting conversion process using the painting tone conversion algorithm corresponding to the selected painting tone, so that the original image data G1 is converted into the first image data G1 as shown in FIG. It is converted into painting-like image data G2. In addition, the control unit 12 stores the first painting-like image data G2 converted by the painting conversion unit 16 in a work area secured in the display buffer 14. In the following description, the picture-like image after conversion by the process in step S3 is referred to as a first picture-like image.

引き続き、制御部12は、絵画変換部16による絵画変換処理とは別に、図5に示したように元画像を対象として画像内に存在する任意の人物の顔を検出する顔検出処理を行う(ステップS4)。顔検出処理は、例えば二値化や輪郭抽出、パターンマッチング等の画像認識技術を用いて、一定範囲の位置関係にある目や鼻や口が存在する人物の顔に相当する特定領域(以下、顔領域という。)を探索する公知の技術を適用した処理である。   Subsequently, the control unit 12 performs face detection processing for detecting the face of an arbitrary person existing in the image as the target, as shown in FIG. 5, separately from the picture conversion processing by the picture conversion unit 16 ( Step S4). The face detection process uses a specific area corresponding to the face of a person who has eyes, nose, or mouth in a certain range of positional relationship using image recognition techniques such as binarization, contour extraction, and pattern matching. This process applies a known technique for searching for a face area.

また、ステップS4の顔検出処理で検出する顔領域は、頭髪部分を除く顔の輪郭によって囲まれる領域である。なお、顔検出処理に際して必要とするパターンデータ等の各種データはプログラム記憶部18に記憶されている。   The face area detected by the face detection process in step S4 is an area surrounded by the outline of the face excluding the hair portion. Various data such as pattern data necessary for the face detection process is stored in the program storage unit 18.

次に、制御部12は顔検出処理の結果に応じて以下の処理を実行する。まず、元画像において任意の人物の顔が検出できなかった場合(ステップS5:NO)、制御部12は、直ちに確認表示を行う(ステップS11)。   Next, the control unit 12 executes the following process according to the result of the face detection process. First, when an arbitrary person's face cannot be detected in the original image (step S5: NO), the control unit 12 immediately performs confirmation display (step S11).

ステップS11の処理は、表示用バッファ14の作業領域に記憶した、元画像データG1の変換後の画像データを確認用の画素数、例えば800×600画素にリサイズし、ユーザーの端末1へ送り、端末1の画面上に変換後の画像を表示させるための処理である。つまり人物の顔が検出できなかったときのステップS11の処理は、従来行われている一般的な絵画変換によって生成された絵画調画像をユーザーの端末1に画面表示に表示させる処理である。   In step S11, the converted image data of the original image data G1 stored in the work area of the display buffer 14 is resized to a confirmation pixel number, for example, 800 × 600 pixels, and sent to the user terminal 1. This is a process for displaying the converted image on the screen of the terminal 1. That is, the process of step S11 when the face of a person cannot be detected is a process of displaying a painting-like image generated by a general painting conversion performed conventionally on the user's terminal 1 on the screen display.

一方、ステップS4の顔検出処理で元画像において任意の人物の顔が検出できた場合(ステップS5:YES)、制御部12は以下の処理を行う。図6(a)は、顔検出処理において人物の顔が検出できた場合における元画像G1、図6(b)は、ステップS3の処理による絵画変換処理後の第1の絵画調画像G2の例を示した図である。なお、図6(a)、図6(b)の各画像には、便宜上、図5に示した対応する各画像データ(元画像データ、第1の絵画調画像データ)と同様の符号を付してある。また、これについては、後述する説明で参照する図7についても同様である。   On the other hand, when the face of an arbitrary person can be detected in the original image by the face detection process in step S4 (step S5: YES), the control unit 12 performs the following process. FIG. 6A shows an original image G1 when a human face can be detected in the face detection process, and FIG. 6B shows an example of a first painting-like image G2 after the picture conversion process by the process of step S3. FIG. For convenience, the images in FIGS. 6A and 6B are assigned the same reference numerals as the corresponding image data (original image data, first painting-like image data) shown in FIG. It is. This also applies to FIG. 7 referred to in the description to be described later.

人物の顔が検出できた場合、制御部12は、図5にも示したように、元画像データG1から輝度成分のみからなるモノクロ画像データG3を生成した後(ステップS6)、生成したモノクロ画像データG3に対するぼかし強度を決定する(ステップS7)。   When a human face can be detected, the control unit 12 generates monochrome image data G3 including only luminance components from the original image data G1, as shown in FIG. 5 (step S6), and then generates the generated monochrome image. The blur intensity for the data G3 is determined (step S7).

ステップS7の処理に際して制御部12は、図3に示したぼかし強度テーブル100を参照し、モノクロ画像データG3に対するぼかし強度として、ユーザーに選択されかつ第1の絵画調画像G2において表現されている画調に応じたぼかし強度を決定する。つまり制御部12は、例えばユーザーに選択された画調が油絵調であったときには、ユーザーに選択された画調が水彩画であったときよりも高めのぼかし強度を決定する。   In the process of step S7, the control unit 12 refers to the blur intensity table 100 shown in FIG. 3, and the image selected by the user and expressed in the first painting-like image G2 as the blur intensity for the monochrome image data G3. Determine the blur intensity according to the key. In other words, for example, when the painting tone selected by the user is an oil painting tone, the control unit 12 determines a higher blur intensity than when the painting tone selected by the user is a watercolor painting.

次に、制御部12は、モノクロ画像データG3に対してステップS7の処理で決定したぼかし強度によるぼかし処理を施すことにより、図5に示したように背景ぼけ画像データG4を生成する(ステップS8)。なお、ステップS8のぼかし処理は、例えば移動平均フィルタ、メディアンフィルタ、ガウシアンフィルタといった、公知の平滑化(又は平坦化)フィルタを用いたフィルタリング処理である。ここでぼかし処理とは、所謂ソフトフォーカス処理と明確に区別される狭義のぼかし処理ではなく、所謂ソフトフォーカス処理を含む広義のぼかし処理を意味する。   Next, the control unit 12 performs background blur image data G4 as shown in FIG. 5 by performing blur processing with the blur strength determined in step S7 on the monochrome image data G3 (step S8). ). The blurring process in step S8 is a filtering process using a known smoothing (or flattening) filter such as a moving average filter, a median filter, and a Gaussian filter. Here, the blurring process is not a narrowly-defined blurring process that is clearly distinguished from a so-called softfocusing process, but a broader blurring process that includes a so-called softfocusing process.

また、ステップS8の処理で制御部12が生成する背景ぼけ画像データG4は、ステップS4の顔検出処理で検出した顔領域を除く画像内の背景領域のみをぼかしたデータである。つまりステップS8の処理に際して制御部12は、画像内の背景領域を対象として、ユーザーに選択されかつ第1の絵画調画像G2において表現されている画調に応じた強度のぼかし処理を行う。なお、画像内の顔領域は、先に述べたように人物の頭髪部分を除く顔の輪郭によって囲まれる領域である。   Further, the blurred background image data G4 generated by the control unit 12 in the process of step S8 is data obtained by blurring only the background area in the image excluding the face area detected in the face detection process of step S4. That is, in the process of step S8, the control unit 12 performs a blurring process of intensity according to the image tone selected by the user and expressed in the first painting-like image G2, with the background region in the image as a target. Note that the face area in the image is an area surrounded by the outline of the face excluding the human hair as described above.

図7(a)は、ステップS8の処理に伴い生成される背景ぼけ画像データG4により表される画像、すなわち背景ぼけ画像の例を示した図である。   FIG. 7A is a diagram illustrating an example of an image represented by the background blurred image data G4 generated by the process of step S8, that is, a background blurred image.

引き続き、制御部12は、図5に示したように、背景ぼけ画像データG4の各画素に輝度に応じて異なる透過率を設定したα混合データG5を生成する(ステップS9)。その際、制御部12は、背景ぼけ画像データG4の各画素の透過率を、輝度の低い画素に対し輝度の高い画素が相対的に高い透過率となることを基本として所定の透過率に設定する。より具体的に述べると、制御部12は、画調に対応して予め決められている変化特性、すなわち輝度の変化に対する透過率の変化を示す変化特性に従い画素毎の透過率を決定し、それにより、輝度の低い画素に対し輝度の高い画素が相対的に高い透過率となるように設定する。   Subsequently, as shown in FIG. 5, the control unit 12 generates α mixed data G5 in which different transmittances are set for each pixel of the background blurred image data G4 in accordance with the luminance (step S9). At that time, the control unit 12 sets the transmittance of each pixel of the background blurred image data G4 to a predetermined transmittance based on the fact that a pixel with high luminance has a relatively high transmittance with respect to a pixel with low luminance. To do. More specifically, the control unit 12 determines the transmittance for each pixel in accordance with a change characteristic determined in advance corresponding to the image tone, that is, a change characteristic indicating a change in transmittance with respect to a change in luminance. Thus, the pixel with high luminance is set to have a relatively high transmittance with respect to the pixel with low luminance.

なお、ステップS9の処理で制御部12が生成するα混合データG5は、各画素の色情報に、2つの画像を公知のαブレンディングにより混合して合成するときの画素値の演算に使用される混合係数であるα値を加えた画像データであり、α値により透過率が表されたデータである。   Note that the α mixture data G5 generated by the control unit 12 in step S9 is used for pixel value calculation when two images are mixed and synthesized by known α blending with the color information of each pixel. This is image data to which an α value that is a mixing coefficient is added, and is data in which the transmittance is represented by the α value.

しかる後、図5に示したように制御部12は、ステップS9の処理で生成したα混合データG5を、ステップS3で生成した第1の絵画調画像データG2に合成することによって第2の絵画調画像データG6を生成し、生成した第2の絵画調画像データG6を表示用バッファ14の作業領域に記憶する(ステップS10)。   Thereafter, as shown in FIG. 5, the control unit 12 combines the α mixed data G5 generated in the process of step S9 with the first painting-like image data G2 generated in step S3, thereby generating the second painting. The tone image data G6 is generated, and the generated second painting tone image data G6 is stored in the work area of the display buffer 14 (step S10).

ステップS7の合成処理は前述したαブレンディングによるものである。つまり制御部12は、図7(a)に示したような背景ぼけ画像G4を画素毎に透過率が異なる半透明画像として、図6(b)に示したような第1の絵画調画像G2に透過合成することにより、図7(b)に示したような第2の絵画調画像G6を生成する。なお、図7(b)に示した第2の絵画調画像G6はあくまでも便宜的なものである。   The synthesizing process in step S7 is based on the aforementioned α blending. That is, the control unit 12 converts the background blurred image G4 as shown in FIG. 7A as a translucent image having a different transmittance for each pixel, and the first painting-like image G2 as shown in FIG. 6B. Then, the second painting-like image G6 as shown in FIG. 7B is generated. Note that the second painting-like image G6 shown in FIG. 7B is for convenience only.

ここで、第1の絵画調画像G2に透過合成される背景ぼけ画像G4は、顔領域を除く背景領域のみがぼけた画像であるが、背景領域においても細部につぶれが生じたり、無用な刷毛目や等が現れたものではない。そのため、ステップS10の処理で生成される第2の絵画調画像G6においては、第1の絵画調画像G2に比較して元画像G1に近い状態、つまり「写真らしさ」が確保されたものとなる。   Here, the background blurred image G4 that is transparently synthesized with the first painting-like image G2 is an image in which only the background area except the face area is blurred. However, in the background area, details are crushed or unnecessary brushes are used. The eyes and the like did not appear. Therefore, in the second painting-like image G6 generated by the processing in step S10, a state closer to the original image G1 compared to the first painting-like image G2, that is, “photographic” is ensured. .

同時に、背景ぼけ画像G4の顔領域にはぼけが生じていないことから、第2の絵画調画像G6の顔領域には、背景領域よりもさらに元画像G1に近い状態(「写真らしさ」)が確保されたものとなる。なお、第2の絵画調画像G6の他の特徴については後述する。   At the same time, since there is no blur in the face area of the background blurred image G4, the face area of the second painting-like image G6 is closer to the original image G1 than the background area (“photography”). It will be secured. Other features of the second painting-like image G6 will be described later.

そして、制御部12は、ステップS10の処理で第2の絵画調画像データを生成した後には、ステップS5の処理に際して元画像から任意の人物の顔が検出できなかった場合と同様、前述した確認表示を行う(ステップS11)。すなわち制御部12は表示用バッファ14の作業領域に記憶した第2の絵画調画像データをリサイズしてユーザーの端末1へ送り、端末1の画面上に第2の絵画調画像G6を表示させる。   Then, after generating the second painting-like image data in the process of step S10, the control unit 12 confirms the above-described confirmation in the same manner as when the face of an arbitrary person cannot be detected from the original image in the process of step S5. Display is performed (step S11). That is, the control unit 12 resizes the second picture-like image data stored in the work area of the display buffer 14 and sends it to the user's terminal 1 to display the second picture-like image G6 on the screen of the terminal 1.

しかる後、制御部12は、ステップS11で確認表示した内容で変換内容を決定するか、または画調を変更するかのいずれかをユーザーに選択させるとともに、決定が選択されなければ(ステップS12:NO)、ステップS2の処理へ戻り、ユーザーに新たな画調を再選択させる。   Thereafter, the control unit 12 allows the user to select either the conversion content based on the content confirmed and displayed in step S11 or to change the image tone, and if the determination is not selected (step S12: NO), the process returns to step S2, and the user is allowed to reselect a new image tone.

そして、制御部12は、ユーザーから決定指示があれば(ステップS12:YES)、後処理を行う(ステップS13)。ステップS13の後処理は、主として表示用バッファ14に記憶されている第1の絵画調画像データ、又は第2の絵画調画像データを元画像と同様のJPEG形式等の画像データに変換する処理である。これにより、制御部12は、画像変換処理を終了する。なお、ステップS13の後処理を経た画像データは、最終的にはユーザーの端末1へ送られるか、または画像記憶部17に記憶される。   And the control part 12 will perform a post-process, if there exists a determination instruction | indication from a user (step S12: YES) (step S13). The post-processing in step S13 is a process for mainly converting the first painting-like image data or the second painting-like image data stored in the display buffer 14 into image data in the same JPEG format as the original image. is there. Thereby, the control part 12 complete | finishes an image conversion process. The image data that has undergone the post-processing in step S13 is finally sent to the user's terminal 1 or stored in the image storage unit 17.

以上説明したように本実施形態においては、元画像を絵画調画像に変換する際、元画像が図6(a)に示したような任意の人物の顔が存在するポートレート等の撮影画像であった場合には、図4に示したステップS6〜S10の処理により、最終的な絵画調画像として第2の絵画調画像G6を生成する(図5参照)。   As described above, in the present embodiment, when an original image is converted into a painting-like image, the original image is a photographed image such as a portrait in which an arbitrary person's face as shown in FIG. If there is, the second painting-like image G6 is generated as the final painting-like image by the processing of steps S6 to S10 shown in FIG. 4 (see FIG. 5).

すなわち最終的な絵画調画像として、前述したように第1の絵画調画像G2に比較して、顔領域と背景領域とからなる全領域に元画像G1に近い状態(「写真らしさ」)が確保され、かつ顔領域には背景領域よりもさらに元画像G1に近い状態が確保された画像を生成するようにした。   That is, as described above, as compared to the first painting-like image G2 as described above, a state close to the original image G1 (“photographic”) is ensured in the entire region including the face region and the background region. In addition, an image in which a state closer to the original image G1 than the background region is secured in the face region is generated.

したがって、本実施形態によれば、元画像がポートレート等である場合には、元画像を絵画調画像に変換した後においても、画像の細部、特に目、鼻、眉、唇といった人物の顔の細部のリアリティを維持することができ、撮影画像としての適度なリアリティと絵画としての趣との双方を備えた画像を生成することができる。   Therefore, according to the present embodiment, when the original image is a portrait or the like, even after the original image is converted into a painting-like image, the details of the image, particularly the face of a person such as eyes, nose, eyebrows, and lips. Therefore, it is possible to maintain an image with both an appropriate reality as a photographed image and a taste as a painting.

しかも、第1の絵画調画像G2に対し、顔領域を除く画像内の背景領域のみをぼかした背景ぼけ画像G4を透過合成することから、人物の顔部分に、違和感のない状態で他の背景部分よりも顕著なリアリティを確保することができる。   In addition, since the background blurred image G4 obtained by blurring only the background region in the image excluding the face region is transparently combined with the first painting-like image G2, the background portion of the person has another background without feeling uncomfortable. Reality more conspicuous than the part can be secured.

また、本実施形態においては、背景ぼけ画像G4を第1の絵画調画像G2に透過合成するとき、背景ぼけ画像G4には画素毎に異なる透過率を設定し、かつ輝度の低い画素の透過率に対して輝度の高い画素の透過率を相対的に高くする構成とした。   In this embodiment, when the background blurred image G4 is transparently combined with the first painting-like image G2, the background blurred image G4 is set to a different transmittance for each pixel, and the transmittance of the pixel with low luminance is set. In contrast, the transmittance of pixels with high luminance is set to be relatively high.

そのため、例えば背景ぼけ画像G4における人物の顔のうちで、頬などの輝度の高い部分ほど第1の絵画調画像G2に近い状態、つまり「絵画らしさ」が維持され、同時に目、鼻、眉、唇などの輝度の低い部分ほど元画像G1に近い状態、つまり「写真らしさ」が付加される。したがって、最終的な絵画調画像として、撮影画像におけるリアリティと絵画としての趣とがバランス良く表現された画像を生成することができる。   Therefore, for example, among the human faces in the blurred background image G4, the higher the brightness such as the cheek, the closer to the first painting-like image G2, that is, the “picture-likeness” is maintained, and at the same time the eyes, nose, eyebrows, The lower the brightness such as the lips, the closer to the original image G1, that is, the “photographic quality” is added. Therefore, an image in which the reality in the photographed image and the taste as a painting are expressed in a well-balanced manner can be generated as the final picture-like image.

さらに、背景ぼけ画像G4における各画素の透過率を、最終的に生成する絵画調画像(第2の絵画調画像G6)に確保すべき目標とする画調に応じた変化特性に従って決定するようにした。したがって、背景ぼけ画像G4における各画素に、目標とする画調に応じた適切な透過率を設定することができ、これによっても、最終的な絵画調画像として、撮影画像におけるリアリティと絵画としての趣とがバランス良く表現された画像を生成することができる。   Further, the transmittance of each pixel in the background blurred image G4 is determined in accordance with a change characteristic corresponding to a target image tone to be secured in the finally generated painting-like image (second painting-like image G6). did. Therefore, it is possible to set an appropriate transmittance according to the target image tone for each pixel in the background blurred image G4. An image in which the taste is expressed in a well-balanced manner can be generated.

また、背景ぼけ画像G4を生成する際には、モノクロ画像G3の背景領域を、最終的に生成する絵画調画像(第2の絵画調画像G6)に確保すべき目標とする画調に対応した強度でぼかすようにした。すなわち、背景ぼけ画像G4における背景領域のぼけ度合を、絵画変換に伴い細部に生じる変化が大きな画調のときには、絵画変換に伴い細部に生じる変化が小さな画調のときに比べ相対的に強くした。   When the background blurred image G4 is generated, the background area of the monochrome image G3 corresponds to the target image tone that should be secured in the painting-like image (second painting-like image G6) to be finally generated. I tried to blur with strength. That is, the degree of blur in the background area in the background blurred image G4 is relatively stronger when the change in detail caused by the picture conversion is large than in the case where the change generated in the detail due to the picture conversion is small. .

したがって、最終的に生成する絵画調画像において、目標とする画調に関係なく人物の顔以外の部分が必要以上に元画像に近づくことが抑制でき、これによっても、撮影画像におけるリアリティと絵画としての趣とがバランス良く表現された画像を生成することができる。   Therefore, in the finally created painting-like image, it is possible to suppress the portions other than the face of the person from approaching the original image more than necessary regardless of the target painting tone. It is possible to generate an image in which the taste of the image is well balanced.

さらに、第2の絵画調画像G6は、背景ぼけ画像G4がモノクロ画像であることから、全体として第1の絵画調画像G2に比べて彩度を低下させることができる。これにより、撮影画像としての適度なリアリティが確保されることと相まって、単に特定の画調を備えるだけでなく、いわゆる「写真油絵」や「横浜写真」が有する独特の風合いをも備えた画像を生成することができる。特に、本実施形態においては、背景ぼけ画像G4の輝度の低い画素の透過率を輝度の高い画素の透過率よりも相対的に低くし、明るい部分に比べて暗い部の彩度を高めにすることによって、より「写真油絵」や「横浜写真」に近い画像を得ることができる。   Furthermore, since the background-blurred image G4 is a monochrome image, the second painting-like image G6 can reduce the saturation as a whole as compared with the first painting-like image G2. As a result, coupled with the fact that moderate reality as a photographed image is ensured, not only a specific image tone is provided, but also an image having a unique texture possessed by so-called “photographic oil painting” and “Yokohama Photo”. Can be generated. In particular, in the present embodiment, the transmittance of the low-luminance pixels of the background blurred image G4 is relatively lower than that of the high-luminance pixels, and the saturation of the dark portion is increased compared to the bright portion. As a result, an image closer to “photographic oil painting” or “Yokohama photo” can be obtained.

「写真油絵」や「横浜写真」は、幕末から明治中頃、写実的な西洋画や写真技術があいついで日本に導入された頃に盛んに制作されたものである。すなわち「写真油絵」は、焼付け写真紙の表面をフィルム状にはがしたもの(ポジ)に、裏側から着色彩色したものである。また、「横浜写真」は、白黒写真に着色師が色付けした写真である。   “Photo Oil Painting” and “Yokohama Photography” were actively produced from the end of the Edo period to the middle of the Meiji period, when realistic Western painting and photographic technology were introduced to Japan. That is, the “photographic oil painting” is obtained by coloring and coloring from the back side of a photographic paper surface that has been peeled off into a film (positive). The “Yokohama Photo” is a black-and-white photo colored by a colorist.

なお、以上の説明においては、元画像を第1の絵画変換画像に変換するとき、元画像に対して、アフィン変換など歪み変形処理や、バラツキやゆらぎ、非忠実性を含む手書き風タッチなどの特徴(画調)を得るための変形処理を含む絵画変換処理を施す場合についての説明を省略した。元画像に対して変形処理を含む絵画変換処理を施す場合には、背景ぼけ画像を第1の絵画変換画像に透過合成する以前に、背景ぼけ画像にも元画像に対する変形処理と同様の変形処理を施す必要がある。   In the above description, when the original image is converted into the first picture-converted image, the original image is subjected to distortion deformation processing such as affine transformation, handwriting-like touch including variation, fluctuation, and infidelity. The description about the case where the picture conversion process including the deformation process for obtaining the feature (tone) is performed is omitted. When the original image is subjected to a picture conversion process including a deformation process, the background blur image is also subjected to the same deformation process as the original image before the background blurred image is transparently synthesized with the first picture converted image. It is necessary to apply.

以下、本実施形態の変形例について説明する。本実施形態においては、第1の絵画調画像に透過合成する合成用のぼけ画像を、元画像をモノクロ化した画像にぼかし処理を行い生成した背景ぼけ画像とし、最終的な絵画調画像として「写真油絵」や「横浜写真」が有する独特の風合いを備えた画像を生成するものについて説明した。しかし、背景ぼけ画像は、元画像から生成したカラー画像としてもよい。その場合であっても、撮影画像としての適度なリアリティと絵画としての趣との双方を備えた画像を生成することができる。   Hereinafter, modifications of the present embodiment will be described. In the present embodiment, a blurred image for synthesis that is transparently combined with the first painting-like image is a blurred background image generated by performing a blurring process on the original image, and the final painting-like image is “ We have explained what generates images with unique textures of “Photo Oil Painting” and “Yokohama Photo”. However, the background blurred image may be a color image generated from the original image. Even in such a case, an image having both an appropriate reality as a photographed image and a taste as a painting can be generated.

また、本実施形態においては、背景ぼけ画像G4を第1の絵画調画像G2に透過合成するとき、背景ぼけ画像G4には画素毎に異なる透過率を設定した。しかし、本発明の実施に際しては、各画素の輝度に関係なく背景ぼけ画像に一定の透過率を設定するようにしてもよい。   In this embodiment, when the background blurred image G4 is transparently combined with the first painting-like image G2, the background blurred image G4 has a different transmittance for each pixel. However, when the present invention is implemented, a constant transmittance may be set for the background blurred image regardless of the luminance of each pixel.

また、本発明において、背景ぼけ画像に一定の透過率を設定して背景ぼけ画像を第1の絵画調画像に透過合成するときの具体的な合成方法は任意であり、例えば背景ぼけ画像をメッシュ状に半透明化して第1の絵画調画像に合成する方法を採用することができる。   Further, in the present invention, a specific composition method for setting a certain transmittance to the background blurred image and transparently combining the background blurred image with the first painting-like image is arbitrary. For example, the background blurred image is meshed It is possible to adopt a method of making the image semi-transparent and combining it with the first painting-like image.

ここで背景ぼけ画像をメッシュ状に半透明化するとは、例えば背景ぼけ画像を市松模様、チェック柄、ストライプ柄状の画像やα画像に変換する意味である。具体的には、例えば背景ぼけ画像を市松模様とする場合には、市松模様の黒部分を不透明(1または混合率100%)、白部分を透明(0または混合率0%)とし、全画素の1/2を透明で1/2を不透明とすれば、背景ぼけ画像の透過率を50%とすることができる。また、例えば背景ぼけ画像をストライプ柄状の画像とする場合には、黒:白=1:2のストライプ柄とすれば、背景ぼけ画像の混合率を1/3、つまり透過率を33%とすることができる。   Here, making the background blurred image semi-transparent in a mesh shape means, for example, converting the background blurred image into a checkered pattern, check pattern, stripe pattern image, or α image. Specifically, for example, if the background blurred image is a checkered pattern, the black part of the checkered pattern is opaque (1 or 100% mixing ratio) and the white part is transparent (0 or 0% mixing ratio), and all pixels If 1/2 is transparent and 1/2 is opaque, the transmittance of the blurred background image can be 50%. For example, when the background blurred image is a striped pattern image, if the black: white = 1: 2 stripe pattern, the mixing ratio of the background blurred image is 1/3, that is, the transmittance is 33%. can do.

また、各画素の輝度に関係なく背景ぼけ画像を一定の透過率で第1の絵画調画像に透過合成する場合には、本実施形態とは逆に第1の絵画調画像側に所定の透過率を設定したうえで、第1の絵画調画像と背景ぼけ画像とを合成するようにしてもよい。   In addition, when the background blurred image is transparently synthesized with the first painting-like image with a constant transmittance regardless of the luminance of each pixel, a predetermined transmission is performed on the first painting-like image side contrary to the present embodiment. You may make it synthesize | combine a 1st painting style image and a background blur image after setting a rate.

また、本実施形態においては、背景ぼけ画像における背景領域のぼかし強度を、最終的に生成する絵画調画像(絵画調画像)に確保すべき目標とする画調に対応して予め決められているぼかし強度とした。また、背景ぼけ画像の各画素の透過率を、目標とする画調に応じて予め決められている変化特性に従って決定するようにした。   In the present embodiment, the blur intensity of the background region in the background blurred image is determined in advance corresponding to the target image tone to be secured in the painting-like image (painting-like image) to be finally generated. The blur strength was used. Further, the transmittance of each pixel of the blurred background image is determined according to a change characteristic that is determined in advance according to the target image tone.

しかし、背景ぼけ画像における背景領域のぼかし強度や、背景ぼけ画像の各画素の透過率は、例えば元画像と第1の絵画調画像との間における局所的な変化度合を確認し、確認した変化度合に基づき決定するようにしてもよい。   However, the blur intensity of the background region in the background blurred image and the transmittance of each pixel of the background blurred image are confirmed by confirming the local change degree between the original image and the first painting-like image, for example. It may be determined based on the degree.

例えば背景領域のぼかし強度を上記の変化度合に基づいて決定する場合には、ぼかし強度を、上記の変化度合と画調毎に予め決めてある調整値とをパラメータとする所定の関数を用いて算出するようにしてもよい。   For example, when determining the blur intensity of the background region based on the above degree of change, the blur intensity is determined using a predetermined function using the above degree of change and an adjustment value determined in advance for each image tone as parameters. You may make it calculate.

また、例えば背景ぼけ画像の各画素の透過率を上記の変化度合に基づいて決定する場合には、透過率の決定に際して使用する変化特性を、上記の変化度合に応じて選択的に使用するようにしてもよい。さらに、前述したように背景ぼけ画像に各画素の輝度に関係なく一定の透過率を設定する場合であれば、その透過率を、上記の変化度合と画調毎に予め決めてある調整値とをパラメータとする所定の関数を用いて算出するようにしてもよい。   Further, for example, when determining the transmittance of each pixel of the background blurred image based on the above degree of change, the change characteristic used when determining the transmittance is selectively used according to the above degree of change. It may be. Further, as described above, when a constant transmittance is set in the background blurred image regardless of the luminance of each pixel, the transmittance is set to an adjustment value determined in advance for each degree of change and image tone. It is also possible to calculate using a predetermined function using as a parameter.

なお、上記の局所的な変化度合は、例えば元画像と第1の絵画調画像とを複数ブロックにそれぞれ分割したときのブロック毎の代表色や、代表色の割合、ブロック毎に輪郭抽出を行い抽出される輪郭線のブロック内における密度といった1又は複数の特徴量に基づいて判断すればよい。   The local change degree is obtained by extracting the representative color for each block when the original image and the first painting-like image are divided into a plurality of blocks, the ratio of the representative colors, and the contour extraction for each block, for example. The determination may be made based on one or a plurality of feature amounts such as the density of the extracted contour line in the block.

また、本実施形態においては、主として元画像において任意の人物の顔を検出し、顔が検出できたことを条件として、顔領域を除く背景領域をぼかした背景ぼけ画像を生成し、生成した背景ぼけ画像を第1の絵画調画像に透過合成するものについて説明した。しかし、本発明においては、元画像における検出対象は必ずしも人物の顔でなくともよく、その領域が検出可能な特定の被写体であれば、花や動物(犬や猫等)が検出対象であっても構わない。   Further, in the present embodiment, a background of an arbitrary person is mainly detected in the original image, a background blurred image in which a background area excluding the face area is blurred is generated on the condition that the face can be detected, and the generated background A description has been given of the case where the blurred image is transparently combined with the first painting-like image. However, in the present invention, the detection target in the original image does not necessarily have to be a person's face. If the subject is a specific object that can be detected, flowers and animals (such as dogs and cats) are the detection targets. It doesn't matter.

また、最終的に生成する絵画調画像において元画像に近いリアリティを確保する領域は、必ずしも画像認識処理によって検出可能な顔領域等でなくともよく、ユーザーにより手動で指定された領域であっても構わない。その場合、制御部12には、例えば以下のような処理を行わせればよい。   In addition, the area that ensures the reality close to the original image in the picture-like image that is finally generated may not necessarily be a face area that can be detected by the image recognition process, or may be an area that is manually designated by the user. I do not care. In this case, the control unit 12 may perform the following process, for example.

すなわち、例えば元画像を第1の絵画調画像に変換した後、ユーザーに、タッチパネルやマウス等の操作によって第1の絵画調画像において任意の領域、つまり元画像に近いリアリティの確保を希望する領域を指定させる。そして、制御部12には、ユーザーにより指定された領域を特定領域として検出した後、当該特定領域を除く背景領域のみをぼかした背景ぼけ画像を生成させ、生成した背景ぼけ画像を第1の絵画調画像に透過合成させる処理を行わせればよい。   That is, for example, after the original image is converted into the first painting-like image, the user desires to secure an arbitrary area in the first painting-like image, that is, the reality close to the original image by operating the touch panel or the mouse. Is specified. Then, after detecting the area designated by the user as the specific area, the control unit 12 generates a background blurred image in which only the background area excluding the specific area is blurred, and uses the generated background blurred image as the first painting. What is necessary is just to perform the process of carrying out transparent composition on the toned image.

上記のように元画像に近いリアリティを確保する領域をユーザーにより手動で指定された領域とすれば、最終的に生成する絵画調画像において、ユーザーが必要に応じ、かつ好みに応じた部分に、違和感のない状態で他の背景部分よりも顕著なリアリティを確保することができる。   If the area that ensures the reality close to the original image as described above is an area that is manually specified by the user, in the painting-like image that is finally generated, the user can change the part according to his / her preference as necessary. In a state where there is no sense of incongruity, it is possible to ensure a more remarkable reality than other background portions.

また、本実施形態においては、第1の絵画調画像に透過合成する合成用のぼけ画像を、顔領域を除く背景領域にぼかし処理を施した背景ぼけ画像とした。しかし、本発明の実施に際しては、合成用のぼけ画像を画像全体にぼかし処理を施した画像としてもよい。なお、処理を施す画像は、先に述べたように元画像から生成したモノクロ画像に限らず、元画像でもよい。   Further, in the present embodiment, the blurred image for synthesis that is transparently combined with the first painting-like image is a blurred image in which the background region excluding the face region is subjected to the blurring process. However, in the implementation of the present invention, the blurred image for synthesis may be an image obtained by blurring the entire image. The image to be processed is not limited to the monochrome image generated from the original image as described above, but may be an original image.

その場合であっても、最終的な絵画調画像として、人物の顔部分はもとより、他の部分についても細部のつぶれが目立たず、かつ無用な刷毛目や色調が現れる度合が減少した画像を生成することができる。したがって、少なくとも第1の絵画調画像に比べれば、絵画としての趣を確保しつつ、リアリティのある画像を得ることができる。   Even in that case, the final painting-like image is generated not only for the face part of the person but also for other parts where details are not crushed and the degree of appearance of unnecessary brush eyes and color tone is reduced. can do. Therefore, as compared with at least the first painting-like image, it is possible to obtain a realistic image while ensuring the appeal as a painting.

さらに、合成用のぼけ画像を画像全体にぼかし処理を施した画像とする場合においては、元画像がポートレート等の撮影画像であるか否かに関係なく、最終的な絵画調画像として、第1の絵画調画像に、画像全体にぼかし処理を施した合成用のぼけ画像を透過合成した画像を生成するようにしても構わない。その場合においても、少なくとも第1の絵画調画像に比べれば、絵画としての趣を確保しつつ、リアリティのある画像を得ることができる。   Further, in the case where the blurred image for synthesis is an image in which the entire image is subjected to blurring processing, the final painting-like image is used regardless of whether the original image is a photographed image such as a portrait. You may make it produce | generate the image which carried out the transmission synthetic | combination of the blurring image for a synthesis | combination which performed the blurring process on the whole image to one painting-like image. Even in that case, it is possible to obtain a realistic image while securing a taste as a painting as compared with at least the first painting-like image.

また、本実施形態においては、背景ぼけ画像の生成に際しにおいてぼかし処理を施さない顔領域を、頭髪部分を除く顔の輪郭によって囲まれる領域とする場合について説明した。しかし、顔領域は頭髪部分を含む領域としてもよいし、頭髪部分を含んだ顔部分を囲む矩形又は円形、楕円形等の特定領域としてもよい。   Further, in the present embodiment, a case has been described in which the face area that is not subjected to the blurring process in generating the background blurred image is the area surrounded by the outline of the face excluding the hair portion. However, the face region may be a region including the hair portion, or may be a specific region such as a rectangle, a circle, or an ellipse surrounding the face portion including the hair portion.

また、本実施形態においては、元画像データを第1の絵画調画像データに変換する絵画変換処理を行う絵画変換部16を備えた構成について説明したが、言うまでもなく、本発明の実施に際しては、絵画変換部16に代えて、制御部12に絵画変換処理を行わせる構成を採用することもできる。   Moreover, in this embodiment, although the structure provided with the picture conversion part 16 which performs the picture conversion process which converts original image data into 1st picture-like image data was demonstrated, it cannot be overemphasized at the time of implementation of this invention. Instead of the picture conversion unit 16, a configuration in which the control unit 12 performs a picture conversion process may be employed.

また、本実施形態においては、主として撮影画像を絵画調画像に変換する場合について説明したが、本発明は、撮影画像を絵画調以外の任意の人工的な特徴を備えた画像に変換する場合にも適用することができる。なお、本発明において人工的な特徴とは、デジタルカメラ等により撮影されデジタルデータとして記録された撮影画像には表現されていない、撮影画像に意図的な加工を施すことによって得られる特徴である。   Further, in the present embodiment, the case where the photographed image is mainly converted into a picture-like image has been described. However, the present invention applies to a case where a photographed image is converted into an image having any artificial feature other than the picture-like image. Can also be applied. In the present invention, an artificial feature is a feature obtained by intentionally processing a shot image that is not represented in a shot image shot by a digital camera or the like and recorded as digital data.

また、ここでは画像サービスサイト10を実現するサーバー11に本発明を適用した場合について説明したが、本発明は、元画像を絵画調画像と初めとする人工的な所定の特徴を備えた種々の画像に変換することができる画像処理機能を備えたものであれば、任意の装置に適用することができる。任意の装置としては、例えばデジタルカメラや、デジタルカメラにより撮影された撮影画像を鑑賞用として表示することを主たる目的とするデジタルフォトフレーム、汎用的なパーソナルコンピュータ等が含まれる。   Further, although the case where the present invention is applied to the server 11 that implements the image service site 10 has been described here, the present invention is not limited to various kinds of artificial features including original images and painting-like images. Any device having an image processing function capable of converting to an image can be applied. The arbitrary device includes, for example, a digital camera, a digital photo frame mainly intended to display a photographed image photographed by the digital camera for viewing, a general-purpose personal computer, and the like.

以上、本発明の変形例等について説明したが、これらは本発明の作用効果が得られる範囲内であれば適宜変更が可能であり、変更後の実施形態も特許請求の範囲に記載された発明、及びその発明と均等の発明の範囲に含まれる。以下に、本出願の特許請求の範囲に記載された発明を付記する。
[請求項1]
撮影画像を、人工的な特徴を備えた第1の変換画像に変換する変換手段と、前記撮影画像の所定領域にぼけを生じさせた合成用のぼけ画像を生成するぼけ画像生成手段と、前記ぼけ画像生成手段により生成された前記ぼけ画像を所定の透過率で前記変換手段による変換後の第1の変換画像に透過合成することにより第2の変換画像を生成する透過合成手段とを備えたことを特徴とする画像処理装置。
[請求項2]
前記ぼけ画像生成手段は、前記撮影画像の所定領域にぼかし処理を施すことにより前記ぼけ画像を生成するぼかし手段を含むことを特徴とする請求項1記載の画像処理装置。
[請求項3]
前記ぼけ画像生成手段は、前記撮影画像からモノクロ画像を生成するモノクロ画像生成手段と、前記モノクロ画像生成手段により生成されたモノクロ画像の前記所定領域にぼかし処理を施すことにより前記ぼけ画像を生成するぼかし手段とを含むことを特徴とする請求項1記載の画像処理装置。
[請求項4]
前記撮影画像から特定の被写体に相当する被写体領域を検出する検出手段を備え、前記ぼかし手段は、前記検出手段により検出された被写体領域を除く背景領域のみにぼかし処理を施すことを特徴とする請求項2又は3記載の画像処理装置。
[請求項5]
前記検出手段は、前記被写体領域として任意の人物の顔に相当する領域を検出することを特徴とする請求項4記載の画像処理装置。
[請求項6]
前記ぼけ画像生成手段は、前記検出手段により前記撮影画像から特定の被写体に相当する被写体領域が検出されたことを条件として前記ぼけ画像を生成し、前記透過合成手段は、前記検出手段により前記撮影画像から特定の被写体に相当する被写体領域が検出されたことを条件として前記第2の変換画像を生成することを特徴とする請求項4又は5記載の画像処理装置。
[請求項7]
前記ぼけ画像生成手段は、前記ぼかし手段が画像にぼかし処理を施す際のぼかし強度を、前記変換手段による前記撮影画像の変換内容に応じて決定することを特徴とする請求項2乃至6いずれか記載の画像処理装置。
[請求項8]
前記透過合成手段は、前記所定の透過率を前記ぼけ画像の各画素の輝度に応じ画素毎に決定し、前記ぼけ画像を第1の変換画像に透過合成することを特徴とする請求項1乃至7いずれか記載の画像処理装置。
[請求項9]
前記透過合成手段は、前記所定の透過率を前記ぼけ画像の各画素の輝度と前記変換手段による前記撮影画像の変換内容とに応じ画素毎に決定し、前記ぼけ画像を第1の変換画像に透過合成することを特徴とする請求項8記載の画像処理装置。
[請求項10]
前記透過合成手段は、前記所定の透過率を前記変換手段による前記撮影画像の変換内容に応じて決定し、前記ぼけ画像を第1の変換画像に透過合成することを特徴とする請求項1乃至7いずれか記載の画像処理装置。
[請求項11]
前記第1の変換画像は特定の画調を有する絵画調画像であり、前記変換手段は前記撮影画像を前記絵画調画像に変換することを特徴とする請求項1乃至10いずれか記載の画像処理装置。
[請求項12]
撮影画像を、人工的な特徴を備えた第1の変換画像に変換する工程と、前記撮影画像の所定領域にぼけを生じさせた合成用のぼけ画像を生成する工程と、前記前記ぼけ画像を所定の透過率で前記第1の変換画像に透過合成することにより第2の変換画像を生成する工程とを含むことを特徴とする画像処理方法。
[請求項13]
コンピュータに、撮影画像を、人工的な特徴を備えた第1の変換画像に変換する手順と、前記撮影画像の所定領域にぼけを生じさせた合成用のぼけ画像を生成する手順と、前記前記ぼけ画像を所定の透過率で前記第1の変換画像に透過合成することにより第2の変換画像を生成する手順とを実行させることを特徴とするプログラム。
As mentioned above, although the modification etc. of this invention were demonstrated, as long as these are in the range in which the effect of this invention is obtained, it can change suitably, Embodiment after change is also invention described in the claim And the scope of the invention equivalent to the invention. The invention described in the claims of the present application will be added below.
[Claim 1]
Conversion means for converting a captured image into a first converted image having an artificial feature; a blurred image generation means for generating a blurred image for synthesis in which a predetermined area of the captured image is blurred; A transmission composition unit for generating a second converted image by transmitting and synthesizing the blurred image generated by the blurred image generation unit with a first converted image after conversion by the conversion unit at a predetermined transmittance. An image processing apparatus.
[Claim 2]
The image processing apparatus according to claim 1, wherein the blur image generation unit includes a blur unit that generates the blur image by performing blur processing on a predetermined area of the captured image.
[Claim 3]
The blurred image generation means generates the blurred image by performing a blurring process on the predetermined area of the monochrome image generated by the monochrome image generation means and the monochrome image generation means that generates a monochrome image from the captured image. The image processing apparatus according to claim 1, further comprising a blurring unit.
[Claim 4]
A detection unit that detects a subject area corresponding to a specific subject from the photographed image is provided, and the blurring unit performs blurring processing only on a background region excluding the subject region detected by the detection unit. Item 4. The image processing apparatus according to Item 2 or 3.
[Claim 5]
The image processing apparatus according to claim 4, wherein the detection unit detects an area corresponding to a face of an arbitrary person as the subject area.
[Claim 6]
The blurred image generating means generates the blurred image on the condition that a subject area corresponding to a specific subject is detected from the photographed image by the detecting means, and the transmission composition means is configured to capture the photographing by the detecting means. 6. The image processing apparatus according to claim 4, wherein the second converted image is generated on the condition that a subject area corresponding to a specific subject is detected from the image.
[Claim 7]
The blur image generating unit determines a blur intensity when the blur unit performs a blur process on the image according to the conversion content of the photographed image by the conversion unit. The image processing apparatus described.
[Claim 8]
The transmission composition unit determines the predetermined transmittance for each pixel according to the luminance of each pixel of the blurred image, and transparently combines the blurred image with the first converted image. 7. The image processing device according to any one of 7.
[Claim 9]
The transmission composition unit determines the predetermined transmittance for each pixel according to the luminance of each pixel of the blurred image and the conversion content of the captured image by the conversion unit, and converts the blurred image into a first converted image. 9. The image processing apparatus according to claim 8, wherein the image processing apparatus performs transmission synthesis.
[Claim 10]
The transmission composition unit determines the predetermined transmittance according to the conversion content of the photographed image by the conversion unit, and transparently combines the blurred image with the first conversion image. 7. The image processing device according to any one of 7.
[Claim 11]
11. The image processing according to claim 1, wherein the first converted image is a picture-like image having a specific image tone, and the conversion unit converts the photographed image into the image-like image. apparatus.
[Claim 12]
Converting the captured image into a first converted image having an artificial feature; generating a blur image for synthesis in which a predetermined region of the captured image is blurred; and And a step of generating a second converted image by transmitting and synthesizing the first converted image with a predetermined transmittance.
[Claim 13]
A procedure for converting a captured image into a first converted image having an artificial feature in a computer, a procedure for generating a blurred image for synthesis in which a predetermined region of the captured image is blurred, A program for executing a procedure of generating a second converted image by transparently synthesizing a blurred image with the first converted image at a predetermined transmittance.

11 サーバー
12 制御部
14 表示用バッファ
16 絵画変換部
17 画像記憶部
18 プログラム記憶部
100 ぼかし強度テーブル
G1 元画像データ、元画像
G2 第1の絵画調画像データ、第1の絵画調画像
G3 モノクロ画像データ
G4 背景ぼけ画像データ、背景ぼけ画像
G5 α混合データ
G6 第2の絵画調画像データ、第2の絵画調画像
11 Server 12 Control Unit 14 Display Buffer 16 Painting Conversion Unit 17 Image Storage Unit 18 Program Storage Unit 100 Blur Strength Table G1 Original Image Data, Original Image G2 First Painting Image Data, First Painting Image G3 Monochrome Image Data G4 Background blurred image data, background blurred image G5 α mixed data G6 Second painting style image data, second painting style image

Claims (13)

撮影画像を、人工的な特徴を備えた第1の変換画像に変換する変換手段と、
前記撮影画像の所定領域にぼけを生じさせた合成用のぼけ画像を生成するぼけ画像生成手段と、
前記ぼけ画像生成手段により生成された前記ぼけ画像を所定の透過率で前記変換手段による変換後の第1の変換画像に透過合成することにより第2の変換画像を生成する透過合成手段と
を備えたことを特徴とする画像処理装置。
Conversion means for converting a photographed image into a first converted image having an artificial feature;
A blurred image generating means for generating a blurred image for synthesis in which a predetermined area of the photographed image is blurred;
Transmission composition means for producing a second converted image by transparently synthesizing the blurred image generated by the blurred image generation means with the first converted image after conversion by the conversion means at a predetermined transmittance. An image processing apparatus characterized by that.
前記ぼけ画像生成手段は、前記撮影画像の所定領域にぼかし処理を施すことにより前記ぼけ画像を生成するぼかし手段を含むことを特徴とする請求項1記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the blur image generation unit includes a blur unit that generates the blur image by performing blur processing on a predetermined area of the captured image. 前記ぼけ画像生成手段は、
前記撮影画像からモノクロ画像を生成するモノクロ画像生成手段と、
前記モノクロ画像生成手段により生成されたモノクロ画像の前記所定領域にぼかし処理を施すことにより前記ぼけ画像を生成するぼかし手段と
を含むことを特徴とする請求項1記載の画像処理装置。
The blurred image generating means
Monochrome image generation means for generating a monochrome image from the captured image;
The image processing apparatus according to claim 1, further comprising: a blurring unit that generates the blurred image by performing a blurring process on the predetermined area of the monochrome image generated by the monochrome image generating unit.
前記撮影画像から特定の被写体に相当する被写体領域を検出する検出手段を備え、
前記ぼかし手段は、前記検出手段により検出された被写体領域を除く背景領域のみにぼかし処理を施す
ことを特徴とする請求項2又は3記載の画像処理装置。
Detecting means for detecting a subject area corresponding to a specific subject from the captured image;
The image processing apparatus according to claim 2, wherein the blurring unit performs a blurring process only on a background region excluding the subject region detected by the detection unit.
前記検出手段は、前記被写体領域として任意の人物の顔に相当する領域を検出することを特徴とする請求項4記載の画像処理装置。   The image processing apparatus according to claim 4, wherein the detection unit detects an area corresponding to a face of an arbitrary person as the subject area. 前記ぼけ画像生成手段は、前記検出手段により前記撮影画像から特定の被写体に相当する被写体領域が検出されたことを条件として前記ぼけ画像を生成し、
前記透過合成手段は、前記検出手段により前記撮影画像から特定の被写体に相当する被写体領域が検出されたことを条件として前記第2の変換画像を生成する
ことを特徴とする請求項4又は5記載の画像処理装置。
The blurred image generating means generates the blurred image on the condition that a subject area corresponding to a specific subject is detected from the captured image by the detecting means,
6. The translucent combining unit generates the second converted image on condition that a subject area corresponding to a specific subject is detected from the photographed image by the detecting unit. Image processing apparatus.
前記ぼけ画像生成手段は、前記ぼかし手段が画像にぼかし処理を施す際のぼかし強度を、前記変換手段による前記撮影画像の変換内容に応じて決定することを特徴とする請求項2乃至6いずれか記載の画像処理装置。   The blur image generating unit determines a blur intensity when the blur unit performs a blur process on the image according to the conversion content of the photographed image by the conversion unit. The image processing apparatus described. 前記透過合成手段は、前記所定の透過率を前記ぼけ画像の各画素の輝度に応じ画素毎に決定し、前記ぼけ画像を第1の変換画像に透過合成することを特徴とする請求項1乃至7いずれか記載の画像処理装置。   The transmission composition unit determines the predetermined transmittance for each pixel according to the luminance of each pixel of the blurred image, and transparently combines the blurred image with the first converted image. 7. The image processing device according to any one of 7. 前記透過合成手段は、前記所定の透過率を前記ぼけ画像の各画素の輝度と前記変換手段による前記撮影画像の変換内容とに応じ画素毎に決定し、前記ぼけ画像を第1の変換画像に透過合成することを特徴とする請求項8記載の画像処理装置。   The transmission composition unit determines the predetermined transmittance for each pixel according to the luminance of each pixel of the blurred image and the conversion content of the captured image by the conversion unit, and converts the blurred image into a first converted image. 9. The image processing apparatus according to claim 8, wherein the image processing apparatus performs transmission synthesis. 前記透過合成手段は、前記所定の透過率を前記変換手段による前記撮影画像の変換内容に応じて決定し、前記ぼけ画像を第1の変換画像に透過合成することを特徴とする請求項1乃至7いずれか記載の画像処理装置。   The transmission composition unit determines the predetermined transmittance according to the conversion content of the photographed image by the conversion unit, and transparently combines the blurred image with the first conversion image. 7. The image processing device according to any one of 7. 前記第1の変換画像は特定の画調を有する絵画調画像であり、前記変換手段は前記撮影画像を前記絵画調画像に変換することを特徴とする請求項1乃至10いずれか記載の画像処理装置。   11. The image processing according to claim 1, wherein the first converted image is a picture-like image having a specific image tone, and the conversion unit converts the photographed image into the image-like image. apparatus. 撮影画像を、人工的な特徴を備えた第1の変換画像に変換する工程と、
前記撮影画像の所定領域にぼけを生じさせた合成用のぼけ画像を生成する工程と、
前記前記ぼけ画像を所定の透過率で前記第1の変換画像に透過合成することにより第2の変換画像を生成する工程と
を含むことを特徴とする画像処理方法。
Converting the captured image into a first converted image having artificial features;
Generating a blurred image for synthesis in which a predetermined region of the captured image is blurred;
And a step of generating a second converted image by transparently combining the blurred image with the first converted image at a predetermined transmittance.
コンピュータに、
撮影画像を、人工的な特徴を備えた第1の変換画像に変換する手順と、
前記撮影画像の所定領域にぼけを生じさせた合成用のぼけ画像を生成する手順と、
前記前記ぼけ画像を所定の透過率で前記第1の変換画像に透過合成することにより第2の変換画像を生成する手順と
を実行させることを特徴とするプログラム。
On the computer,
A procedure for converting a captured image into a first converted image having an artificial feature;
A procedure for generating a blurred image for synthesis in which a predetermined region of the captured image is blurred;
A program for generating a second converted image by transparently synthesizing the blurred image with the first converted image at a predetermined transmittance.
JP2011242576A 2011-11-04 2011-11-04 Image processing apparatus and program Expired - Fee Related JP5896204B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011242576A JP5896204B2 (en) 2011-11-04 2011-11-04 Image processing apparatus and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011242576A JP5896204B2 (en) 2011-11-04 2011-11-04 Image processing apparatus and program

Publications (2)

Publication Number Publication Date
JP2013098925A true JP2013098925A (en) 2013-05-20
JP5896204B2 JP5896204B2 (en) 2016-03-30

Family

ID=48620382

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011242576A Expired - Fee Related JP5896204B2 (en) 2011-11-04 2011-11-04 Image processing apparatus and program

Country Status (1)

Country Link
JP (1) JP5896204B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018123413A1 (en) * 2016-12-27 2018-07-05 シャープ株式会社 Image processing device, image printing device, imaging device, and image processing program
CN110516707A (en) * 2019-07-19 2019-11-29 深圳力维智联技术有限公司 A kind of image labeling method and its device, storage medium
WO2022019171A1 (en) * 2020-07-20 2022-01-27 ソニーグループ株式会社 Information processing device, information processing method, and program
CN114037634A (en) * 2021-11-25 2022-02-11 阿坝师范学院 Oil painting style identification method based on image

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004303193A (en) * 2003-03-20 2004-10-28 Omron Corp Image processor
JP2011166404A (en) * 2010-02-09 2011-08-25 Casio Computer Co Ltd Image processing device, image processing method, image display method, and program

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004303193A (en) * 2003-03-20 2004-10-28 Omron Corp Image processor
JP2011166404A (en) * 2010-02-09 2011-08-25 Casio Computer Co Ltd Image processing device, image processing method, image display method, and program

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018123413A1 (en) * 2016-12-27 2018-07-05 シャープ株式会社 Image processing device, image printing device, imaging device, and image processing program
US11042724B2 (en) 2016-12-27 2021-06-22 Sharp Kabushiki Kaisha Image processing device, image printing device, imaging device, and non-transitory medium
CN110516707A (en) * 2019-07-19 2019-11-29 深圳力维智联技术有限公司 A kind of image labeling method and its device, storage medium
WO2022019171A1 (en) * 2020-07-20 2022-01-27 ソニーグループ株式会社 Information processing device, information processing method, and program
CN114037634A (en) * 2021-11-25 2022-02-11 阿坝师范学院 Oil painting style identification method based on image

Also Published As

Publication number Publication date
JP5896204B2 (en) 2016-03-30

Similar Documents

Publication Publication Date Title
US9100678B2 (en) Image display method, server, and image display system
TWI325567B (en) Method and system for enhancing portrait images that are processed in a batch mode
EP1372109A2 (en) Method and system for enhancing portrait images
JP2003134352A (en) Image processing method and apparatus, and program therefor
US9098534B2 (en) Image display system, image display method, social network service system, and computer-readable medium
CN106530309A (en) Video matting method and system based on mobile platform
US9020255B2 (en) Image processing apparatus, image processing method, and storage medium
JP5569504B2 (en) Image processing apparatus, image processing method, and program
JP2007241424A (en) Image processor and image processing method
JP5896204B2 (en) Image processing apparatus and program
US20120250997A1 (en) Image processing apparatus, image processing method, and storage medium
JP2018014646A (en) Image processing apparatus and image processing method
CN112839167B (en) Image processing method, device, electronic equipment and computer readable medium
JP2004240622A (en) Image processing method, image processor and image processing program
KR100422470B1 (en) Method and apparatus for replacing a model face of moving image
JP4359662B2 (en) Color image exposure compensation method
JP3640897B2 (en) Conversion program for painting-like images
JP2013131077A (en) Image processor, image processing method and program and image processing system
KR20010102873A (en) Method and system for generating an avatar of real-picture using finite image templates
JP5050141B2 (en) Color image exposure evaluation method
KR20070096621A (en) The system and method for making a caricature using a shadow plate
JP5532004B2 (en) Image processing apparatus, image processing method, and program
JP2012134897A (en) Image tone conversion method, image tone conversion device, image tone conversion system, and program
Zavalishin et al. Visually aesthetic image contrast enhancement
JP2005301337A (en) Apparatus and method for image processing, and program

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20140702

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140826

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150528

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150616

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150730

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160204

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160217

R150 Certificate of patent or registration of utility model

Ref document number: 5896204

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees