JP6880799B2 - Image processing equipment, image processing system and programs - Google Patents

Image processing equipment, image processing system and programs Download PDF

Info

Publication number
JP6880799B2
JP6880799B2 JP2017022843A JP2017022843A JP6880799B2 JP 6880799 B2 JP6880799 B2 JP 6880799B2 JP 2017022843 A JP2017022843 A JP 2017022843A JP 2017022843 A JP2017022843 A JP 2017022843A JP 6880799 B2 JP6880799 B2 JP 6880799B2
Authority
JP
Japan
Prior art keywords
image
composite
boundary
source image
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017022843A
Other languages
Japanese (ja)
Other versions
JP2018128946A (en
Inventor
山本 隆之
隆之 山本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Fujifilm Business Innovation Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd, Fujifilm Business Innovation Corp filed Critical Fuji Xerox Co Ltd
Priority to JP2017022843A priority Critical patent/JP6880799B2/en
Publication of JP2018128946A publication Critical patent/JP2018128946A/en
Application granted granted Critical
Publication of JP6880799B2 publication Critical patent/JP6880799B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Editing Of Facsimile Originals (AREA)

Description

本発明は、画像処理装置、画像処理システム及びプログラムに関する。 The present invention relates to an image processing apparatus, an image processing system and a program.

特許文献1は、境界領域を違和感なく合成するために、ソース画像とターゲット画像の境界上の画素値が一致することを条件として境界領域においてコスト関数を定義し、最適化問題を解くことを提案している。 Patent Document 1 proposes to define a cost function in the boundary region and solve an optimization problem on condition that the pixel values on the boundary between the source image and the target image match in order to synthesize the boundary region without discomfort. doing.

特許第4316571号公報Japanese Patent No. 4316571

ところが、境界上の画素値を基準に合成領域内(ソース画像が貼り付けられる領域内)の画素値を一律に補正する手法では、オリジナルのソース画像やターゲット画像が有している陰影やテクスチャをどの程度残すかをユーザが調整できない。その結果、合成後の画像に違和感が生じることがある。 However, with the method of uniformly correcting the pixel values in the composite area (in the area where the source image is pasted) based on the pixel values on the boundary, the shadows and textures of the original source image and target image are corrected. The user cannot adjust how much to leave. As a result, the combined image may look strange.

本発明は、境界上の画素値を基準に合成領域内の画素値を一律に補正する場合とは異なり、オリジナルの画像が有する陰影やテクスチャの残し具合を調整できるようにすることを目的とする。 An object of the present invention is to make it possible to adjust the degree of shading and texture remaining in the original image, unlike the case where the pixel values in the composite region are uniformly corrected based on the pixel values on the boundary. ..

請求項1に記載の発明は、第1の画像に貼り付けられる第2の画像と、当該第2の画像が貼り付けられる領域部分との両方又は一方に含まれる明領域又は暗領域の合成結果への反映度合を設定する設定部と、設定された前記反映度合に応じて画素情報の補正量が調整された前記第2の画像を前記第1の画像に貼り付ける貼付部とを有し、前記補正量は、前記第1の画像との合成境界から前記第2の画像を構成する各画素までの距離と、前記第1の画像と前記第2の画像との合成境界における差分値とに応じて計算される、画像処理装置である
請求項に記載の発明は、前記反映度合はユーザの操作入力を通じて調整されることを特徴とする請求項1記載の画像処理装置である
請求項に記載の発明は、第1の画像に貼り付けられる第2の画像と、当該第2の画像が貼り付けられる領域部分との両方又は一方に含まれる明領域又は暗領域の合成結果への反映度合を設定する設定部と、設定された前記反映度合に応じて画素情報の補正量が調整された前記第2の画像を前記第1の画像に貼り付ける貼付部とを有する画像処理装置と、前記第1の画像と前記第2の画像との合成作業に用いる作業画面を表示する表示装置とを有し、前記画像処理装置は、前記第1の画像との合成境界から前記第2の画像を構成する各画素までの距離と、前記第1の画像と前記第2の画像との合成境界における差分値とに応じて前記補正量を計算する、画像処理システムである。
請求項4に記載の発明は、前記反映度合はユーザの操作入力を通じて調整されることを特徴とする請求項3に記載の画像処理システムである。
請求項に記載の発明は、コンピュータに、第1の画像に貼り付けられる第2の画像と、当該第2の画像が貼り付けられる領域部分との両方又は一方に含まれる明領域又は暗領域の合成結果への反映度合を設定する機能と、設定された前記反映度合に応じて画素情報の補正量が調整された前記第2の画像を前記第1の画像に貼り付ける機能とを実現させるためのプログラムであり、前記コンピュータに、前記第1の画像との合成境界から前記第2の画像を構成する各画素までの距離と、前記第1の画像と前記第2の画像との合成境界における差分値とに応じた前記補正量を計算させる、プログラムである。
請求項6に記載の発明は、前記反映度合はユーザの操作入力を通じて調整されること
を特徴とする請求項5に記載のプログラムである。
The invention according to claim 1 is a composite result of a bright region or a dark region included in both or one of a second image attached to the first image and a region portion to which the second image is attached. It has a setting unit for setting the degree of reflection on the image and a pasting unit for pasting the second image in which the correction amount of pixel information is adjusted according to the set degree of reflection on the first image. The correction amount is determined by the distance from the composite boundary with the first image to each pixel constituting the second image and the difference value at the composite boundary between the first image and the second image. It is an image processing device that is calculated accordingly .
The invention according to claim 2, wherein the reflection degree is an image processing apparatus according to claim 1, characterized in that it is adjusted through the operation input of the user.
The invention according to claim 3 is a composite result of a bright region or a dark region included in both or one of a second image attached to the first image and a region portion to which the second image is attached. An image process having a setting unit for setting the degree of reflection on the image and a pasting unit for pasting the second image whose pixel information correction amount is adjusted according to the set degree of reflection on the first image. The image processing apparatus includes an apparatus and a display apparatus for displaying a work screen used for compositing the first image and the second image, and the image processing apparatus is the first from the compositing boundary with the first image. This is an image processing system that calculates the correction amount according to the distance to each pixel constituting the image 2 and the difference value at the composite boundary between the first image and the second image.
The invention according to claim 4 is the image processing system according to claim 3, wherein the degree of reflection is adjusted through a user's operation input.
The invention according to claim 5 is a bright area or a dark area included in both or one of a second image attached to a first image and a region portion to which the second image is attached to a computer. A function of setting the degree of reflection in the composite result and a function of pasting the second image in which the correction amount of pixel information is adjusted according to the set degree of reflection on the first image are realized. This is a program for the computer, the distance from the composite boundary with the first image to each pixel constituting the second image, and the composite boundary between the first image and the second image. This is a program for calculating the correction amount according to the difference value in.
In the invention according to claim 6, the degree of reflection is adjusted through a user's operation input.
The program according to claim 5.

請求項1記載の発明によればオリジナル画像が有する陰影やテクスチャの残し具合を調整しながら、境界部分で第1の画像と第2の画像を滑らかに接続できる
請求項記載の発明によれば、オリジナル画像が有する陰影やテクスチャ感の残し具合をユーザが調整できる
請求項記載の発明によれば、オリジナル画像が有する陰影やテクスチャの残し具合を調整しながら、境界部分で第1の画像と第2の画像を滑らかに接続できる。
請求項4記載の発明によれば、オリジナル画像が有する陰影やテクスチャ感の残し具合をユーザが調整できる。
請求項記載の発明によれば、オリジナル画像が有する陰影やテクスチャの残し具合を調整しながら、境界部分で第1の画像と第2の画像を滑らかに接続できる。
請求項6記載の発明によれば、オリジナル画像が有する陰影やテクスチャ感の残し具合をユーザが調整できる。
According to the first aspect of the present invention, the first image and the second image can be smoothly connected at the boundary portion while adjusting the degree of shading and texture remaining in the original image .
According to the second aspect of the present invention, the user can adjust the degree of shading and texture remaining in the original image .
According to the third aspect of the present invention, the first image and the second image can be smoothly connected at the boundary portion while adjusting the degree of shading and texture remaining in the original image.
According to the invention of claim 4, the user can adjust the degree of shading and texture remaining in the original image.
According to the fifth aspect of the present invention, the first image and the second image can be smoothly connected at the boundary portion while adjusting the degree of shading and texture remaining in the original image.
According to the invention of claim 6, the user can adjust the degree of shading and texture remaining in the original image.

実施の形態に係る画像処理装置のハードウェア構成例を示すブロック図である。It is a block diagram which shows the hardware configuration example of the image processing apparatus which concerns on embodiment. 貼り付け対象としてのソース画像Sと貼り付け先としてのターゲット画像Tとの関係を説明する図である。It is a figure explaining the relationship between the source image S as a paste target, and the target image T as a paste destination. 本機能構成に係る制御部の機能構成1を示すブロック図である。It is a block diagram which shows the functional structure 1 of the control part which concerns on this function structure. 重みλの計算で使用するwの算出過程を説明する図である。Is a diagram illustrating a calculation process of w i to be used in the calculation of the weights lambda i. 合成領域CRにおいて、陰影またはテクスチャを残す度合を調整(強調又は抑制)するために用意するユーザインターフェース画面の一例である。This is an example of a user interface screen prepared for adjusting (emphasizing or suppressing) the degree of leaving a shadow or texture in the composite area CR. ソース画像Sの合成領域CR内における画素値の分布と、ターゲット画像Tにおける画面全体の画素値の分布を説明する図である。It is a figure explaining the distribution of the pixel value in the composite area CR of the source image S, and the distribution of the pixel value of the whole screen in the target image T. 暗部重みD(i,j)を用いずにソース画像Sの画素値を補正する場合の画素値の分布を説明する図である。It is a figure explaining the distribution of the pixel value when the pixel value of the source image S is corrected without using the dark part weight D (i, j). 暗部重みD(i,j)を用いてソース画像Sの画素値を補正する場合の画素値の分布を説明する図である。It is a figure explaining the distribution of the pixel value at the time of correcting the pixel value of the source image S using the dark part weight D (i, j). ソース画像Sの合成領域CR内における画素値の分布と、ターゲット画像Tにおける画面全体の画素値の分布を説明する図である。It is a figure explaining the distribution of the pixel value in the composite area CR of the source image S, and the distribution of the pixel value of the whole screen in the target image T. 暗部重みD(i,j)を用いずにソース画像Sの画素値を補正する場合の画素値の分布を説明する図である。It is a figure explaining the distribution of the pixel value when the pixel value of the source image S is corrected without using the dark part weight D (i, j). 暗部重みD(i,j)を用いてソース画像Sの画素値を補正する場合の画素値の分布を説明する図である。It is a figure explaining the distribution of the pixel value at the time of correcting the pixel value of the source image S using the dark part weight D (i, j). 本機能構成に係る制御部の機能構成2を示すブロック図である。It is a block diagram which shows the functional structure 2 of the control part which concerns on this function structure. ソース画像Sの合成領域CR内における画素値の分布と、ターゲット画像Tにおける画面全体の画素値の分布を説明する図である。It is a figure explaining the distribution of the pixel value in the composite area CR of the source image S, and the distribution of the pixel value of the whole screen in the target image T. 暗部重みD(i,j)を用いずにソース画像Sの画素値を補正する場合の画素値の分布を説明する図である。It is a figure explaining the distribution of the pixel value when the pixel value of the source image S is corrected without using the dark part weight D (i, j). 暗部重みD(i,j)を用いてソース画像Sの画素値を補正する場合の画素値の分布を説明する図である。It is a figure explaining the distribution of the pixel value at the time of correcting the pixel value of the source image S using the dark part weight D (i, j). ソース画像Sの合成領域CR内における画素値の分布と、ターゲット画像Tにおける画面全体の画素値の分布を説明する図である。It is a figure explaining the distribution of the pixel value in the composite area CR of the source image S, and the distribution of the pixel value of the whole screen in the target image T. 暗部重みD(i,j)を用いずにソース画像Sの画素値を補正する場合の画素値の分布を説明する図である。It is a figure explaining the distribution of the pixel value when the pixel value of the source image S is corrected without using the dark part weight D (i, j). 暗部重みD(i,j)を用いてソース画像Sの画素値を補正する場合の画素値の分布を説明する図である。It is a figure explaining the distribution of the pixel value at the time of correcting the pixel value of the source image S using the dark part weight D (i, j). 本機能構成に係る制御部の機能構成3を示すブロック図である。It is a block diagram which shows the functional structure 3 of the control part which concerns on this function structure.

以下、添付図面を参照して、本発明の実施の形態について詳細に説明する。 Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.

<画像処理装置の構成>
図1は、実施の形態に係る画像処理装置1のハードウェア構成例を示すブロック図である。
本実施の形態に係る画像処理装置1は、画像処理演算を実行すると共に装置を構成する各部の動作を制御する制御部100と、画像データ等を記憶する記憶部200と、処理対象とする画像や処理結果を表示する表示部300と、装置に対するユーザの指示の受け付けに使用される操作部400と、処理対象とする画像データの取得に用いられる画像取得部500と、各部を接続するバス600とを有している。
画像処理装置1は、特許請求の範囲における「画像処理システム」の一例である。また、表示部300は、特許請求の範囲における「表示装置」の一例である。
<Configuration of image processing device>
FIG. 1 is a block diagram showing a hardware configuration example of the image processing device 1 according to the embodiment.
The image processing device 1 according to the present embodiment includes a control unit 100 that executes an image processing calculation and controls the operation of each unit constituting the device, a storage unit 200 that stores image data and the like, and an image to be processed. A display unit 300 for displaying the processing result, an operation unit 400 used for receiving a user's instruction to the device, an image acquisition unit 500 used for acquiring image data to be processed, and a bus 600 connecting each unit. And have.
The image processing device 1 is an example of an "image processing system" within the scope of claims. The display unit 300 is an example of a "display device" within the scope of the claims.

制御部100は、不図示のCPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)を含む、いわゆるコンピュータとして構成される。
ROMは、CPUにより実行される制御プログラムを記憶している。CPUは、ROMに記憶されているプログラムを読み出し、RAMを作業エリアに使用してプログラムを実行する。
The control unit 100 is configured as a so-called computer including a CPU (Central Processing Unit), a ROM (Read Only Memory), and a RAM (Random Access Memory) (not shown).
The ROM stores a control program executed by the CPU. The CPU reads the program stored in the ROM and executes the program using the RAM as the work area.

なお、CPUによって実行されるプログラムは、制御部100内のROMではなく、記憶部200等の他の記憶装置に記憶されていてもよい。プログラムは、例えば磁気記録媒体(磁気テープ、磁気ディスク等)、光記録媒体(光ディスク等)、光磁気記録媒体、半導体メモリ等のコンピュータが読取可能な記録媒体に記憶される。なお、CPUによって実行されるプログラムは、インターネット等の通信手段を用いて、画像処理装置1にダウンロードされてもよい。 The program executed by the CPU may be stored in another storage device such as the storage unit 200 instead of the ROM in the control unit 100. The program is stored in a computer-readable recording medium such as a magnetic recording medium (magnetic tape, magnetic disk, etc.), an optical recording medium (optical disk, etc.), an optical magnetic recording medium, or a semiconductor memory. The program executed by the CPU may be downloaded to the image processing device 1 by using a communication means such as the Internet.

記憶部200は、例えばハードディスク装置により構成され、貼り付け先となるターゲット画像Tや貼り付けられるソース画像Sに対応する画像データを含む各種のデータが記憶される。
表示部300は、例えば液晶ディスプレイや有機EL(organic electroluminescence)ディスプレイ等により構成され、制御部100による制御の下、貼り付け合成で扱うソース画像Sやターゲット画像Tを表示する。
これらの画像は、「操作画面」の一例としてのユーザインターフェース画面に表示される。ユーザが、ユーザインターフェース画面を通じてソース画像Sをターゲット画像Tに貼り付け合成する作業が「合成作業」の一例である。
The storage unit 200 is configured by, for example, a hard disk device, and stores various data including image data corresponding to the target image T to be pasted and the source image S to be pasted.
The display unit 300 is composed of, for example, a liquid crystal display, an organic EL (organic electroluminescence) display, or the like, and under the control of the control unit 100, displays the source image S and the target image T handled in the paste composition.
These images are displayed on the user interface screen as an example of the "operation screen". An example of "composite work" is a work in which a user pastes a source image S on a target image T through a user interface screen and synthesizes the image.

操作部400は、ユーザの操作を受け付ける入力装置であり、例えば液晶ディスプレイの表面側に配置されるタッチパネル、マウス、キーボード等により構成される。
画像取得部500は、処理対象とする画像データの取得に用いられる装置であり、例えば外部機器との接続インターフェースにより構成される。画像取得部500により取得された画像データは、記憶部200に記憶される。
The operation unit 400 is an input device that accepts user operations, and is composed of, for example, a touch panel, a mouse, a keyboard, etc. arranged on the surface side of the liquid crystal display.
The image acquisition unit 500 is a device used for acquiring image data to be processed, and is composed of, for example, a connection interface with an external device. The image data acquired by the image acquisition unit 500 is stored in the storage unit 200.

<用語>
図2は、貼り付け対象としてのソース画像Sと貼り付け先としてのターゲット画像Tとの関係を説明する図である。
図2の場合、ソース画像Sは、x軸方向及びy軸方向のいずれに対しても、ターゲット画像Tより短く、ソース画像Sの全体がターゲット画像Tに含まれる。ここでのソース画像Sは、特許請求の範囲における「第2の画像」の一例であり、ターゲット画像Tは「第1の画像」の一例である。
なお、本実施の形態における制御部100は、ソース画像Sをターゲット画像Tに貼り付け合成した際に、2つの画像の重複部分(合成領域CR)にオリジナル画像の陰影やテクスチャ感を残し、かつ、ソース画像Sとターゲット画像Tのつなぎ目が目立たないように合成処理できればよいので、ソース画像Sがターゲット画像Tより常に小さい必要はない。
<Terminology>
FIG. 2 is a diagram for explaining the relationship between the source image S as the paste target and the target image T as the paste destination.
In the case of FIG. 2, the source image S is shorter than the target image T in both the x-axis direction and the y-axis direction, and the entire source image S is included in the target image T. The source image S here is an example of the "second image" in the claims, and the target image T is an example of the "first image".
When the source image S is pasted on the target image T and combined, the control unit 100 in the present embodiment leaves the shadow and texture of the original image in the overlapping portion (composite area CR) of the two images, and also The source image S does not have to be always smaller than the target image T, as long as the joint between the source image S and the target image T can be combined so as not to be conspicuous.

ソース画像Sの外縁部分は、貼り付け合成後のソース画像側境界BSを与える。一方、ソース画像Sの貼り付け先となるターゲット画像T側の部分領域(すなわち合成領域CR)の外縁部分は、貼り付け合成後のターゲット画像側境界BTを与える。以下では、ソース画像側境界BSとターゲット画像側境界BTを合わせて合成境界ともいう。
貼り付け合成によって生成される合成画像において、ソース画像側境界BS上の画素とターゲット画像側境界BTの画素は同じ画素となる。
合成領域CRは、ソース画像Sの貼り付け作業中又は貼り付け作業の完了時点で、ソース画像Sと重なっているターゲット画像T側の部分領域をいう。
The outer edge portion of the source image S provides the source image side boundary BS after pasting and compositing. On the other hand, the outer edge portion of the partial region on the target image T side (that is, the composite region CR) to which the source image S is pasted gives the target image side boundary BT after pasting and compositing. In the following, the source image side boundary BS and the target image side boundary BT are collectively referred to as a composite boundary.
In the composite image generated by the paste composition, the pixels on the source image side boundary BS and the pixels of the target image side boundary BT are the same pixels.
The composite area CR refers to a partial area on the target image T side that overlaps with the source image S during the pasting work of the source image S or at the completion of the pasting work.

本実施の形態において、合成境界が目立たないとは、ソース画像側境界BSとターゲット画像側境界BTとを視覚的に判別できないほどに各境界に位置する画素の明るさ(輝度、明度等)や色差が小さいことをいう。より具体的には、合成境界における明るさの変化や色の変化が、ソース画像Sとターゲット画像Tの間で滑らか(連続的)であることをいう。 In the present embodiment, the fact that the composite boundary is inconspicuous means that the brightness (brightness, brightness, etc.) of the pixels located at each boundary is such that the source image side boundary BS and the target image side boundary BT cannot be visually distinguished. It means that the color difference is small. More specifically, it means that the change in brightness and the change in color at the composite boundary are smooth (continuous) between the source image S and the target image T.

<画像処理装置の機能構成>
以下では、制御部100によるプログラムの実行を通じて実現される機能構成について説明する。
プログラムの実行を通じて実現される機能構成は様々であるが、以下では、便宜的に機能構成1、機能構成2、機能構成3と呼ぶ。これらの機能構成では、画像内の暗い領域(以下「暗領域」という。)における陰影やテクスチャの保存を目的とする。
<Functional configuration of image processing device>
Hereinafter, the functional configuration realized through the execution of the program by the control unit 100 will be described.
There are various functional configurations realized through the execution of the program, but hereinafter, they are referred to as functional configuration 1, functional configuration 2, and functional configuration 3 for convenience. These functional configurations aim to preserve shadows and textures in dark areas (hereinafter referred to as "dark areas") in an image.

<機能構成1>
図3は、本機能構成に係る制御部100の機能構成1を示すブロック図である。
本機能構成に係る制御部100は、ソース画像Sとターゲット画像Tの合成境界上の画素情報の境界差分dを計算する合成境界上の差分計算部110と、合成境界からの距離に応じた重みλを与える距離重み計算部111と、ソース画像Sの暗い領域ほどオリジナル画像の画素情報を残すように暗部重みD(i、j)を与える暗部重み計算部112と、合成領域CR内の各画素(ソース画像Sの各画素)に付与する差分値ΔI(i、j)を計算する合成領域内の差分計算部113と、算出された差分値ΔI(i、j)に基づいてターゲット画像Tとのつなぎ目が目立たないようにソース画像Sを補正してターゲット画像Tに合成する合成部114として機能する。合成部114は、合成結果画像I’(i,j)を出力する。
ここでの暗部重み計算部112は、特許請求の範囲における「設定部」の一例であり、合成境界上の差分計算部110、合成境界内の差分計算部113と、距離重み計算部111と、合成部114は、特許請求の範囲における「貼付部」の一例である。
<Functional configuration 1>
FIG. 3 is a block diagram showing a functional configuration 1 of the control unit 100 according to this functional configuration.
Controller 100 according to the present functional configuration, a difference calculation unit 110 on the synthesis boundary to calculate the boundary difference d P of the pixel information on the synthesis boundary of the source image S and the target image T, corresponding to the distance from the synthesis boundary The distance weight calculation unit 111 that gives the weight λ i , the dark area weight calculation unit 112 that gives the dark area weight D (i, j) so that the darker the area of the source image S remains the pixel information of the original image, and the composite area CR. The target image is based on the difference calculation unit 113 in the composite region for calculating the difference value ΔI (i, j) given to each pixel (each pixel of the source image S) and the calculated difference value ΔI (i, j). It functions as a compositing unit 114 that corrects the source image S so that the joint with T is not conspicuous and synthesizes it with the target image T. The compositing unit 114 outputs the compositing result image I'(i, j).
The dark part weight calculation unit 112 here is an example of the "setting unit" in the claims, and includes the difference calculation unit 110 on the composite boundary, the difference calculation unit 113 within the composite boundary, the distance weight calculation unit 111, and the distance weight calculation unit 111. The synthesis unit 114 is an example of a “sticking unit” within the scope of the claims.

<各部の処理動作>
まず、合成境界上の差分計算部110が実行する処理動作の内容を説明する。
合成境界上の差分計算部110は、ソース画像側境界BS(図2参照)上の画素値とターゲット画像側境界BT(図2参照)上の画素値との境界差分dを計算する機能部分である。
以下では、画素値がRGB色空間で表現されるものとする。ここで、ターゲット画像側境界BT上に位置する各画素の画素値をR、G、Bとし、ソース画像側境界BS上に位置する各画素の画素値をR、G、Bとすると、合成境界上で対応する画素位置における画素値の差分(以下、「境界差分」という。)dの色成分dR、dG、dBは、式1〜式3により求められる。
dR=R−R …式1
dG=G−G …式2
dB=B−B …式3
<Processing operation of each part>
First, the content of the processing operation executed by the difference calculation unit 110 on the composite boundary will be described.
Difference calculation unit 110 on the synthesis boundaries, functional portion for calculating a boundary difference d P of the pixel value of the pixel values of the source image side boundary BS (see FIG. 2) and the target image side boundary BT (see FIG. 2) Is.
In the following, it is assumed that the pixel values are represented in the RGB color space. Here, the pixel value R T of each pixel located on the target image side boundary BT, G T, and B T, the pixel values of the pixels located on the source image side boundary BS R S, G S, B When S, the difference of pixel values in corresponding pixel positions on the synthesis boundary (hereinafter, referred to as "boundary difference".) d P color components dR i, dG i, dB i is calculated by formulas 1 to 3 ..
dR i = RT- RS ... Expression 1
dG i = G T -G S ... Equation 2
dB i = B T -B S ... Equation 3

次に、距離重み計算部111が実行する処理動作の内容を説明する。距離重み計算部111は、ソース画像S内の各位置x(i,j)に対する合成境界上の各画素からの距離重みλを式4によって求める。 Next, the content of the processing operation executed by the distance weight calculation unit 111 will be described. The distance weight calculation unit 111 obtains the distance weight λ i from each pixel on the composite boundary for each position x (i, j) in the source image S by the equation 4.

Figure 0006880799
Figure 0006880799

ここで、iはソース画像側境界BS上の画素位置を特定するためのインデックスである。インデックスは、ソース画像側境界BS上のある画素位置を0として一方向に(例えば時計回り又は反時計回りに)、ソース画像側境界BS上の全ての画素に対して付与される。式4では、ソース画像側境界BS上にn個の画素が存在するものとして表している。なお、wは、式5によって計算される値である。 Here, i is an index for specifying the pixel position on the source image side boundary BS. The index is given to all the pixels on the source image side boundary BS in one direction (for example, clockwise or counterclockwise) with a certain pixel position on the source image side boundary BS as 0. In Equation 4, it is expressed assuming that n b pixels exist on the boundary BS on the source image side. Incidentally, w i is the value calculated by Equation 5.

Figure 0006880799
Figure 0006880799

図4は、重みλの計算で使用するwの算出過程を説明する図である。図4において濃い網掛けを付した画素は、合成領域CRに貼り付けられたソース画像側境界BS上にある画素であり、前述したインデックスiが付与される。図4において薄い網掛けを付した画素は、合成領域CRに貼り付けられたソース画像Sのうちソース画像側境界BSを除く画素である。 Figure 4 is a diagram for explaining the calculation process of w i to be used in the calculation of the weights lambda i. The darkly shaded pixels in FIG. 4 are pixels on the source image side boundary BS attached to the composite area CR, and are given the index i described above. The lightly shaded pixels in FIG. 4 are the pixels of the source image S pasted on the composite area CR excluding the source image side boundary BS.

図中、Pは、インデックスiで特定される合成境界上にある画素を与える位置を表しており、xは、ソース画像Sのうちソース画像側境界BSを除く画素の位置を与えている。
αは、インデックスiに対応する位置Pから位置xへのベクトルと、インデックスi+1に対応する位置Pi+1から位置xへのベクトルとがなす角度である。
なお、計算過程で、インデックスiがnとなる場合には、インデックス0に置き換えて扱う。
In the figure, P i represents a position for giving a pixel on the composite boundary specified by the index i, and x gives a position of a pixel in the source image S excluding the source image side boundary BS.
alpha i is a vector from a position P i corresponding to the index i to the position x, which is the angle between vector from the position P i + 1 corresponding to the index i + 1 to the position x.
If the index i becomes n b in the calculation process, it is replaced with the index 0.

式5より、位置xについてのwは、位置xで与えられる画素がソース画像Sの合成境界に近いほど急激に大きくなり、ソース画像Sの合成境界から遠ざかるほど急激に小さい値となる。
従って、式4における位置xに対するソース画像側境界BS上のi番目の画素からの距離重みλは、ソース画像側境界BS上における全ての画素(インデックス0〜nb−1)について計算されたwの合計値に対するi番目の画素について計算されたwの比率として与えられる。
From Equation 5, the w i of the position x, the pixels provided at the position x is more rapidly increases close to the synthesis boundary of the source image S, the higher the sharply lower value away from synthesis boundary of the source image S.
Therefore, the distance weight λ i from the i-th pixel on the source image side boundary BS with respect to the position x in Equation 4 was calculated for all the pixels (index 0 to n b-1) on the source image side boundary BS. It is given as the ratio of the calculated w i for the i-th pixel to the total value of w j.

次に、暗部重み計算部112が実行する処理動作の内容を説明する。
本実施の形態における暗部重み計算部112は、貼り付けられるソース画像Sに含まれる暗領域の情報が保存されやすくなるように暗部重みD(i,j)を計算する機能部分である。本実施の形態の場合、暗部重み計算部112は、暗部重みD(i,j)を式6により求める。
D(i,j)={V(i,j)}γ …式6
ここでの暗部重みD(i,j)が、特許請求の範囲における「反映度合」に相当する。
Next, the contents of the processing operation executed by the dark part weight calculation unit 112 will be described.
The dark part weight calculation unit 112 in the present embodiment is a functional part that calculates the dark part weight D (i, j) so that the information of the dark area included in the pasted source image S can be easily stored. In the case of the present embodiment, the dark part weight calculation unit 112 obtains the dark part weight D (i, j) by the equation 6.
D (i, j) = {V (i, j)} γ ... Equation 6
The dark part weight D (i, j) here corresponds to the “degree of reflection” in the claims.

本実施の形態の場合、V(i,j)は、HSV色空間におけるソース画像Sの明度成分であり、γは、どの程度の明るさを暗部として扱うかを決定する固定パラメータである。
詳細については後述するが、本実施の形態の場合、ソース画像Sを構成する各画素に対する補正量は、合成境界上の各画素における境界差分dを基準に計算されるため、暗領域の情報を保存するためには、暗い領域ほど補正量が小さくなる必要がある。
そこで、暗部重み計算部112は、暗いほど暗部重みD(i,j)が小さくなるように固定パラメータγの値を定める。なお、暗領域以外の画素について用いられる暗部重みD(i,j)は、境界差分dと距離重みλとで定まる補正量と同じか近い値になるものとする。
In the case of the present embodiment, V (i, j) is a lightness component of the source image S in the HSV color space, and γ is a fixed parameter that determines how much brightness is treated as a dark part.
Although the details will be described later, in the case of the present embodiment, the correction amount for each pixel constituting the source image S is calculated based on the boundary difference d P in each pixel on the composite boundary, so that the information in the dark region is used. In order to save the image, the darker the area, the smaller the correction amount is required.
Therefore, the dark part weight calculation unit 112 determines the value of the fixed parameter γ so that the darker the dark part weight D (i, j) becomes smaller. The dark part weight D (i, j) used for the pixels other than the dark area is assumed to be the same as or close to the correction amount determined by the boundary difference d P and the distance weight λ i.

ところで、暗いほど暗部重みD(i,j)が小さい値となる関数であれば、式6に示す計算式である必要はない。
また、本実施の形態では、HSV色空間における明度成分を利用する例を示しているが、CIELにおけるLなど、画素の明暗を示す値であれば他の値を用いても良い。
By the way, if it is a function in which the dark part weight D (i, j) becomes smaller as it gets darker, it is not necessary to use the calculation formula shown in Equation 6.
Further, in the present embodiment, an example of using the brightness component in the HSV color space is shown, but if it is a value indicating the brightness and darkness of the pixel, such as L * in CIEL * a * b *, another value is used. Is also good.

また、固定パラメータγの値はユーザが調整できることが望ましい。図5は、合成領域CRにおいて、陰影またはテクスチャを残す度合いを調整(強調又は抑制)するために用意されるユーザインターフェース画面200Aの一例である。図5の例では、情報を残す画像としてソース画像ボタン201がポインタ205で選択された様子を表している。なお、ターゲット画像ボタン202は選択されていないためグレー表示されている。
また、ユーザインターフェース画面200Aには、陰影またはテクスチャを残す度合いを増やすためのプラスボタン203と反対に減らすためのマイナスボタン204が配置されている。前述した暗部重み計算部112は、プラスボタン203又はマイナスボタン204に対する操作入力に応じて固定パラメータγの値を調整する。
Further, it is desirable that the value of the fixed parameter γ can be adjusted by the user. FIG. 5 is an example of a user interface screen 200A prepared for adjusting (emphasizing or suppressing) the degree of leaving shadows or textures in the composite area CR. In the example of FIG. 5, the source image button 201 is selected by the pointer 205 as an image for which information is left. Since the target image button 202 is not selected, it is grayed out.
Further, on the user interface screen 200A, a minus button 204 for reducing the shadow or texture is arranged as opposed to a plus button 203 for increasing the degree of leaving a shadow or texture. The dark portion weight calculation unit 112 described above adjusts the value of the fixed parameter γ according to the operation input for the plus button 203 or the minus button 204.

次に、合成領域内の差分計算部113が実行する処理動作の内容を説明する。
差分計算部113は、前述した各部によって計算された境界差分d、距離重みλ、暗部重みD(i,j)に基づいて、ソース画像S内の各画素についての合成領域差分ΔI(i,j)を計算する機能部分である。ここでの合成領域差分ΔI(i,j)が、特許請求の範囲における「画素情報の補正量」に相当する。
Next, the contents of the processing operation executed by the difference calculation unit 113 in the synthesis area will be described.
The difference calculation unit 113 is based on the boundary difference d P , the distance weight λ i , and the dark part weight D (i, j) calculated by each of the above-mentioned units, and the composite area difference ΔI (i) for each pixel in the source image S. , J) is a functional part that calculates. The composite area difference ΔI (i, j) here corresponds to the “correction amount of pixel information” in the claims.

本実施の形態における差分計算部113は、式7〜式9により、ソース画像Sを構成する各画素についての合成領域差分ΔI(i,j)(具体的には、色成分ΔR、ΔG、ΔB)を計算する。 According to Equations 7 to 9, the difference calculation unit 113 in the present embodiment has a composite region difference ΔI (i, j) (specifically, color components ΔR, ΔG, ΔB) for each pixel constituting the source image S. ) Is calculated.

Figure 0006880799
Figure 0006880799

式7〜式9に示すように、ソース画像S内の各画素x(i,j)に対する合成領域差分ΔIの色成分は、ソース画像側境界BS上の各画素からの距離重みλと対応する境界差分d(dR、dG、dB)との乗算結果の総和に、暗部重みD(i,j)を乗算した値となる。
暗部重みD(i,j)は、暗い領域ほど小さい値になるので、ソース画像Sのうち暗領域の画素の合成領域差分ΔIは小さい値になる。このことは、ソース画像Sの画素情報が保存され易くなることを意味する。
As shown in Equations 7 to 9, the color component of the composite region difference ΔI for each pixel x (i, j) in the source image S corresponds to the distance weight λ i from each pixel on the source image side boundary BS. It is a value obtained by multiplying the sum of the multiplication results with the boundary difference d P (dR i , dG i , dB i ) to be performed by the dark part weight D (i, j).
Since the dark portion weight D (i, j) becomes a smaller value in the darker region, the composite region difference ΔI of the pixels in the dark region in the source image S becomes a smaller value. This means that the pixel information of the source image S can be easily stored.

次に、合成部114が実行する処理動作の内容を説明する。
合成部114は、合成領域差分ΔI(i,j)を用いて画素値を補正したソース画像Sをターゲット画像Tの合成領域CR上に貼り付ける合成処理を実行する機能部分である。
ここで、合成領域CR内の各画素(補正後のソース画像Sの各画素)に対応する色成分R、G、Bは、式10〜式12によって計算される。なお、R、G、Bは、オリジナルのソース画像Sの画素値である。
R=R+ΔR …式10
G=G+ΔG …式11
B=B+ΔB …式12
Next, the contents of the processing operation executed by the synthesis unit 114 will be described.
The compositing unit 114 is a functional portion that executes a compositing process of pasting the source image S whose pixel value is corrected by using the compositing area difference ΔI (i, j) on the compositing area CR of the target image T.
Here, the color components R, G, and B corresponding to each pixel in the composite region CR (each pixel of the corrected source image S) are calculated by Equations 10 to 12. Incidentally, R S, G S, B S is the pixel value of the original source image S.
R = RS + ΔR ... Equation 10
G = G S + ΔG ... Equation 11
B = B S + ΔB ... Equation 12

前述したように、合成領域差分ΔI(i,j)の色成分ΔR、ΔG、ΔBの値は、暗い領域ほど小さい値となる。結果的に、オリジナルのソース画像Sにおける暗領域の画素値が保存される。なお、合成領域CR以外の画素値には、ターゲット画像Tの画素値そのものが用いられる。この結果、合成部114から合成結果画像I’(i,j)が出力される。
本実施の形態では、各画素値がRGB色空間上の値として表現される場合について説明したが、他の色空間を利用しても良い。例えばHSV色空間におけるV値で与えられる明度値あるいは輝度値を利用しても良い。
As described above, the values of the color components ΔR, ΔG, and ΔB of the composite region difference ΔI (i, j) become smaller in the darker regions. As a result, the pixel values in the dark region in the original source image S are stored. The pixel value of the target image T itself is used as the pixel value other than the composite region CR. As a result, the composition result image I'(i, j) is output from the composition unit 114.
In the present embodiment, the case where each pixel value is expressed as a value on the RGB color space has been described, but other color spaces may be used. For example, the brightness value or the brightness value given by the V value in the HSV color space may be used.

以下では、図6〜図8を使用して、本機能構成1による貼り付け合成動作を説明する。図6は、ソース画像Sの合成領域CR内における画素値の分布と、ターゲット画像Tにおける画面全体の画素値の分布を説明する図である。図6に示すソース画像Sの場合、黒レベルに近い画素値を有する領域(暗領域)が含まれている。また、合成境界におけるターゲット画像Tの画素値は、ソース画像Sの画素値よりも高くなっている。この画素値の差分が境界差分dである。 Hereinafter, the paste composition operation according to the present functional configuration 1 will be described with reference to FIGS. 6 to 8. FIG. 6 is a diagram for explaining the distribution of pixel values in the composite region CR of the source image S and the distribution of pixel values of the entire screen in the target image T. In the case of the source image S shown in FIG. 6, a region (dark region) having a pixel value close to the black level is included. Further, the pixel value of the target image T at the composite boundary is higher than the pixel value of the source image S. The difference between the pixel values is the boundary difference d P.

図7は、暗部重み計算部112で計算される暗部重みD(i,j)を用いずに(すなわちD(i,j)=1として)、ソース画像Sの画素値を補正する場合の画素値の分布を説明する図である。図7に示すように、ソース画像S内の各画素には、暗領域か否かによらず、境界差分dと距離重みλによって合成領域差分ΔI(i,j)が計算されるため、陰などの表現に用いられていた暗領域も黒レベルから浮き上がってしまっている。これでは、ソース画像Sが有していた陰影やテクスチャの情報が損なわれてしまう。 FIG. 7 shows the pixels when the pixel value of the source image S is corrected without using the dark part weight D (i, j) calculated by the dark part weight calculation unit 112 (that is, assuming that D (i, j) = 1). It is a figure explaining the distribution of values. As shown in FIG. 7, for each pixel in the source image S, the composite area difference ΔI (i, j) is calculated by the boundary difference d P and the distance weight λ i regardless of whether it is in the dark area or not. The dark areas used to express shadows, etc. have also emerged from the black level. In this case, the shadow and texture information possessed by the source image S is lost.

図8は、暗部重み計算部112で計算される暗部重みD(i,j)を用いて、ソース画像Sの画素値を補正する場合の画素値の分布を説明する図である。図8に示すように、ソース画像S内の暗領域についての合成領域差分ΔI(i,j)は、境界差分dと距離重みλによって計算される値よりも小さい値となるため、オリジナルのソース画像Sの画素値に近い値が保存されている。 FIG. 8 is a diagram for explaining the distribution of pixel values when the pixel values of the source image S are corrected by using the dark area weights D (i, j) calculated by the dark area weight calculation unit 112. As shown in FIG. 8, the composite region difference ΔI (i, j) for the dark region in the source image S is smaller than the value calculated by the boundary difference d P and the distance weight λ i, and thus is the original. A value close to the pixel value of the source image S of is stored.

すなわち、ソース画像Sにおいて陰などの表現に用いられていた暗領域の画素値についてはオリジナルの画素値又はオリジナルに近い値が使用される。結果的に、ソース画像Sが有していた陰影やテクスチャの情報が保存される。
また、合成領域CR内の他の画素における画素値は、境界差分dと距離重みλによって計算される合成領域差分ΔI(i,j)が適用されるため、合成境界の付近におけるソース画像Sとターゲット画像Tの画素値の変化が滑らかになる。結果的に合成境界がユーザによって視認され難い、自然な合成画像が生成される。
That is, the original pixel value or a value close to the original is used for the pixel value in the dark region used for the expression such as shadow in the source image S. As a result, the shading and texture information possessed by the source image S is saved.
Further, since the composite area difference ΔI (i, j) calculated by the boundary difference d P and the distance weight λ i is applied to the pixel values in the other pixels in the composite area CR, the source image near the composite boundary The change in the pixel values of S and the target image T becomes smooth. As a result, a natural composite image is generated in which the composite boundary is difficult for the user to see.

前述の説明では、暗領域の情報を保存する場合、すなわちソース画像Sの暗い領域ほどオリジナルのソース画像Sの画素値が保存される場合について説明したが、明るい領域(以下、「明領域」という。)の情報を保存する処理手法を採用してもよい。
この場合には、暗部重み計算部112に代えて明部重み計算部を使用する。明部重みB(i,j)の計算には、式6における固定パラメータγとして、明るい領域ほど補正量が小さくなるパラメータを用いればよい。
In the above description, the case where the information in the dark region is saved, that is, the case where the pixel value of the original source image S is saved in the darker region of the source image S has been described. A processing method for storing the information in) may be adopted.
In this case, the bright part weight calculation unit is used instead of the dark part weight calculation unit 112. In the calculation of the bright part weight B (i, j), as the fixed parameter γ in the equation 6, a parameter in which the correction amount becomes smaller in the brighter region may be used.

以下では、図9〜図11を使用して、ソース画像Sの明領域の情報を保存する場合の処理イメージを説明する。
図9は、ソース画像Sの合成領域CR内における画素値の分布と、ターゲット画像Tにおける画面全体の画素値の分布を説明する図である。図9に示すソース画像Sの場合、白レベルに近い画素値を有する領域(明領域)が含まれている。また、合成境界におけるターゲット画像Tの画素値は、ソース画像Sの画素値よりも低くなっている。この画素値の差分が境界差分dである。
In the following, processing images in the case of saving the information in the bright region of the source image S will be described with reference to FIGS. 9 to 11.
FIG. 9 is a diagram for explaining the distribution of pixel values in the composite region CR of the source image S and the distribution of pixel values of the entire screen in the target image T. In the case of the source image S shown in FIG. 9, a region (bright region) having a pixel value close to the white level is included. Further, the pixel value of the target image T at the composite boundary is lower than the pixel value of the source image S. The difference between the pixel values is the boundary difference d P.

図10は、明部重み計算部で計算される明部重みB(i,j)を用いずに(すなわちB(i,j)=1として)、ソース画像Sの画素値を補正する場合の画素値の分布を説明する図である。図10に示すように、ソース画像S内の各画素には、明領域か否かによらず、境界差分dと距離重みλによって合成領域差分ΔI(i,j)が計算されるため、光が反射したような明るい領域も白レベルから沈み込んでしまっている。これでは、ソース画像Sが有していた陰影やテクスチャの情報が損なわれてしまう。 FIG. 10 shows a case where the pixel value of the source image S is corrected without using the bright part weight B (i, j) calculated by the bright part weight calculation unit (that is, assuming that B (i, j) = 1). It is a figure explaining the distribution of a pixel value. As shown in FIG. 10, for each pixel in the source image S, the composite region difference ΔI (i, j) is calculated by the boundary difference d P and the distance weight λ i regardless of whether it is in the bright region or not. The bright areas where light is reflected are also subducted from the white level. In this case, the shadow and texture information possessed by the source image S is lost.

図11は、暗部重み計算部112で計算される暗部重みD(i,j)を用いて、ソース画像Sの画素値を補正する場合の画素値の分布を説明する図である。図11に示すように、ソース画像S内の明領域についての合成領域差分ΔI(i,j)は、境界差分dと距離重みλによって計算される値よりも小さい値となるため、ソース画像Sの画素値に近い値が保存されている。すなわち、光が反射したような明るい領域の画素値が元の値と同一又は元の値に近い値となり、結果的に、ソース画像Sが有していた陰影やテクスチャの情報が保存される。 FIG. 11 is a diagram for explaining the distribution of pixel values when the pixel values of the source image S are corrected by using the dark area weights D (i, j) calculated by the dark area weight calculation unit 112. As shown in FIG. 11, the composite region difference ΔI (i, j) for the bright region in the source image S is smaller than the value calculated by the boundary difference d P and the distance weight λ i, and thus the source. A value close to the pixel value of the image S is stored. That is, the pixel value in the bright region where light is reflected becomes the same as or close to the original value, and as a result, the shadow and texture information possessed by the source image S is stored.

また、合成領域CR内のうち特に明るい領域以外の画素の値は、境界差分dと距離重みλによって計算される合成領域差分ΔI(i,j)が適用されるため、合成境界の付近におけるソース画像Sとターゲット画像Tの画素値の変化が滑らかになる。結果的に合成境界がユーザによって視認され難い、自然な合成画像が生成される。 Further, since the composite area difference ΔI (i, j) calculated by the boundary difference d P and the distance weight λ i is applied to the values of the pixels in the composite area CR other than the particularly bright area, the vicinity of the composite boundary. The change in the pixel values of the source image S and the target image T in the above becomes smooth. As a result, a natural composite image is generated in which the composite boundary is difficult for the user to see.

<機能構成2>
図12は、本機能構成に係る制御部100の機能構成2を示すブロック図である。図12には、図3との対応部分に同一の符号を付して表している。
本機能構成に係る制御部100は、機能構成1とは異なり、ターゲット画像Tの暗領域の情報を貼り付け合成されるソース画像Sに保存する点で異なっている。
この機能の実現のため、図12に示す制御部100の機能構成では、ターゲット画像Tが合成境界上の差分計算部110と暗部重み計算部112Aに入力され、ソース画像Sは合成境界上の差分計算部110と合成領域内の差分計算部113に入力されている。
ここで、暗部重み計算部112Aは、ターゲット画像Tの暗い領域ほどオリジナルの画素情報を残すように暗部重みD(i,j)を与える機能である点で図3における暗部重み計算部112と異なる。
<Functional configuration 2>
FIG. 12 is a block diagram showing a functional configuration 2 of the control unit 100 according to this functional configuration. In FIG. 12, the same reference numerals are given to the portions corresponding to those in FIG.
The control unit 100 according to this functional configuration is different from the functional configuration 1 in that the information of the dark region of the target image T is pasted and stored in the combined source image S.
In order to realize this function, in the functional configuration of the control unit 100 shown in FIG. 12, the target image T is input to the difference calculation unit 110 and the dark part weight calculation unit 112A on the composite boundary, and the source image S is the difference on the composite boundary. It is input to the calculation unit 110 and the difference calculation unit 113 in the synthesis area.
Here, the dark part weight calculation unit 112A is different from the dark part weight calculation unit 112 in FIG. 3 in that the dark part weight calculation unit 112A is a function of giving the dark part weight D (i, j) so that the darker the region of the target image T is, the more the original pixel information is left. ..

暗部重み計算部112Aも、前述した式6を用いて暗部重みD(i,j)を計算する。ただし、本実施の形態の場合、V(i,j)は、HSV色空間におけるターゲット画像Tの明度成分であり、γは、どの程度の明るさを暗部とするかを決定する固定パラメータである。本実施の形態の場合も、ターゲット画像Tにおける暗領域の情報を保存するためには、暗い領域ほど補正量が小さくなるように暗部重みD(i,j)が計算される。 The dark part weight calculation unit 112A also calculates the dark part weight D (i, j) using the above-mentioned equation 6. However, in the case of the present embodiment, V (i, j) is a brightness component of the target image T in the HSV color space, and γ is a fixed parameter that determines how bright the dark part is. .. Also in the case of the present embodiment, in order to store the information of the dark region in the target image T, the dark portion weight D (i, j) is calculated so that the correction amount becomes smaller as the dark region becomes darker.

以下では、図13〜図15を使用して、本機能構成2による合成効果を説明する。図13は、ソース画像Sの合成領域CR内における画素値の分布と、ターゲット画像Tにおける画面全体の画素値の分布を説明する図である。
図13に示すターゲット画像Tの場合、合成領域CRを挟んで両側に黒レベルに近い画素値を有する領域(暗領域)が筋状に現れている。なお、合成境界におけるターゲット画像Tの画素値は、ソース画像Sの画素値よりも高くなっている。この画素値の差分が境界差分dである。
Hereinafter, the synthetic effect of the present functional configuration 2 will be described with reference to FIGS. 13 to 15. FIG. 13 is a diagram for explaining the distribution of pixel values in the composite region CR of the source image S and the distribution of pixel values of the entire screen in the target image T.
In the case of the target image T shown in FIG. 13, regions (dark regions) having pixel values close to the black level appear on both sides of the composite region CR in a streak pattern. The pixel value of the target image T at the composite boundary is higher than the pixel value of the source image S. The difference between the pixel values is the boundary difference d P.

図14は、暗部重み計算部112Aで計算される暗部重みD(i,j)を用いずに(すなわちD(i,j)=1として)、ソース画像Sの画素値を補正する場合の画素値の分布を説明する図である。図14に示すように、ソース画像S内の各画素には、ターゲット画像Tの暗領域に位置しているか否かによらず、境界差分dと距離重みλによって合成領域差分ΔI(i,j)が計算されるため、ターゲット画像T側の合成領域CR内に存在した黒レベルに近い画素値の情報は全て失われてしまっている。 FIG. 14 shows the pixels when the pixel value of the source image S is corrected without using the dark part weight D (i, j) calculated by the dark part weight calculation unit 112A (that is, assuming that D (i, j) = 1). It is a figure explaining the distribution of values. As shown in FIG. 14, for each pixel in the source image S, regardless of whether or not it is located in the dark region of the target image T, the composite region difference ΔI (i) is determined by the boundary difference d P and the distance weight λ i. , J) is calculated, so that all the information of the pixel value close to the black level existing in the composite area CR on the target image T side is lost.

図15は、暗部重み計算部112Aで計算される暗部重みD(i,j)を用いて、ソース画像Sの画素値を補正する場合の画素値の分布を説明する図である。図15に示すように、ソース画像S内の暗領域についての合成領域差分ΔI(i,j)は、境界差分dと距離重みλによって計算される値よりも小さい値となるため、ソース画像Sの画素値に近い値が保存される。 FIG. 15 is a diagram for explaining the distribution of pixel values when the pixel values of the source image S are corrected by using the dark area weights D (i, j) calculated by the dark area weight calculation unit 112A. As shown in FIG. 15, the composite region difference ΔI (i, j) for the dark region in the source image S is smaller than the value calculated by the boundary difference d P and the distance weight λ i, and thus the source. A value close to the pixel value of the image S is saved.

すなわち、ターゲット画像Tにおいて陰などの表現に用いられていた領域では、補正前のソース画像Sの画素値と同じ又は近い値となり、結果的に、ターゲット画像Tが有していた陰影やテクスチャの情報が保存されている。
また、合成領域CR内の他の画素の値は、境界差分dと距離重みλによって計算される合成領域差分ΔI(i,j)が適用されるため、合成境界の付近におけるソース画像Sとターゲット画像Tの画素値の変化が滑らかになる。結果的に合成境界がユーザによって視認され難い、自然な合成画像が生成される。
That is, in the region used for expressing shadows in the target image T, the values are the same as or close to the pixel values of the source image S before correction, and as a result, the shadows and textures possessed by the target image T Information is stored.
Further, since the composite area difference ΔI (i, j) calculated by the boundary difference d P and the distance weight λ i is applied to the values of the other pixels in the composite region CR, the source image S near the composite boundary S. And the change of the pixel value of the target image T becomes smooth. As a result, a natural composite image is generated in which the composite boundary is difficult for the user to see.

前述の説明では、暗領域の情報を保存する場合、すなわちターゲット画像Tの暗い領域ほどソース画像Sの元の画素値が保存される場合について説明したが、ターゲット画像Tの明領域の情報を保存する処理手法を採用してもよい。この場合には、暗部重み計算部112Aに代えて明部重み計算部を使用し、明部重みB(i,j)の計算には式6における固定パラメータγとして、明るい領域ほど補正量が小さくなるパラメータを用いればよい。 In the above description, the case where the information in the dark region is saved, that is, the case where the original pixel value of the source image S is saved in the darker region of the target image T, but the information in the bright region of the target image T is saved. You may adopt the processing method to do. In this case, the bright part weight calculation unit is used instead of the dark part weight calculation unit 112A, and the bright part weight B (i, j) is calculated using the fixed parameter γ in Equation 6, and the correction amount is smaller in the brighter region. The parameter may be used.

以下では、図16〜図18を使用して、ターゲット画像Tの明領域の情報を保存する場合の処理イメージを説明する。
図16は、ソース画像Sの合成領域CR内における画素値の分布と、ターゲット画像Tにおける画面全体の画素値の分布を説明する図である。図16に示すターゲット画像Tの場合、合成領域CR内に白レベルに近い画素値を有する領域(明領域)が含まれている。また、合成境界におけるターゲット画像Tの画素値は、ソース画像Sの画素値よりも低くなっている。この画素値の差分が境界差分dである。
In the following, processing images in the case of storing the information in the bright region of the target image T will be described with reference to FIGS. 16 to 18.
FIG. 16 is a diagram for explaining the distribution of pixel values in the composite region CR of the source image S and the distribution of pixel values of the entire screen in the target image T. In the case of the target image T shown in FIG. 16, a region (bright region) having a pixel value close to the white level is included in the composite region CR. Further, the pixel value of the target image T at the composite boundary is lower than the pixel value of the source image S. The difference between the pixel values is the boundary difference d P.

図17は、暗部重み計算部112Aで計算される暗部重みD(i,j)を用いずに(すなわちD(i,j)=1として)、ソース画像Sの画素値を補正する場合の画素値の分布を説明する図である。図17に示すように、ソース画像S内の各画素には、ターゲット画像Tの明領域に位置しているか否かによらず、境界差分dと距離重みλによって合成領域差分ΔI(i,j)が計算されるため、ターゲット画像Tに光が反射したような明るい領域が含まれていても、補正後のソース画像Sでは白レベルから沈み込んでしまっている。これでは、ターゲット画像Tが有していた陰影やテクスチャの情報が損なわれてしまう。 FIG. 17 shows the pixels when the pixel value of the source image S is corrected without using the dark part weight D (i, j) calculated by the dark part weight calculation unit 112A (that is, assuming that D (i, j) = 1). It is a figure explaining the distribution of values. As shown in FIG. 17, for each pixel in the source image S, regardless of whether or not it is located in the bright region of the target image T, the composite region difference ΔI (i) is determined by the boundary difference d P and the distance weight λ i. , J) is calculated, so even if the target image T includes a bright region where light is reflected, the corrected source image S is subducted from the white level. In this case, the shadow and texture information possessed by the target image T is lost.

図18は、暗部重み計算部112Aで計算される暗部重みD(i,j)を用いて、ソース画像Sの画素値を補正する場合の画素値の分布を説明する図である。図18に示すように、ターゲット画像Tの明領域だった部分に当たる合成領域差分ΔI(i,j)は、境界差分dと距離重みλによって計算される値よりも小さい値となるため、貼り付け合成前のソース画像Sの画素値に近い値が保存されている。
すなわち、光が反射したような明るい領域の画素値がオリジナルのソース画像Sの画素値又は近い値で表現され、結果的に、ターゲット画像Tが有していた陰影やテクスチャの情報が保存される。
FIG. 18 is a diagram for explaining the distribution of pixel values when the pixel values of the source image S are corrected by using the dark area weights D (i, j) calculated by the dark area weight calculation unit 112A. As shown in FIG. 18, the composite region difference ΔI (i, j) corresponding to the bright region of the target image T is smaller than the value calculated by the boundary difference d P and the distance weight λ i. A value close to the pixel value of the source image S before pasting and compositing is saved.
That is, the pixel value in the bright region where light is reflected is represented by the pixel value or a value close to that of the original source image S, and as a result, the shadow and texture information possessed by the target image T is stored. ..

また、合成領域CR内のうち特に明るい領域以外の画素の値は、境界差分dと距離重みλによって計算される合成領域差分ΔI(i,j)が適用されるため、合成境界の付近におけるソース画像Sとターゲット画像Tの画素値の変化が滑らかになる。結果的に合成境界がユーザによって視認され難い、自然な合成画像が生成される。 Further, since the composite area difference ΔI (i, j) calculated by the boundary difference d P and the distance weight λ i is applied to the values of the pixels in the composite area CR other than the particularly bright area, the vicinity of the composite boundary. The change in the pixel values of the source image S and the target image T in the above becomes smooth. As a result, a natural composite image is generated in which the composite boundary is difficult for the user to see.

<機能構成3>
図19は、本機能構成に係る制御部100の機能構成3を示すブロック図である。図19には、図3との対応部分に同一の符号を付して表している。
本機能構成に係る制御部100は、機能構成1や機能構成2とは異なり、ソース画像Sの暗領域の情報とターゲット画像Tの暗領域の情報のうちより暗い領域の情報が、貼り付け合成されるソース画像Sに保存される点で異なっている。
このため、図19に示す制御部100では、暗部重み計算部112Bに対してターゲット画像Tとソース画像Sの両方が入力され、ターゲット画像Tとソース画像Sのうち暗い領域ほど画素情報が残るように暗部重みD(i,j)が与えられる。
<Functional configuration 3>
FIG. 19 is a block diagram showing a functional configuration 3 of the control unit 100 according to this functional configuration. In FIG. 19, the parts corresponding to those in FIG. 3 are designated by the same reference numerals.
Unlike the function configuration 1 and the function configuration 2, the control unit 100 related to this function configuration pastes and synthesizes the dark region information of the source image S and the dark region information of the target image T. It differs in that it is saved in the source image S to be created.
Therefore, in the control unit 100 shown in FIG. 19, both the target image T and the source image S are input to the dark area weight calculation unit 112B, and the darker the region of the target image T and the source image S, the more pixel information remains. Is given a dark part weight D (i, j).

本実施の形態の場合、暗部重み計算部112Bは、式13により暗部重みD(i,j)を計算する。 In the case of the present embodiment, the dark part weight calculation unit 112B calculates the dark part weight D (i, j) by the equation 13.

Figure 0006880799
Figure 0006880799

ここで、Vはターゲット画像TのHSV色空間における明度成分であり、γはターゲット画像T用の固定パラメータである。また、Vはソース画像SのHSV色空間における明度成分であり、γはソース画像S用の固定パラメータである。 Here, V T is the lightness component of the HSV color space of the target image T, the gamma T is a fixed parameter for the target image T. Also, V S is the lightness component of the HSV color space of the source image S, the gamma S is a fixed parameter for the source image S.

ここでの固定パラメータγ及びγも、前述した機能構成と同じく、予め与えられてもよいし、ユーザがユーザインターフェース画面200Aを通じて個別に調整できてもよい。
勿論、色空間はHSV色空間に限らず、CIELにおけるLなど、画素の明暗を示す値であれば他の値を用いても良い。
The fixed parameters γ T and γ S here may be given in advance as in the above-described functional configuration, or may be individually adjusted by the user through the user interface screen 200A.
Of course, the color space is not limited to the HSV color space, and other values may be used as long as they are values indicating the brightness and darkness of the pixels, such as L * in CIEL * a * b *.

また、暗部重みD(i,j)の計算式は、ターゲット画像Tとソース画像Sのうち暗い方の領域に応じた暗部重みD(i,j)が小さくなるのであれば、式13以外の計算式を用いてもよい。
例えばターゲット画像Tとソース画像Sについて暗部重みD(i,j)を、式6を用いて個別に計算し、2つの暗部重みD(i,j)のうち小さい方の値を採用してもよい。
Further, the calculation formula of the dark part weight D (i, j) is other than the formula 13 as long as the dark part weight D (i, j) corresponding to the darker region of the target image T and the source image S becomes smaller. A calculation formula may be used.
For example, even if the dark part weight D (i, j) is calculated individually for the target image T and the source image S using the equation 6, the smaller value of the two dark part weights D (i, j) is adopted. Good.

この機能構成3によれば、ソース画像Sとターゲット画像Tのいずれかに暗領域が含まれる場合には、対応する領域について貼り付け合成前のソース画像Sの画素値と同じ又は近い値が用いられ、貼り付け合成前の画像が有していた陰影やテクスチャの情報が合成領域CR内に保存されることになる。
勿論、この機能構成3の技術は、明領域の情報の保存にも使用できる。
According to this functional configuration 3, when either the source image S or the target image T includes a dark region, a value equal to or close to the pixel value of the source image S before pasting and compositing is used for the corresponding region. Then, the shading and texture information of the image before pasting and compositing is saved in the compositing area CR.
Of course, the technique of this functional configuration 3 can also be used for storing information in the bright region.

<他の実施の形態>
前述の機能構成1〜3においては、暗領域又は明領域においてオリジナルのソース画像の画素値を用いているが、暗領域又は明領域においては保存したい画素情報を与える画像側の画素値を用いてもよい。
<Other embodiments>
In the above-mentioned functional configurations 1 to 3, the pixel value of the original source image is used in the dark region or the bright region, but in the dark region or the bright region, the pixel value on the image side that gives the pixel information to be saved is used. May be good.

前述の説明においては、距離重みλと対応する境界差分d(dR、dG、dB)との乗算結果の総和で与えられる合成領域差分ΔI(i,j)における色成分ΔR、ΔG、ΔBを、ソース画像Sの画素値R、G、Bに加算して、貼り付け合成用のソース画像Sの画素値R、G、Bを計算しているが、他の手法を用いて貼り付け合成用のソース画像Sの画素値R、G、Bを計算してもよい。 In the above description, the color component ΔR in the composite region difference ΔI (i, j) given by the sum of the multiplication results of the distance weight λ i and the corresponding boundary difference d P (dR i , dG i , dB i), .DELTA.G, the .DELTA.B, pixel values of the source image S R S, G S, is added to the B S, a pixel value R of the source image S for pasting synthesis, G, but to calculate the B, other methods The pixel values R, G, and B of the source image S for paste composition may be calculated using.

例えば暗部重みD(i,j)を用いずに計算された合成領域差分ΔI(i,j)の色成分ΔR、ΔG、ΔBを、ソース画像Sの画素値R、G、Bに加算して求めた画素値R、G、Bに対して暗部重みD(i,j)を乗算して、貼り付け合成用のソース画像Sの画素値R、G、Bを計算してもよい。
この場合、暗部重みD(i,j)として、例えば被乗数である画素値を数分の一の値に変換するパラメータを用いれば、対応する画素値を黒レベルに近づけることができる。なお、明領域の情報を保存する場合には、被乗数である画素値を数倍に変換するパラメータを用いればよい。
For example, the color components ΔR, ΔG, and ΔB of the composite region difference ΔI (i, j) calculated without using the dark part weight D (i, j) are used as the pixel values RS , G S , and B S of the source image S. The pixel values R, G, and B obtained by adding may be multiplied by the dark portion weight D (i, j) to calculate the pixel values R, G, and B of the source image S for paste composition. ..
In this case, if the dark part weight D (i, j) is a parameter that converts the pixel value, which is a multiplicand, into a fractional value, the corresponding pixel value can be brought close to the black level. When saving the information in the bright region, a parameter for converting the pixel value, which is a multiplicand, to several times may be used.

また、暗部重みD(i,j)の大きさによって処理内容を選択してもよい。例えば暗部重みD(i,j)が閾値より小さい画素については、ターゲット画像Tやソース画像Sにおける画素値をそのまま用い、閾値以上の画素については、距離重みλと対応する境界差分d(dR、dG、dB)との乗算結果の総和で与えられる色成分毎の合成領域差分ΔI(i,j)の色成分ΔR、ΔG、ΔBを、ソース画像Sの画素値R、G、Bに加算して求まる画素値を使用してもよい。 Further, the processing content may be selected according to the size of the dark part weight D (i, j). For example, for pixels whose dark area weight D (i, j) is smaller than the threshold value, the pixel values in the target image T and source image S are used as they are, and for pixels above the threshold value, the boundary difference d P (corresponding to the distance weight λ i ). dR i, dG i, dB i ) and the multiplication result of the synthesis of each given color component by the sum region difference ΔI (i, j) of the color components [Delta] R, .DELTA.G, the .DELTA.B, pixel value R S of the source image S, A pixel value obtained by adding to G S and B S may be used.

また、明領域の情報を保存する場合には、明部重みBγが閾値より大きい画素については、ターゲット画像Tやソース画像Sにおける画素値をそのまま用い、閾値以下の画素については、距離重みλと対応する境界差分d(dR、dG、dB)との乗算結果の総和で与えられる色成分毎の合成領域差分ΔI(i,j)の色成分ΔR、ΔG、ΔBを、ソース画像Sの画素値R、G、Bに加算して求まる画素値を使用してもよい。 When saving the information in the bright region, the pixel values in the target image T and the source image S are used as they are for the pixels whose bright area weight B γ is larger than the threshold value, and the distance weight λ is used for the pixels below the threshold value. The color components ΔR, ΔG, and ΔB of the composite area difference ΔI (i, j) for each color component given by the sum of the multiplication results of i and the corresponding boundary difference d P (dR i , dG i , dB i) are set. pixel value R S of the source image S, G S, may be used pixel values obtained by adding the B S.

以上、本発明の実施の形態について説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、種々の変更又は改良を加えたものも、本発明の技術的範囲に含まれることは、特許請求の範囲の記載から明らかである。 Although the embodiments of the present invention have been described above, the technical scope of the present invention is not limited to the scope described in the above embodiments. It is clear from the description of the claims that the above-described embodiment with various modifications or improvements is also included in the technical scope of the present invention.

1…画像処理装置、100…制御部、110…合成境界上の差分計算部、111…距離重み計算部、112、112A、112B…暗部重み計算部、113…合成領域内の差分計算部、114…合成部、200…ユーザインターフェース画面、BS…ソース画像側境界(合成境界)、BT…ターゲット画像側境界(合成境界)、CR…合成領域、S…ソース画像、T…ターゲット画像 1 ... Image processing device, 100 ... Control unit, 110 ... Difference calculation unit on the composite boundary, 111 ... Distance weight calculation unit, 112, 112A, 112B ... Dark part weight calculation unit, 113 ... Difference calculation unit in the composite region, 114 ... Composite unit, 200 ... User interface screen, BS ... Source image side boundary (composite boundary), BT ... Target image side boundary (composite boundary), CR ... Composite area, S ... Source image, T ... Target image

Claims (6)

第1の画像に貼り付けられる第2の画像と、当該第2の画像が貼り付けられる領域部分との両方又は一方に含まれる明領域又は暗領域の合成結果への反映度合を設定する設定部と、
設定された前記反映度合に応じて画素情報の補正量が調整された前記第2の画像を前記第1の画像に貼り付ける貼付部と
を有し、
前記補正量は、前記第1の画像との合成境界から前記第2の画像を構成する各画素までの距離と、前記第1の画像と前記第2の画像との合成境界における差分値とに応じて計算される、画像処理装置。
A setting unit for setting the degree of reflection in the composite result of the bright region or the dark region included in both or one of the second image pasted on the first image and the region portion to which the second image is pasted. When,
It has a pasting portion for pasting the second image whose pixel information correction amount is adjusted according to the set reflection degree to the first image.
The correction amount is determined by the distance from the composite boundary with the first image to each pixel constituting the second image and the difference value at the composite boundary between the first image and the second image. An image processing device that is calculated accordingly.
前記反映度合はユーザの操作入力を通じて調整されること
を特徴とする請求項1記載の画像処理装置。
The image processing apparatus according to claim 1, wherein the degree of reflection is adjusted through a user's operation input.
第1の画像に貼り付けられる第2の画像と、当該第2の画像が貼り付けられる領域部分との両方又は一方に含まれる明領域又は暗領域の合成結果への反映度合を設定する設定部と、設定された前記反映度合に応じて画素情報の補正量が調整された前記第2の画像を前記第1の画像に貼り付ける貼付部とを有する画像処理装置と、
前記第1の画像と前記第2の画像との合成作業に用いる作業画面を表示する表示装置と
を有し、
前記画像処理装置は、前記第1の画像との合成境界から前記第2の画像を構成する各画素までの距離と、前記第1の画像と前記第2の画像との合成境界における差分値とに応じて前記補正量を計算する、画像処理システム。
A setting unit for setting the degree of reflection in the composite result of the light region or the dark region included in both or one of the second image pasted on the first image and the region portion to which the second image is pasted. An image processing device having a pasting portion for pasting the second image to the first image, in which the correction amount of pixel information is adjusted according to the set degree of reflection.
It has a display device for displaying a work screen used for compositing the first image and the second image.
The image processing device includes the distance from the composite boundary with the first image to each pixel constituting the second image, and the difference value at the composite boundary between the first image and the second image. An image processing system that calculates the correction amount according to the above.
前記反映度合はユーザの操作入力を通じて調整されることThe degree of reflection should be adjusted through user operation input.
を特徴とする請求項3に記載の画像処理システム。The image processing system according to claim 3.
コンピュータに、
第1の画像に貼り付けられる第2の画像と、当該第2の画像が貼り付けられる領域部分との両方又は一方に含まれる明領域又は暗領域の合成結果への反映度合を設定する機能と、
設定された前記反映度合に応じて画素情報の補正量が調整された前記第2の画像を前記第1の画像に貼り付ける機能と
を実現させるためのプログラムであり、
前記コンピュータに、前記第1の画像との合成境界から前記第2の画像を構成する各画素までの距離と、前記第1の画像と前記第2の画像との合成境界における差分値とに応じた前記補正量を計算させる、
プログラム。
On the computer
A function for setting the degree of reflection in the composite result of the light region or the dark region included in both or one of the second image pasted on the first image and the region portion to which the second image is pasted. ,
It is a program for realizing a function of pasting the second image, in which the correction amount of pixel information is adjusted according to the set degree of reflection, to the first image.
Depending on the computer, the distance from the composite boundary with the first image to each pixel constituting the second image and the difference value at the composite boundary between the first image and the second image. The correction amount is calculated.
program.
前記反映度合はユーザの操作入力を通じて調整されることThe degree of reflection should be adjusted through user operation input.
を特徴とする請求項5に記載のプログラム。5. The program according to claim 5.
JP2017022843A 2017-02-10 2017-02-10 Image processing equipment, image processing system and programs Active JP6880799B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017022843A JP6880799B2 (en) 2017-02-10 2017-02-10 Image processing equipment, image processing system and programs

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017022843A JP6880799B2 (en) 2017-02-10 2017-02-10 Image processing equipment, image processing system and programs

Publications (2)

Publication Number Publication Date
JP2018128946A JP2018128946A (en) 2018-08-16
JP6880799B2 true JP6880799B2 (en) 2021-06-02

Family

ID=63174534

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017022843A Active JP6880799B2 (en) 2017-02-10 2017-02-10 Image processing equipment, image processing system and programs

Country Status (1)

Country Link
JP (1) JP6880799B2 (en)

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06105224A (en) * 1992-09-17 1994-04-15 Fujitsu Ltd Dynamic range expansion device
JP2002084449A (en) * 2000-09-08 2002-03-22 Sanyo Electric Co Ltd Image pickup device employing solid-state imaging device
JP2009065350A (en) * 2007-09-05 2009-03-26 Canon Inc Image processor, image processing method, and storage medium
JP2015225476A (en) * 2014-05-27 2015-12-14 富士ゼロックス株式会社 Image processing device and program

Also Published As

Publication number Publication date
JP2018128946A (en) 2018-08-16

Similar Documents

Publication Publication Date Title
JP5147287B2 (en) Image processing apparatus, image processing method, program, recording medium, and integrated circuit
US8644638B2 (en) Automatic localized adjustment of image shadows and highlights
US7428021B2 (en) Image processing method, recording medium and apparatus for performing color adjustment to image data using a brightness component, a low-frequency brightness component, and first and second parameters
US6734851B2 (en) Analytic warping
JP2009290661A (en) Image processing apparatus, image processing method, image processing program and printer
JPH0844867A (en) Method and equipment for correction of original image
US8660379B2 (en) Image processing method and computer program
JP5392560B2 (en) Image processing apparatus and image processing method
US20120306906A1 (en) Color-Space Selective Darkness and Lightness Adjustment
JP2000134486A (en) Image processing unit, image processing method and storage medium
JP2007104151A (en) Image processing apparatus and image processing program
US20040227766A1 (en) Multilevel texture processing method for mapping multiple images onto 3D models
US20070127783A1 (en) Image processing apparatus, method and program for controlling flesh color of image
US8180172B2 (en) Image processing method
EP2492907B1 (en) Image processing apparatus, storage medium storing image processing program, and image processing method
JP2009038794A (en) Image processor, image processing method, image processing system, program, recording medium, and integrated circuit
EP2375719A1 (en) Color gamut mapping method having one step preserving the lightness of the cusp colors
US9390485B2 (en) Image processing device, image processing method, and recording medium
JP2008234315A (en) Gradation compression method and gradation compression device for digital image
JP6880799B2 (en) Image processing equipment, image processing system and programs
JP2008048264A (en) Image processing program, and image processing unit
JP2007042033A (en) Color correction apparatus and image display device
US8111887B2 (en) Image processing method, image processing apparatus and image processing program
JP6627530B2 (en) Image processing device and program
JP7277156B2 (en) IMAGE PROCESSING APPARATUS, IMAGE PROCESSING METHOD, AND PROGRAM

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191220

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201027

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201203

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210126

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210302

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210406

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210419

R150 Certificate of patent or registration of utility model

Ref document number: 6880799

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150