JP6934240B2 - Image processing device - Google Patents

Image processing device Download PDF

Info

Publication number
JP6934240B2
JP6934240B2 JP2017038725A JP2017038725A JP6934240B2 JP 6934240 B2 JP6934240 B2 JP 6934240B2 JP 2017038725 A JP2017038725 A JP 2017038725A JP 2017038725 A JP2017038725 A JP 2017038725A JP 6934240 B2 JP6934240 B2 JP 6934240B2
Authority
JP
Japan
Prior art keywords
light source
initial estimation
space
vector
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017038725A
Other languages
Japanese (ja)
Other versions
JP2018148281A (en
Inventor
賢嗣 木村
賢嗣 木村
光浩 松尾
光浩 松尾
文杰 蔡
文杰 蔡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Brycen Co Ltd
Original Assignee
Brycen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Brycen Co Ltd filed Critical Brycen Co Ltd
Priority to JP2017038725A priority Critical patent/JP6934240B2/en
Publication of JP2018148281A publication Critical patent/JP2018148281A/en
Priority to JP2021132352A priority patent/JP7152065B2/en
Application granted granted Critical
Publication of JP6934240B2 publication Critical patent/JP6934240B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Color Television Image Signal Generators (AREA)
  • Processing Of Color Television Signals (AREA)
  • Studio Devices (AREA)

Description

本発明は、画像処理装置に関する。 The present invention relates to an image processing apparatus.

従来より、撮像機器として分類されるデジタルカメラ、デジタルビデオカメラ、カメラ付き通信端末(携帯電話、スマートフォン、タブレット等)等においては、撮影された画像に対して色再現補正処理が施されている。
即ち、一般的には、CMOSイメージセンサ等の撮像素子で得られた画像データに、イメージシグナルプロセッサー(ISP)を含んだシステムオンチップ(SoC)等の半導体を用いて、自動露出補正、自動ホワイトバランス、自動フォーカス、シェーディング補正等の画像処理が行われる。
Conventionally, in digital cameras, digital video cameras, communication terminals with cameras (mobile phones, smartphones, tablets, etc.) classified as imaging devices, color reproduction correction processing is performed on captured images.
That is, in general, automatic exposure compensation and automatic whitening are performed by using a semiconductor such as a system-on-chip (SoC) including an image signal processor (ISP) in the image data obtained by an image sensor such as a CMOS image sensor. Image processing such as balance, automatic focus, and shading correction is performed.

ここで、イメージシグナルプロセッサーを含むシステムオンチップでは画像データに対して、色再現性を向上させるための色調整処理等の各種画像処理が行われる。このため、その前段である撮像素子で受光した画像データの補正は、色再現性を大きく左右され、画像処理装置および画像処理方法において重要な役割を果たすことになる。 Here, in the system-on-chip including the image signal processor, various image processes such as color adjustment processing for improving the color reproducibility are performed on the image data. Therefore, correction of the image data received by the image sensor which is a previous stage is largely color reproducibility, will play an important role in the image processing apparatus and image processing method.

また、撮像素子が受ける光は様々な外的要因を受けて決定される。例えば、建物の外で撮影されるシーンでは、天候や時間、建物の影のような暗い状態等の様々な外的要因に影響される。また、例えば、建物の中で撮影されるシーンにおいては、照明器具の種類や明るさ等の様々な外的要因に影響される。そのため、CCDセンサやCMOSイメージセンサの撮像素子で得られた画像データから、撮影されているシーンにおいて、影響している外的要因の種類(例えば、環境光の種類)を特定し、特定された夫々の外的要因(例えば、環境光が太陽光か、蛍光灯か等)に対応した色補正を施すことが必要となる。 Further, the light received by the image sensor is determined by receiving various external factors. For example, a scene shot outside a building is affected by various external factors such as weather, time, and dark conditions such as shadows of the building. Further, for example, in a scene photographed in a building, it is affected by various external factors such as the type and brightness of lighting equipment. Therefore, from the image data obtained by an image sensor such as a CCD sensor or a CMOS image sensor, the type of external factor affecting the scene being photographed (for example, the type of ambient light) is specified and specified. It is necessary to perform color correction corresponding to each external factor (for example, whether the ambient light is sunlight or a fluorescent lamp).

この点、機械学習を用いて、撮影されているシーンにおける、環境光の種類を特定するための技術が提案されている(例えば、特許文献1、特許文献2参照)。 In this regard, techniques for specifying the type of ambient light in the scene being photographed by using machine learning or the like have been proposed (see, for example, Patent Document 1 and Patent Document 2).

特開2012−134625号公報Japanese Unexamined Patent Publication No. 2012-134625 特開2014−515587号公報Japanese Unexamined Patent Publication No. 2014-515587

しかしながら、特許文献1および特許文献2を含む従来の技術では、機械学習を用いる具体的な手段などが明示されておらず、技術的に実現が困難な内容との指摘があった。
他方、従来、「所定の色」に基づいて環境光の種類を特定するための手法が知られている。撮影されたシーンの光源として、複数の環境光が存在していると仮定すると、当該「所定の色」は、各環境光から照射された光によって当該環境光に近似した色として存在していることになる。
また、例えば、物体に照射された光は、当該物体表面の状態、材質、光沢、反射等、あらゆる状況によって常に一定の色を保つことは困難である。そのため、撮影された画像データは、必ずしも特定の色の環境光のみで構成されている訳ではなく、所定の色から環境光の種類を特定することは困難である。
さらに、入力された画像データに合わせて画像処理の組み合わせや方法を変更すること可能とする技術も存在する。しかし、入力される画像データは無限に存在するものであり、現実的な使用が困難なことは容易に想像できる。
However, it has been pointed out that in the conventional techniques including Patent Document 1 and Patent Document 2, specific means for using machine learning are not specified, and it is technically difficult to realize the contents.
On the other hand, conventionally, a method for specifying the type of ambient light based on a "predetermined color" has been known. Assuming that a plurality of ambient lights exist as the light source of the captured scene, the "predetermined color" exists as a color close to the ambient light by the light emitted from each ambient light. It will be.
Further, for example, it is difficult for the light irradiated to an object to always maintain a constant color depending on all conditions such as the state, material, gloss, and reflection of the surface of the object. Therefore, the captured image data is not necessarily composed of only ambient light of a specific color, and it is difficult to specify the type of ambient light from a predetermined color.
Furthermore, technology that makes it possible to change the combination and method of image processing according to the input image data is also present. However, the input image data exists infinitely, and it is easy to imagine that it is difficult to use it practically.

本発明は、このような状況に鑑みてなされたものであり、機械学習によって得られた分類カテゴリを用いて、より最適色補正係数(WBGain:White Balance Gain)を設定することを目的とする。 The present invention has been made in view of such a situation, and an object of the present invention is to set a more optimum color correction coefficient (WBGain: White Balance Gain) by using a classification category obtained by machine learning.

上記目的を達成するため、本発明の一態様の画像処理装置は、
所定の画像データから所定のパラメータを取得し、前記パラメータに基づく値を、所定の特徴空間上に写像することで、前記特徴空間上の所定の光源推定ベクトルを取得する第1取得手段と、
前記第1取得手段で取得された光源推定ベクトルを、予め機械学習された分類器によって、前記光源推定ベクトルの前記特徴空間上のカテゴリに分類する分類手段と、
前記光源推定ベクトルと前記分類手段により分類されたカテゴリに基づいて、前記画像データのうちの所定のフレームのデータから最適WBGainを取得する第2取得手段と、
を備える。
これにより、機械学習によって得られた分類カテゴリを用いて、より最適WBGainを設定することができる。
In order to achieve the above object, the image processing apparatus of one aspect of the present invention is
A first acquisition means for acquiring a predetermined light source estimation vector on the feature space by acquiring a predetermined parameter from the predetermined image data and mapping a value based on the parameter onto the predetermined feature space.
A classification means for classifying the light source estimation vector acquired by the first acquisition means into a category on the feature space of the light source estimation vector by a pre-machine-learned classifier.
A second acquisition means for acquiring the optimum WBGain from the data of a predetermined frame in the image data based on the light source estimation vector and the category classified by the classification means.
To be equipped.
This makes it possible to set a more optimal WBGain using the classification category obtained by machine learning.

本発明によれば、機械学習によって得られた分類カテゴリを用いて、より最適WBGainを設定することができる。 According to the present invention, a more optimal WBGain can be set by using the classification category obtained by machine learning.

本発明の一実施形態に係る画像処理装置の構成を示すブロック図である。It is a block diagram which shows the structure of the image processing apparatus which concerns on one Embodiment of this invention. 図1の画像処理装置のうちホワイトバランス処理部の機能的構成の詳細を示す機能ブロック図である。It is a functional block diagram which shows the detail of the functional structure of the white balance processing part in the image processing apparatus of FIG. 図2の画像処理装置のホワイトバランス処理部により実行されるホワイトバランス処理の流れを説明するフローチャートである。It is a flowchart explaining the flow of the white balance processing executed by the white balance processing part of the image processing apparatus of FIG. 所定の光源から取得された複数の教示データから写像して得られた初期推定ベクトルの分布イメージを示す図である。It is a figure which shows the distribution image of the initial estimation vector obtained by mapping from a plurality of teaching data acquired from a predetermined light source. 機械学習で得られた分類器の出力イメージを示す図である。It is a figure which shows the output image of the classifier obtained by machine learning. フレームのデータから写像された初期推定ベクトルを示す図である。It is a figure which shows the initial estimation vector mapped from the data of a frame. 各カテゴリの光源の最適WBGainを説明するためのイメージ図である。It is an image diagram for demonstrating the optimum WBGain of the light source of each category. 特殊カテゴリが存在するイメージ図である。It is an image diagram in which a special category exists. 特殊カテゴリに対応した最適WBGainを説明するためのイメージ図である。It is an image diagram for demonstrating the optimum WBGain corresponding to a special category. 初期推定ベクトルがB光源とC光源の重複分布範囲内にある場合を説明するためのイメージ図である。It is an image diagram for demonstrating the case where the initial estimation vector is within the overlap distribution range of the B light source and the C light source.

以下、本発明の一実施形態について、図面を参照して説明する。 Hereinafter, an embodiment of the present invention will be described with reference to the drawings.

図1は、本発明の一実施形態に係る画像処理装置の構成を示すブロック図である。
画像処理装置1は、センサベイヤデータ取得部2と、イメージパイプ3と、出力画像データ出力部4とを備えている。
FIG. 1 is a block diagram showing a configuration of an image processing device according to an embodiment of the present invention.
The image processing device 1 includes a sensor bayer data acquisition unit 2, an image pipe 3, and an output image data output unit 4.

センサベイヤデータ取得部2は、図示せぬ撮像装置により撮像された動画像を構成する各フレームのデータの夫々を、センサベイヤデータの形態で順次取得して、イメージパイプ3に出力する。 The sensor bayer data acquisition unit 2 sequentially acquires each of the data of each frame constituting the moving image captured by the imaging device (not shown) in the form of sensor bayer data, and outputs the data to the image pipe 3.

イメージパイプ3は、各フレームのデータに対して各種画像処理を施すべく、シェーディング補正処理部5と、ホワイトバランス処理部6と、色補間処理部7と、色再現ゲイン処理部8と、ガンマ処理部9と、色空間変換処理部10とを備えている。 The image pipe 3 includes a shading correction processing unit 5, a white balance processing unit 6, a color interpolation processing unit 7, a color reproduction gain processing unit 8, and a gamma processing in order to perform various image processing on the data of each frame. A unit 9 and a color space conversion processing unit 10 are provided.

シェーディング補正処理部5は、センサベイヤデータ取得部2から供給されたフレームのデータ(センサベイヤデータ)に対して、シェーディング補正処理を施す。シェーディング補正処理が施されたフレームのデータは、ホワイトバランス処理部6に供給される。 The shading correction processing unit 5 performs shading correction processing on the frame data (sensor bayer data) supplied from the sensor bayer data acquisition unit 2. The data of the frame to which the shading correction processing has been performed is supplied to the white balance processing unit 6.

ホワイトバランス処理部6は、シェーディング補正処理部5から供給されたフレームのデータに対して、ホワイトバランス処理を施す。ホワイトバランス処理が施されたフレームのデータは、色補間処理部7に供給される。 The white balance processing unit 6 performs white balance processing on the frame data supplied from the shading correction processing unit 5. The data of the frame subjected to the white balance processing is supplied to the color interpolation processing unit 7.

色補間処理部7は、ホワイトバランス処理部6から供給されたフレームのデータに対して、色補間処理を施す。色補間処理が施されたフレームのデータは、色再現ゲイン処理部8に供給される。 The color interpolation processing unit 7 performs color interpolation processing on the frame data supplied from the white balance processing unit 6. The data of the frame subjected to the color interpolation processing is supplied to the color reproduction gain processing unit 8.

色再現ゲイン処理部8は、色補間処理部7から供給されたフレームのデータに対して、色再現ゲイン処理を施す。色再現ゲイン処理が施されたフレームのデータは、ガンマ処理部9に供給される。 The color reproduction gain processing unit 8 performs color reproduction gain processing on the frame data supplied from the color interpolation processing unit 7. The data of the frame subjected to the color reproduction gain processing is supplied to the gamma processing unit 9.

ガンマ処理部9は、色再現ゲイン処理部8から供給されたフレームのデータに対して、ガンマ処理を施す。ガンマ処理が施されたフレームのデータは、色空間変換処理部10に供給される。 The gamma processing unit 9 performs gamma processing on the frame data supplied from the color reproduction gain processing unit 8. The data of the frame subjected to the gamma processing is supplied to the color space conversion processing unit 10.

色空間変換処理部10は、ガンマ処理部9から供給されたフレームのデータに対して、色空間変換処理を施す。色空間変換処理が施されたフレームのデータは、出力画像データ出力部4に供給される。 The color space conversion processing unit 10 performs color space conversion processing on the frame data supplied from the gamma processing unit 9. The frame data that has undergone the color space conversion process is supplied to the output image data output unit 4.

出力画像データ出力部4は、イメージパイプ3から順次出力される各フレームのデータの夫々を、出力画像のデータとして、後述する図示せぬ回路に出力する。 The output image data output unit 4 outputs each of the data of each frame sequentially output from the image pipe 3 as output image data to a circuit (not shown) described later.

図2は、図1の画像処理装置1のうち、主にホワイトバランス処理部6の機能的構成の詳細を示す機能ブロック図である。 FIG. 2 is a functional block diagram showing details of the functional configuration of the white balance processing unit 6 in the image processing device 1 of FIG.

ホワイトバランス処理部6においては、RGB算出部61と、初期推定部62と、特徴空間写像部63と、光源判定部64と、ホワイトバランス補正部65と、補正データ出力部66とが機能する。
RGB算出部61乃至補正データ出力部66の各機能等の詳細については、図3以降のフローチャート等を参照して画像処理装置1の処理を説明する際に合わせて説明する。
In the white balance processing unit 6, the RGB calculation unit 61, the initial estimation unit 62, the feature space mapping unit 63, the light source determination unit 64, the white balance correction unit 65, and the correction data output unit 66 function.
Details of each function and the like of the RGB calculation unit 61 to the correction data output unit 66 will be described when the processing of the image processing apparatus 1 is described with reference to the flowcharts and the like shown in FIGS. 3 and later.

光源判定部64においては、教示データ記憶部641と、機械学習部642と、関連パラメータ記憶部643と、光源識別部644とが機能する。
教示データ記憶部641は、複数の画像データと当該各画像の夫々を撮影したシーンの光源のカテゴリ番号とからなる教示データを記憶している。
機械学習部642は、教示データ記憶部641に記憶された教示データに基づいて、各画像データから抽出した特徴ベクトルから光源のカテゴリを判定するための基準を機械学習し、学習した判定基準(分類器)を関連パラメータ記憶部643に記憶する。なお、機械学習の方法としては、例えば、SVM(サポート・ベクター・マシーン)等を採用することができる。
光源識別部644は、後述のフレームのデータから特徴空間写像部63によって特徴空間上に写像され光源判定部64に供給された初期推定ベクトルを、関連パラメータ記憶部643に記憶された分類器を用いてカテゴリ分類し、当該フレームを撮影したシーンの一つ以上の光源のカテゴリ、及び当該一つ以上の光源のカテゴリと前記初期推定ベクトルとの特徴空間上での距離等のデータをホワイトバランス補正部65に出力する。
In the light source determination unit 64, the teaching data storage unit 641, the machine learning unit 642, the related parameter storage unit 643, and the light source identification unit 644 function.
The teaching data storage unit 641 stores teaching data including a plurality of image data and a category number of a light source of a scene in which each of the images is photographed.
The machine learning unit 642 machine-learns a standard for determining a light source category from a feature vector extracted from each image data based on the teaching data stored in the teaching data storage unit 641, and the learned determination standard (classification). The device) is stored in the related parameter storage unit 643. As a machine learning method, for example, SVM (support vector machine) or the like can be adopted.
The light source identification unit 644 uses a classifier stored in the related parameter storage unit 643 for the initial estimation vector mapped on the feature space by the feature space mapping unit 63 from the frame data described later and supplied to the light source determination unit 64. The white balance correction unit converts data such as the category of one or more light sources of the scene in which the frame was shot, and the distance between the category of the one or more light sources and the initial estimation vector in the feature space. Output to 65.

次に、図3を参照して、画像処理装置1のホワイトバランス処理部6が実行するホワイトバランス処理について説明する。
ここで、「ホワイトバランス処理」とは、各フレームが撮影されたシーンの光源を判定して、各フレームのデータに対してホワイトバランス補正を施していく一連の処理をいう。
Next, the white balance processing executed by the white balance processing unit 6 of the image processing apparatus 1 will be described with reference to FIG.
Here, the "white balance process" refers to a series of processes in which the light source of the scene in which each frame is shot is determined and the white balance correction is performed on the data of each frame.

図3は、画像処理装置1のホワイトバランス処理部6により実行されるホワイトバランス処理を説明するフローチャートである。 FIG. 3 is a flowchart illustrating white balance processing executed by the white balance processing unit 6 of the image processing device 1.

ホワイトバランス処理は、シェーディング補正処理部5からホワイトバランス処理部6にシェーディング補正処理済のフレームの画素群のデータ(以下、「フレームのデータ」と呼ぶ)が供給される毎にその都度実行される。なお、Statisticsデータとは、フレームのデータと同一のデータである。 The white balance processing is executed each time the shading correction processing unit 5 supplies the data of the pixel group of the frame for which the shading correction processing has been performed (hereinafter, referred to as “frame data”) to the white balance processing unit 6. .. The Statistics data is the same data as the frame data.

ステップS11において、RGB算出部61は、フレームのデータにおける(R値,G値,B値)を三つのチャンネルとして算出し、初期推定部62に供給する。 In step S11, the RGB calculation unit 61 calculates (R value, G value, B value) in the frame data as three channels and supplies them to the initial estimation unit 62.

ステップS12において、初期推定部62は、ステップS11で算出された(R値,G値,B値)の夫々について最大値を抽出する。なお、この(R値,G値,B値)の夫々の最大値は、光源色の初期推定値(Rmax値,Gmax値,Bmax値)として特徴空間写像部63に供給される。 In step S12, the initial estimation unit 62 extracts the maximum value for each of the (R value, G value, B value) calculated in step S11. The maximum values of each of the (R value, G value, B value) are supplied to the feature space mapping unit 63 as initial estimated values (Rmax value, Gmax value, Bmax value) of the light source color.

ステップS13において、特徴空間写像部63は、ステップS12で抽出された光源色の初期推定値(Rmax値,Gmax値,Bmax値)を特徴空間に写像して、得られた特徴ベクトルを光源判定部64に供給する。なお、本実施形態では、特徴空間は(R/G,B/G)の二次元空間として説明を行う。
前記特徴空間上の特徴ベクトル(R/G,B/G)とは、即ち、Gで正規化された光源色の値であるが、この逆数が所定光源の最適ホワイトバランスゲインとして用いられる場合には、以下では「最適WBGain」と省略表記する。また、ステップS12で抽出された初期推定値(Rmax,Gmax,Bmax)を特徴空間に写像した特徴ベクトル(Rmax/Gmax,Bmax/Gmax)を、以下では「初期推定ベクトル」と呼ぶ。
In step S13, the feature space mapping unit 63 maps the initial estimated values (Rmax value, Gmax value, Bmax value) of the light source color extracted in step S12 to the feature space, and uses the obtained feature vector as the light source determination unit. Supply to 64. In this embodiment, the feature space will be described as a (R / G, B / G) two-dimensional space.
The feature vector (R / G, B / G) on the feature space is, that is, the value of the light source color normalized by G, but when the reciprocal of this is used as the optimum white balance gain of a predetermined light source. Is abbreviated as "optimal WB Gain" below. Further, the feature vector (Rmax / Gmax, Bmax / Gmax) obtained by mapping the initial estimated value (Rmax, Gmax, Bmax) extracted in step S12 to the feature space is hereinafter referred to as an “initial estimated vector”.

ステップS14において、光源判定部64は、ステップS13で特徴空間に写像された初期推定ベクトルの分類される光源の種類を判定する。
即ち、ステップS14において、光源判定部64は、初期推定ベクトルが分類される一つ以上の光源カテゴリを、分類器に基づいて判定する。なお、この分類器は、予め機械学習した関連パラメータが格納された各種関連パラメータと共に、関連パラメータ記憶部643に格納されている。
In step S14, the light source determination unit 64 determines the type of light source to which the initial estimation vector mapped in the feature space in step S13 is classified.
That is, in step S14, the light source determination unit 64 determines one or more light source categories in which the initial estimation vector is classified based on the classifier. This classifier is stored in the related parameter storage unit 643 together with various related parameters in which the related parameters that have been machine-learned in advance are stored.

ステップS15において、ステップS15において、ホワイトバランス補正部65はステップS14で光源判定部64により判定された光源のカテゴリに基づいて、各光源のホワイトバランス補正のために予め準備された図示せぬLUT(LookUp Table)を用いて、フレームのデータに対して最適なホワイトバランス補正を行う。なお、複数の光源カテゴリに近いと判定された場合のホワイトバランス補正については、図10を参照して後述する。 In step S15, in step S15, the white balance correction unit 65 is a LUT (not shown) prepared in advance for white balance correction of each light source based on the category of the light source determined by the light source determination unit 64 in step S14. (LookUp Table) is used to perform optimum white balance correction on the frame data. The white balance correction when it is determined to be close to a plurality of light source categories will be described later with reference to FIG.

ステップS16において、補正データ出力部66は、ステップS15で導出されたホワイトバランス補正された画像データを、画像処理装置1における後続段である色補間処理部7に供給する。 In step S16, the correction data output unit 66 supplies the white balance-corrected image data derived in step S15 to the color interpolation processing unit 7 which is a subsequent stage in the image processing device 1.

図4は、所定の光源から取得された複数の教示データから特徴空間上に写像して得られた初期推定ベクトルの分布イメージを示す図である。 FIG. 4 is a diagram showing a distribution image of an initial estimation vector obtained by mapping on a feature space from a plurality of teaching data acquired from a predetermined light source.

図4において、A〜Eの記号は、複数の教示データから得られた初期推定ベクトルが分類されるカテゴリの番号を示している。
即ち、任意に選択したカテゴリの光源のもとで撮像した教示データが、夫々のカテゴリに分類されて、クラスタ化されているのである。
図4の例では、カテゴリAに分類される光源(以下、「A光源」と呼ぶ)は、太陽光であるとする。つまり、A光源に分類されるクラスタとは、太陽光のもとで撮像された教示データが分類されて、クラスタ化されたものである。
ここで、同様にカテゴリB〜Eに分類される光源については、A光源と同様に、B光源〜E光源と呼ぶ。
このようにして算出された分類器の出力イメージについて、引き続き、図5を用いて説明を行う。なお、本実施形態において撮像されたシーンの各フレームのデータは、上記A〜Eの単独あるいは複数の光源が含まれる可能性がある。
In FIG. 4, the symbols A to E indicate the category numbers in which the initial estimation vectors obtained from the plurality of teaching data are classified.
That is, the teaching data captured under the light source of an arbitrarily selected category is classified into each category and clustered.
In the example of FIG. 4, it is assumed that the light source classified into category A (hereinafter referred to as "A light source") is sunlight. That is, the cluster classified as the A light source is a cluster in which the teaching data captured under sunlight is classified and clustered.
Here, the light sources that are similarly classified into categories B to E are referred to as B light sources to E light sources as in the A light source.
The output image of the classifier calculated in this way will be continuously described with reference to FIG. The data of each frame of the scene captured in the present embodiment may include a single light source or a plurality of light sources A to E.

図5は、本実施形態に係る特徴空間において、複数の教示データの機械学習によって得られた分類器の出力イメージを示す図である。
なお、A〜Eの記号は、図4と同様に、複数の教示データから得られた初期推定ベクトルが分類されるカテゴリの番号を示している。
FIG. 5 is a diagram showing an output image of a classifier obtained by machine learning of a plurality of teaching data in the feature space according to the present embodiment.
The symbols A to E indicate the category numbers in which the initial estimation vectors obtained from the plurality of teaching data are classified, as in FIG.

図5の例では、教示データの機械学習によって、A〜Eの光源を表す各クラスタの境界が画定されている。
即ち、前述の機械学習によって、A〜Eの光源を表す各クラスタの境界を確定することができ、各クラスタの分類を容易に実現することができる。
本実施形態における、分類器とは、このように機械学習によって、各種光源(A〜E)の光源を表す各クラスタの境界を確定する機能を有している。この分類器を用いることで、後述するように、容易に最適WBGainを算出することができるのである。
次に、このようにして算出された分類器を用いて、実際に入力された所定のフレームデータから算出された初期推定光源のWBGainの取得方法について、以降の図面を用いて説明していく。
In the example of FIG. 5, the boundaries of each cluster representing the light sources A to E are defined by machine learning of the teaching data.
That is, by the above-mentioned machine learning, the boundary of each cluster representing the light sources A to E can be determined, and the classification of each cluster can be easily realized.
The classifier in the present embodiment has a function of determining the boundary of each cluster representing the light sources of various light sources (A to E) by machine learning in this way. By using this classifier, the optimum WBGain can be easily calculated as described later.
Next, using the classifier calculated in this way, a method of acquiring the WBGain of the initial estimation light source calculated from the predetermined frame data actually input will be described with reference to the following drawings.

図6は、本実施形態に係る特徴空間において、所定のフレームのデータから算出された初期推定ベクトルを示す図である。 FIG. 6 is a diagram showing an initial estimation vector calculated from data of a predetermined frame in the feature space according to the present embodiment.

図6の例では、当該フレームのデータから算出された初期推定ベクトルHがA光源のカテゴリ範囲内に存在している。
この新たに算出された初期推定ベクトルHのWBGainの取得方法について、引き続き、図7を用いて説明していく。
In the example of FIG. 6, the initial estimation vector H calculated from the data of the frame exists within the category range of the A light source.
The method of acquiring the newly calculated WBGain of the initial estimation vector H will be continuously described with reference to FIG. 7.

即ち、図7は、本実施形態に係る特徴空間において、A〜Eの各カテゴリに分類された光源の最適WBGainを説明するためのイメージ図である。 That is, FIG. 7 is an image diagram for explaining the optimum WBGain of the light sources classified into each category of A to E in the feature space according to the present embodiment.

図7の例では、A光源に分類された初期推定ベクトルHについて、最適WBGainを設定する場合の例を示している。
ここで、分類器によって分けられた各カテゴリに区分された空間に分布する初期推定ベクトルは、前述の通り、様々な要因で各カテゴリの最適WBGainから外れている可能性がある。そのため、初期推定ベクトルHをそのまま用いてホワイトバランス補正を行うことは望ましくない。
したがって、図7の例では初期推定ベクトルHは、A光源に分類される特徴空間内に存在しているため、当該初期推定ベクトルの代わりに、前述の機械学習により設定されたA光源の最適WBGainを設定する。
In the example of FIG. 7, an example in which the optimum WBGain is set for the initial estimation vector H classified as the A light source is shown.
Here, as described above, the initial estimation vector distributed in the space divided into each category divided by the classifier may deviate from the optimum WBGain of each category due to various factors. Therefore, it is not desirable to perform white balance correction using the initial estimation vector H as it is.
Therefore, in the example of FIG. 7, since the initial estimation vector H exists in the feature space classified as the A light source, the optimum WBGain of the A light source set by the above-mentioned machine learning is used instead of the initial estimation vector. To set.

図8は、本実施形態に係る特徴空間において、特殊カテゴリが存在するイメージ図である。 FIG. 8 is an image diagram in which a special category exists in the feature space according to the present embodiment.

図8の例では、C光源のカテゴリの空間内に、新しく一定の分布を持つ特殊カテゴリが存在している場合が示されている。
即ち、複数のフレームのデータが入力されていくと、上述のA〜Eの何れのカテゴリにも分類が困難な特徴空間内の所定の領域に新たなクラスタを作る場合がある。
このような場合に、フレームのデータが蓄積された結果として生成された新たなクラスタを特殊カテゴリとして呼び、別の光源として識別することができる。そこで、初期推定ベクトルが、この特殊カテゴリに分類される場合について、図9を用いて、引き続き説明を行う。
In the example of FIG. 8, a case where a special category having a new constant distribution exists in the space of the category of the C light source is shown.
That is, when data of a plurality of frames is input, a new cluster may be formed in a predetermined area in the feature space, which is difficult to classify into any of the above-mentioned categories A to E.
In such a case, the new cluster generated as a result of accumulating the frame data can be called as a special category and can be identified as another light source. Therefore, the case where the initial estimation vector is classified into this special category will be continuously described with reference to FIG.

図9は、本実施形態に係る特徴空間において、特殊カテゴリに対応した最適WBGainを説明するためのイメージ図である。 FIG. 9 is an image diagram for explaining the optimum WBGain corresponding to the special category in the feature space according to the present embodiment.

図9を見ると、初期推定ベクトルは、図8で新しく設定された特殊カテゴリに分類されている。このような特殊カテゴリが設定された場合、その特殊カテゴリに対して、前述の機械学習によって再び新たな分類器が算出される。そして、その特殊カテゴリに対応した最適WBGainが別途設定される。
即ち、図9の例では、初期推定ベクトルは、ここで別途設定された特殊カテゴリに対応した最適WBGainが、初期推定ベクトルの最適WBGainとして設定される。
Looking at FIG. 9, the initial estimation vectors are classified into the special categories newly set in FIG. When such a special category is set, a new classifier is calculated again for the special category by the above-mentioned machine learning. Then, the optimum WBGain corresponding to the special category is set separately.
That is, in the example of FIG. 9, as the initial estimation vector, the optimum WBGain corresponding to the special category separately set here is set as the optimum WBGain of the initial estimation vector.

図10は、本実施形態に係る特徴空間において、初期推定ベクトルがB光源とC光源の重複分布範囲内にある場合を説明するためのイメージ図である。 FIG. 10 is an image diagram for explaining a case where the initial estimation vector is within the overlapping distribution range of the B light source and the C light source in the feature space according to the present embodiment.

図10を見ると、例えば、初期推定ベクトルは、B光源とC光源の重複分布範囲内に存在している。
このような場合、まず、光源識別部644は、初期推定ベクトルと各光源の最適WBGainとをアルゴリズムから類似度を算出する。そして、その類似度に基づいて、初期推定ベクトルがB光源に分類されるのか、あるいはC光源に分類されるのか、が選択される。
図10の例では、光源識別部644は、類似度の算出結果として、初期推定ベクトルをC光源の最適WBGainとして選択している。
Looking at FIG. 10, for example, the initial estimation vector exists within the overlapping distribution range of the B light source and the C light source.
In such a case, first, the light source identification unit 644 calculates the similarity between the initial estimation vector and the optimum WBGain of each light source from the algorithm. Then, based on the similarity, whether the initial estimation vector is classified as a B light source or a C light source is selected.
In the example of FIG. 10, the light source identification unit 644 selects the initial estimation vector as the optimum WBGain of the C light source as the calculation result of the similarity.

以上本発明の画像処理装置の一実施形態について説明したが、本発明は上述した本実施形態に限るものではない。また、本実施形態に記載された効果は、本発明から生じる最も好適な効果の列挙に過ぎず、本発明による効果は、本実施形態に記載されたものに限定されるものではない。 Although one embodiment of the image processing apparatus of the present invention has been described above, the present invention is not limited to the above-described embodiment. Further, the effects described in the present embodiment are merely a list of the most suitable effects arising from the present invention, and the effects according to the present invention are not limited to those described in the present embodiment.

例えば、上述の本実施形態では、機械学習の方法としては、SVMを用いると説明を行ったが、機械学習の方法は、これに特に限定されない。
さらに、例えば、この機械学習は、ホワイトバランス処理の実行前に完了することを前提として説明を行ったが、これに特に限定されない。即ち、ホワイトバランス処理を実行する際に、並列して機械学習を行うことも可能である。
For example, in the above-described embodiment, it has been described that SVM is used as the machine learning method, but the machine learning method is not particularly limited to this.
Further, for example, the machine learning has been described on the assumption that it is completed before the execution of the white balance process, but the present invention is not particularly limited thereto. That is, it is also possible to perform machine learning in parallel when executing the white balance process.

例えば、上述の本実施形態では、初期推定部62が(R,G,B)の各チャンネルの最大値(Rmax値,Gmax値,Bmax値)を抽出すると記述したが、これに特に制限されない。
例えば、(R値,G値,B値)を(Y値,U値,V値)に変換して、その最大値を抽出してもよい。
さらに例えば、(Rmax値,Gmax値,Bmax値)を抽出せず、各チャンネルの平均値(Rave値,Gave値,Bave値)を抽出してもよい。
For example, in the above-described embodiment, it is described that the initial estimation unit 62 extracts the maximum value (Rmax value, Gmax value, Bmax value) of each channel of (R, G, B), but the present invention is not particularly limited to this.
For example, (R value, G value, B value) may be converted into (Y value, U value, V value) and the maximum value thereof may be extracted.
Further, for example, the average value (Rave value, Gave value, Bave value) of each channel may be extracted without extracting (Rmax value, Gmax value, Bmax value).

例えば、上述の本実施形態では、特徴空間写像部63が(R/G,B/G)二次元空間を特徴空間として写像すると記述したが、これに特に制限されない。例えば、さらに多くの特徴量を追加して、多次元の特徴空間として写像してもよい。 For example, in the above-described embodiment, it is described that the feature space mapping unit 63 maps the (R / G, B / G) two-dimensional space as the feature space, but the present invention is not particularly limited to this. For example, more features may be added and mapped as a multidimensional feature space.

例えば、図10の例では、光源識別部644は、類似度の概念を用いて、初期推定ベクトルの分類を選択するものとして説明を行ったが、類似度の概念をどのように定義するか、また、どのように初期推定ベクトルの分類を選択するのかは、自由に決定することができる。
例えば、算出した類似度によって重み付けしたB光源とC光源の最適WBGainの平均値を用いて、初期推定ベクトルの最適WBGainを選択してもよい。
For example, in the example of FIG. 10, the light source identification unit 644 has been described as selecting the classification of the initial estimation vector using the concept of similarity, but how to define the concept of similarity? In addition, how to select the classification of the initial estimation vector can be freely determined.
For example, the optimum WBGain of the initial estimation vector may be selected by using the average value of the optimum WBGains of the B light source and the C light source weighted by the calculated similarity.

また、図1に示すハードウェア構成は、本発明の目的を達成するための例示に過ぎず、特に限定されない。 Further, the hardware configuration shown in FIG. 1 is merely an example for achieving the object of the present invention, and is not particularly limited.

また、図2に示すブロック図は、例示に過ぎず、特に限定されない。即ち、上述した一連の処理を全体として実行できる機能がホワイトバランス処理部6に備えられていれば足り、この機能を実現するためにどのような機能ブロックを用いるのかは、特に図2の例に限定されない。
さらに、機能ブロックの存在場所も、図2に限定されず、任意でよい。
そして、1つの機能ブロックは、ハードウェア単体で構成してもよいし、ソフトウェアとの組み合わせで構成してもよい。
Further, the block diagram shown in FIG. 2 is merely an example and is not particularly limited. That is, it suffices if the white balance processing unit 6 is provided with a function capable of executing the above-mentioned series of processing as a whole, and what kind of functional block is used to realize this function is particularly shown in the example of FIG. Not limited.
Further, the location of the functional block is not limited to FIG. 2, and may be arbitrary.
Then, one functional block may be configured by the hardware alone or in combination with the software.

なお、本明細書において、記録媒体に記録されるプログラムを記述するステップは、その順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的或いは個別に実行される処理をも含むものである。 In the present specification, the steps for describing a program recorded on a recording medium are not necessarily processed in chronological order, but also in parallel or individually, even if they are not necessarily processed in chronological order. It also includes the processing to be executed.

以上まとめると、本発明が適用される画像処理装置は、次のような構成を取れば足り、各種各様な実施形態を取ることができる。
即ち、本発明が適用される画像処理装置(例えば図1の画像処理装置1)は、
所定の画像データから所定のパラメータを取得し、前記パラメータに基づく値を、所定の特徴空間上に写像することで、前記特徴空間上の所定の光源推定ベクトルを取得する取得手段(例えば図2の初期推定部62や特徴空間写像部63)と、
前記第1取得手段で取得された光源推定ベクトルを、予め機械学習された分類器によって、前記光源推定ベクトルの前記特徴空間上のカテゴリを分類する分類手段(例えば図2の光源識別部644)と、
前記光源推定ベクトルと前記分類手段により分類されたカテゴリに基づいて、前記画像データのうちの所定のフレームのデータから最適WBGainを取得し、WB補正を行う補正手段(例えば図2のホワイトバランス補正部65)と、
を備えていれば足りる。
Summarizing the above, the image processing apparatus to which the present invention is applied only needs to have the following configuration, and various various embodiments can be taken.
That is, the image processing apparatus to which the present invention is applied (for example, the image processing apparatus 1 in FIG. 1) is
Acquisition means for acquiring a predetermined light source estimation vector on the feature space by acquiring a predetermined parameter from predetermined image data and mapping a value based on the parameter onto a predetermined feature space (for example, FIG. 2). With the initial estimation unit 62 and the feature space mapping unit 63),
The light source estimation vector acquired by the first acquisition means is classified into categories on the feature space of the light source estimation vector by a pre-machine-learned classifier (for example, the light source identification unit 644 in FIG. 2). ,
Based on the light source estimation vector and the category classified by the classification means, the correction means (for example, the white balance correction unit of FIG. 2) obtains the optimum WBGain from the data of a predetermined frame in the image data and performs WB correction. 65) and
It is enough if you have.

これにより、撮影されたシーンの中に複数の光源が環境光として存在していた場合でも、予め機械学習して得られた分類器を用いて、フレームのデータから取得された特徴ベクトルをカテゴリ分類して光源を特定することで、より容易に最適WBGainを取得することができる。
そのため、フレームのデータから推定された光源色に基づいて、(直接)ホワイトバランス補正を行う従来の技術と比較して、より容易に最適ホワイトバランス補正を行うことが可能となる。
As a result, even if multiple light sources exist as ambient light in the captured scene, the feature vector acquired from the frame data is categorized using a classifier obtained by machine learning in advance. By specifying the light source, the optimum WBGain can be obtained more easily.
Therefore, it is possible to more easily perform the optimum white balance correction as compared with the conventional technique of performing the (direct) white balance correction based on the light source color estimated from the frame data.

1・・・画像処理装置
2・・・センサベイヤデータ取得部
3・・・イメージパイプ
4・・・出力画像データ出力部
5・・・シェーディング補正処理部
6・・・ホワイトバランス処理部
7・・・色補間処理部
8・・・色再現ゲイン処理部
9・・・ガンマ処理部
10・・・色空間変換処理部
61・・・RGB算出部
62・・・初期推定部
63・・・特徴空間写像部
64・・・光源判定部
65・・・ホワイトバランス補正部
66・・・補正データ出力部
641・・・教示データ記憶部
642・・・機械学習部
643・・・関連パラメータ記憶部
644・・・光源識別部



1 ... Image processing device 2 ... Sensor bayer data acquisition unit 3 ... Image pipe 4 ... Output image data output unit 5 ... Shading correction processing unit 6 ... White balance processing unit 7 ...・ Color interpolation processing unit 8 ・ ・ ・ Color reproduction gain processing unit 9 ・ ・ ・ Gamma processing unit 10 ・ ・ ・ Color space conversion processing unit 61 ・ ・ ・ RGB calculation unit 62 ・ ・ ・ Initial estimation unit 63 ・ ・ ・ Feature space Mapping unit 64 ・ ・ ・ Light source judgment unit 65 ・ ・ ・ White balance correction unit 66 ・ ・ ・ Correction data output unit 641 ・ ・ ・ Teaching data storage unit 642 ・ ・ ・ Machine learning unit 643 ・ ・ ・ Related parameter storage unit 644 ・・ ・ Light source identification unit



Claims (4)

所定光源の下で撮像された画像データから、撮像に使用されたものとして推定される光源の初期推定ベクトルを特徴空間に写像する写像手段と、
前記特徴空間が既存の光源の種類毎に境界線で区分された複数の区分空間のうち、前記特徴空間に写像された前記初期推定ベクトルが属する区分空間を所定の分類器を用いて判定する判定手段と、
前記判定手段により判定された前記区分空間において予め設定されている最適WBGainを、前記初期推定ベクトルの代わりに前記画像データのホワイトバランス処理に用いるものとして設定する設定手段と、
を備え
前記所定の分類器は、
予め撮像された複数の画像の画像データと、当該複数の画像の夫々が撮影されたシーンの前記既存の光源の種類を示すカテゴリ番号と、からなる教示データに基づいて、各画像データから抽出された特徴ベクトルから前記既存の光源の種類を判定するための基準が機械学習された結果得られたものであって、
前記特徴空間において前記既存の光源の種類毎の境界線を確定できるものである、
画像処理装置。
A mapping means that maps the initial estimation vector of the light source estimated to be used for imaging from the image data captured under a predetermined light source into the feature space.
The feature space of the plurality of segmented space that is partitioned by the boundary lines for each type of existing light sources, determines the division space in which the initial estimate vector is mapped into the feature space belongs by using a predetermined classifier Judgment means and
A setting means for setting an optimum WBGain preset in the division space determined by the determination means to be used for white balance processing of the image data instead of the initial estimation vector.
Equipped with a,
The predetermined classifier is
Extracted from each image data based on teaching data consisting of image data of a plurality of images captured in advance and a category number indicating the type of the existing light source of the scene in which each of the plurality of images was captured. The criteria for determining the type of the existing light source from the feature vector was obtained as a result of machine learning.
In the feature space, the boundary line for each type of the existing light source can be determined.
Image processing device.
前記設定手段は、
前記初期推定ベクトルが属する区分空間と隣接する他の区分空間の夫々の最適WBGainと前記初期推定ベクトルとの類似度に基づいて、前記最適WBGainを設定する、
請求項1に記載の画像処理装置。
The setting means is
The optimum WBGain is set based on the similarity between the optimum WBGain of each of the compartmentalized spaces to which the initial estimation vector belongs and the other compartmentalized spaces adjacent to the initial estimation vector and the initial estimation vector.
The image processing apparatus according to claim 1.
前記初期推定ベクトルが属する前記区分空間における位置と前記区分空間上の最適WBGainの位置とが一定の距離以上に離れている場合、前記機械学習により新たな分類器が生成される、
請求項1又は2に記載の画像処理装置。
When the position in the division space to which the initial estimation vector belongs and the position of the optimum WBGain in the division space are separated by a certain distance or more, a new classifier is generated by the machine learning.
The image processing apparatus according to claim 1 or 2.
画像処理装置を制御するコンピュータを、
所定光源の下で撮像された画像データから、撮像に使用されたものとして推定される光源の初期推定ベクトルを特徴空間に写像する写像手段と、
前記特徴空間が既存の光源の種類毎に境界線で区分された複数の区分空間のうち、前記特徴空間に写像された前記初期推定ベクトルが属する区分空間を所定の分類器を用いて判定する判定手段と、
前記判定手段により判定された前記区分空間において予め設定されている最適WBGainを、前記初期推定ベクトルの代わりに前記画像データのホワイトバランス処理に用いるものとして設定する設定手段、
として機能させるプログラムであって、
前記所定の分類器は、
予め撮像された複数の画像の画像データと、当該複数の画像の夫々が撮影されたシーンの前記既存の光源の種類を示すカテゴリ番号と、からなる教示データに基づいて、各画像データから抽出された特徴ベクトルから前記既存の光源の種類を判定するための基準が機械学習された結果得られたものであって、
前記特徴空間において前記既存の光源の種類毎の境界線を確定できるものである、
プログラム。
The computer that controls the image processing device,
A mapping means that maps the initial estimation vector of the light source estimated to be used for imaging from the image data captured under a predetermined light source into the feature space.
The feature space of the plurality of segmented space that is partitioned by the boundary lines for each type of existing light sources, determines the division space in which the initial estimate vector is mapped into the feature space belongs by using a predetermined classifier Judgment means and
A setting means for setting an optimum WBGain preset in the division space determined by the determination means to be used for white balance processing of the image data instead of the initial estimation vector.
It is a program that functions as
The predetermined classifier is
Extracted from each image data based on teaching data consisting of image data of a plurality of images captured in advance and a category number indicating the type of the existing light source of the scene in which each of the plurality of images was captured. The criteria for determining the type of the existing light source from the feature vector was obtained as a result of machine learning.
In the feature space, the boundary line for each type of the existing light source can be determined.
program.
JP2017038725A 2017-03-01 2017-03-01 Image processing device Active JP6934240B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2017038725A JP6934240B2 (en) 2017-03-01 2017-03-01 Image processing device
JP2021132352A JP7152065B2 (en) 2017-03-01 2021-08-16 Image processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017038725A JP6934240B2 (en) 2017-03-01 2017-03-01 Image processing device

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2021132352A Division JP7152065B2 (en) 2017-03-01 2021-08-16 Image processing device

Publications (2)

Publication Number Publication Date
JP2018148281A JP2018148281A (en) 2018-09-20
JP6934240B2 true JP6934240B2 (en) 2021-09-15

Family

ID=63590040

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2017038725A Active JP6934240B2 (en) 2017-03-01 2017-03-01 Image processing device
JP2021132352A Active JP7152065B2 (en) 2017-03-01 2021-08-16 Image processing device

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2021132352A Active JP7152065B2 (en) 2017-03-01 2021-08-16 Image processing device

Country Status (1)

Country Link
JP (2) JP6934240B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6696095B1 (en) * 2018-11-07 2020-05-20 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd Image processing device, imaging device, image processing method, and program
WO2020142871A1 (en) * 2019-01-07 2020-07-16 华为技术有限公司 White balance processing method and device for image
WO2021199366A1 (en) * 2020-03-31 2021-10-07 ソニーグループ株式会社 Information processing device, method, program, and model
KR20220166592A (en) * 2021-06-10 2022-12-19 삼성전자주식회사 Electronic device including camera module and method operating the electronic device
CN115529448B (en) * 2022-03-10 2023-07-11 荣耀终端有限公司 Image processing method and related device

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3849834B2 (en) * 1999-02-02 2006-11-22 富士写真フイルム株式会社 Auto white balance control method
JP4158592B2 (en) * 2003-04-25 2008-10-01 富士フイルム株式会社 Auto white balance adjustment method and camera to which this method is applied
JP2006254336A (en) * 2005-03-14 2006-09-21 Fuji Photo Film Co Ltd White balance correction method and apparatus
US7912279B2 (en) * 2006-10-26 2011-03-22 Qualcomm Incorporated Automatic white balance statistics collection
JP5092612B2 (en) * 2007-08-03 2012-12-05 株式会社ニコン Color imaging device
JP5023874B2 (en) * 2007-08-06 2012-09-12 株式会社ニコン Color imaging device
JP2013168723A (en) * 2012-02-14 2013-08-29 Nikon Corp Image processing device, imaging device, image processing program, and image processing method
JP6561479B2 (en) * 2015-01-28 2019-08-21 株式会社シグマ Imaging device capable of color shading correction

Also Published As

Publication number Publication date
JP2018148281A (en) 2018-09-20
JP2021180527A (en) 2021-11-18
JP7152065B2 (en) 2022-10-12

Similar Documents

Publication Publication Date Title
JP7152065B2 (en) Image processing device
US11849224B2 (en) Global tone mapping
US10021313B1 (en) Image adjustment techniques for multiple-frame images
KR102356372B1 (en) White balance processing method, electronic device and computer readable storage medium
US20170064179A1 (en) Method and Apparatus for Auto Exposure Value Detection for High Dynamic Range Imaging
US20180315166A1 (en) Depth assisted auto white balance
JP2009159496A (en) White balance control device, imaging apparatus using the same, and white balance control method
JP2005167956A (en) Digital auto white balancing device
KR101756548B1 (en) Methods for awb(automatic white balance) compensation and apparatuses using the same
US20130083237A1 (en) Imaging apparatus, imaging method, and program
KR20110016505A (en) Color adjustment
JP2016540440A (en) Picture processing method and apparatus
US11889202B2 (en) Image processing apparatus, image processing method, and storage medium
US11457189B2 (en) Device for and method of correcting white balance of image
US20180288336A1 (en) Image processing apparatus
WO2013114803A1 (en) Image processing device, image processing method therefor, computer program, and image processing system
JP6632724B2 (en) Device and method for reducing exposure time set for high dynamic range video / imaging
US20150312487A1 (en) Image processor and method for controlling the same
US9113120B2 (en) Apparatus and a method for processing a moving image, and a non-transitory computer readable medium thereof
KR20120122574A (en) Apparatus and mdthod for processing image in a digital camera
JP2009004966A (en) Imaging apparatus
KR102389284B1 (en) Method and device for image inpainting based on artificial intelligence
US20190052803A1 (en) Image processing system, imaging apparatus, image processing apparatus, control method, and storage medium
WO2022067761A1 (en) Image processing method and apparatus, capturing device, movable platform, and computer readable storage medium
WO2013114802A1 (en) Image processing device, image processing method therefor, computer program, and image processing system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200228

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200827

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200929

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201130

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210427

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210621

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210720

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210816

R150 Certificate of patent or registration of utility model

Ref document number: 6934240

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150