JP2014216783A - Image processing apparatus, method and program - Google Patents

Image processing apparatus, method and program Download PDF

Info

Publication number
JP2014216783A
JP2014216783A JP2013091599A JP2013091599A JP2014216783A JP 2014216783 A JP2014216783 A JP 2014216783A JP 2013091599 A JP2013091599 A JP 2013091599A JP 2013091599 A JP2013091599 A JP 2013091599A JP 2014216783 A JP2014216783 A JP 2014216783A
Authority
JP
Japan
Prior art keywords
pixel
image
data
waveform
reference distance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013091599A
Other languages
Japanese (ja)
Inventor
小薬 弘治
Hiroharu Ogusuri
弘治 小薬
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2013091599A priority Critical patent/JP2014216783A/en
Publication of JP2014216783A publication Critical patent/JP2014216783A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • G03B17/18Signals indicating condition of a camera member or suitability of light
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B3/00Focusing arrangements of general interest for cameras, projectors or printers

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Focusing (AREA)
  • Indication In Cameras, And Counting Of Exposures (AREA)
  • Automatic Focus Adjustment (AREA)
  • Studio Devices (AREA)
  • Spectrometry And Color Measurement (AREA)

Abstract

PROBLEM TO BE SOLVED: To precisely confirm hue of an interested subject and white balance.SOLUTION: An average value of focal state data which is acquired by a phase difference range finding pickup element 104 in a reference distance region 601 specified by a user in an imaged picture is taken as a reference distance focus data. In a waveform generating part 107, a reference distance pixel vector scope 602 is generated using only pixel data of the pixel having focus state data close to or agreed with the reference distance focus data, which is displayed by superposing on the imaged picture, at a bottom-right corner of a screen. A pixel that is not used for generating the reference distance pixel vector scope 602 is replaced with monochrome data having no saturation at a pixel replacement part 115. Since the reference distance pixel vector scope 602 is generated by using only pixel data of the pixel having focus state data close to or agreed with the reference distance focus data, percentage of pixel data in a subject A is large, and a pixel data in the subject A is easily and visually confirmed with vector scope waveform.

Description

本発明は、撮像素子で撮像された画像からアシスト波形を生成して表示するのに利用して好適な画像処理装置、方法及びプログラムに関する。   The present invention relates to an image processing apparatus, method, and program suitable for use in generating and displaying an assist waveform from an image captured by an image sensor.

従来、カメラやビデオカメラでの撮影時、操作者は画像全体及び主要被写体が適正な色合いになっているかどうかを判定し、必要があれば調整を行う。撮影現場では、カメラの出力信号を波形表示し、色相及び彩度をモニタ可能な機器であるベクトルスコープに接続し、確認する方法を取っている。
ベクトルスコープは、画像の色信号の分布を色相と彩度で表現したものである。ベクトルスコープは円の色相環となっており、色相を角度、彩度を原点からの距離で示し、円の外側に向かうほど彩度が高いことを意味する。彩度が高い画像の例として、エメラルドグリーンの海や赤いハイビスカスの花や黄色のフルーツ等がある。彩度が高すぎると画像をテレビで表示した場合、ビートが発生することがある。また、その画像を放送信号として用いた場合には、その色が再現されないことがある。このため、撮影時にベクトルスコープを用いて彩度が高過ぎないかを確認する必要がある。
Conventionally, when shooting with a camera or a video camera, the operator determines whether or not the entire image and the main subject have appropriate colors, and performs adjustment if necessary. At the shooting site, the output signal of the camera is displayed in a waveform and connected to a vector scope, which is a device that can monitor the hue and saturation, and checked.
The vector scope expresses the distribution of color signals of an image with hue and saturation. The vector scope is a circle of hues, indicating hue as an angle and saturation as a distance from the origin, meaning that the saturation is higher toward the outside of the circle. Examples of images with high saturation include emerald green sea, red hibiscus flowers, and yellow fruits. If the saturation is too high, beats may occur when an image is displayed on a television. In addition, when the image is used as a broadcast signal, the color may not be reproduced. For this reason, it is necessary to check whether the saturation is too high using a vector scope at the time of shooting.

一方、被写体が人物の場合、シーンの切り替わり等、肌の色相が少しでも変わると印象が違ってしまうことから、シビアに画質を調整する必要があり、そのための表示・調整機能も提案されている(特許文献1を参照)。この機能をベクトルスコープで実現するとき、人物の肌色は一般的に彩度が低いため、操作者はベクトルスコープの原点を中心に拡大する機能を使うことで、ベクトルスコープ内のマークや外円のメモリとの位置関係より肌色の色相を確認することになる。   On the other hand, if the subject is a person, the impression will be different if the hue of the skin changes even a little, such as switching scenes, so it is necessary to adjust the image quality severely, and display and adjustment functions for that are also proposed (See Patent Document 1). When this function is implemented with a vectorscope, the skin color of a person is generally low in saturation, so the operator can use the function that enlarges the origin of the vectorscope around the origin of marks and outer circles in the vectorscope. The flesh color hue is confirmed from the positional relationship with the memory.

また、被写体を撮像して画像を生成するための撮像素子に、マイクロレンズと光電変換部の相対位置をずらした画素を2次元的に多数配置した撮像装置が提案されている(特許文献2を参照)。特許文献2に開示された撮像装置では、通常の画像を生成するときはマイクロレンズと光電変換部の相対位置ずれ方向が互いに異なる画素の出力を加算することによって画像を生成する。一方、撮影光学系の焦点状態を検出する(焦点検出を行う)ときには、上記相対位置ずれ方向が互いに異なる画素群によって生成される一対の像信号の位相差を求め、該位相差から焦点状態を求める。   In addition, an imaging apparatus has been proposed in which a number of pixels in which the relative positions of the microlens and the photoelectric conversion unit are shifted are two-dimensionally arranged in an imaging element for capturing an image of a subject and generating an image (Patent Document 2). reference). In the imaging device disclosed in Patent Document 2, when generating a normal image, an image is generated by adding the outputs of pixels having different relative displacement directions between the microlens and the photoelectric conversion unit. On the other hand, when the focus state of the photographing optical system is detected (focus detection is performed), the phase difference between the pair of image signals generated by the pixel groups having different relative displacement directions is obtained, and the focus state is determined from the phase difference. Ask.

特開2009−88886号公報JP 2009-88886 A 特開平04−267211号公報JP 04-267211 A

ベクトルスコープを用いる場合、例えばエメラルドグリーンの海を背景にビーチでの人物の撮影を行うとき等、背景の画素データも含めて波形情報にしてしまうため、人物の肌色の色相合わせを精度高く確認することができない。   When using a vectorscope, for example, when shooting a person on the beach against the background of the emerald green sea, the waveform information including the background pixel data is used to check the hue of the person's skin color with high accuracy. I can't.

本発明は上述した問題点を解決するためのものであり、注目被写体の色相、ホワイトバランスを精度高く確認できるようにする。   The present invention is for solving the above-described problems, and enables the hue and white balance of a subject of interest to be confirmed with high accuracy.

本発明の画像処理装置は、撮像素子で撮像された画像からアシスト波形を生成して表示する画像処理装置であって、前記撮像素子で撮像された画像の領域を指定する領域指定手段と、前記撮像素子で撮像された画像において、前記領域指定手段で指定された領域の画素から所定の焦点状態を求め、前記所定の焦点状態と一致又は近傍の焦点状態を持つ画素を抽出する画素抽出手段と、前記画素抽出手段で抽出した画素の画素データを用いてアシスト波形を生成する波形生成手段とを備えたことを特徴とする。   An image processing apparatus according to the present invention is an image processing apparatus that generates and displays an assist waveform from an image captured by an image sensor, the area designating unit designating an area of the image captured by the image sensor, A pixel extraction unit that obtains a predetermined focus state from pixels in a region designated by the region designation unit in an image captured by the imaging element, and extracts a pixel having a focus state that matches or is close to the predetermined focus state; And waveform generating means for generating an assist waveform using pixel data of the pixels extracted by the pixel extracting means.

本発明によれば、撮像画像上で指定された領域の画素に対して所定の条件を満たす画素を抽出して、基準距離画素ベクトルスコープを生成するようにしたので、注目被写体の色相、ホワイトバランスを精度高く確認することができる。   According to the present invention, the reference distance pixel vector scope is generated by extracting the pixels that satisfy the predetermined condition with respect to the pixels in the region designated on the captured image, so that the hue and white balance of the subject of interest are generated. Can be confirmed with high accuracy.

実施形態に係る撮像装置の構成を示すブロック図である。It is a block diagram which shows the structure of the imaging device which concerns on embodiment. 波形生成部が生成するベクトルスコープの例を示す図である。It is a figure which shows the example of the vector scope which a waveform generation part produces | generates. カラーバー画像のベクトルスコープ表示を説明するための図である。It is a figure for demonstrating the vectorscope display of a color bar image. 撮像装置で撮影されている画像を示す図である。It is a figure which shows the image currently image | photographed with the imaging device. 全体画素ベクトルスコープ表示を説明するための図である。It is a figure for demonstrating whole pixel vectorscope display. 基準距離画素ベクトルスコープ表示を説明するための図である。It is a figure for demonstrating a reference distance pixel vectorscope display. 第1の実施形態におけるベクトルスコープ生成処理を示すフローチャートである。It is a flowchart which shows the vector scope production | generation process in 1st Embodiment. 第1の実施形態における基準距離画素ベクトルスコープ生成処理を示すフローチャートである。It is a flowchart which shows the reference distance pixel vector scope production | generation process in 1st Embodiment. 全体画素ベクトルスコープ及び基準距離画素ベクトルスコープ同時表示を説明するための図である。It is a figure for demonstrating the whole pixel vectorscope and the reference distance pixel vectorscope simultaneous display. 第2の実施形態におけるベクトルスコープ生成処理を示すフローチャートである。It is a flowchart which shows the vector scope production | generation process in 2nd Embodiment. 撮像装置で撮影されている画像を示す図である。It is a figure which shows the image currently image | photographed with the imaging device. 基準距離画素ベクトルスコープ表示を説明するための図である。It is a figure for demonstrating a reference distance pixel vectorscope display. 基準距離画素ベクトルスコープ表示を説明するための図である。It is a figure for demonstrating a reference distance pixel vectorscope display. 第3の実施形態における基準距離画素ベクトルスコープ生成処理を示すフローチャートである。It is a flowchart which shows the reference distance pixel vector scope production | generation process in 3rd Embodiment.

以下、添付図面を参照して、本発明の好適な実施形態について説明する。
(第1の実施形態)
図1は、本発明を適用した画像処理装置として機能する撮像装置100の構成を示すブロック図である。撮像装置100に対してメモリカード等の記録媒体200が着脱可能となっている。
101は撮像装置100のメインメモリとなるDRAM(Dynamic Random Access Memory)であり、画像データや、記録媒体200から読み込んだ画像符号化データ等を一時保持することが可能である。
102はDRAM101にアクセスするためのデータバスである。
103はレンズユニットであり、レンズ及びレンズフードを含む。
Preferred embodiments of the present invention will be described below with reference to the accompanying drawings.
(First embodiment)
FIG. 1 is a block diagram illustrating a configuration of an imaging apparatus 100 that functions as an image processing apparatus to which the present invention is applied. A recording medium 200 such as a memory card can be attached to and detached from the imaging apparatus 100.
Reference numeral 101 denotes a DRAM (Dynamic Random Access Memory) serving as a main memory of the imaging apparatus 100, which can temporarily hold image data, encoded image data read from the recording medium 200, and the like.
Reference numeral 102 denotes a data bus for accessing the DRAM 101.
A lens unit 103 includes a lens and a lens hood.

104は位相差測距撮像素子であり、画像を生成するための撮像素子にマイクロレンズと光電変換部の相対位置をずらした画素が2次元的に多数配置され、画素ごとに焦点状態を検出することが可能である。位相差測距撮像素子104で生成された画素データ、及び焦点状態データはDRAM101に格納される。画素データは、マイクロレンズと光電変換部の相対位置ずれ方向が互いに異なる画素の出力を加算することにより生成される。焦点状態データは、マイクロレンズと光電変換部の相対位置ずれ方向が互いに異なる画素群によって生成される一対の像信号の位相差から生成される。   Reference numeral 104 denotes a phase difference ranging image sensor. A large number of pixels in which the relative positions of the microlens and the photoelectric conversion unit are shifted are two-dimensionally arranged on the image sensor for generating an image, and the focus state is detected for each pixel. It is possible. Pixel data and focus state data generated by the phase difference ranging image sensor 104 are stored in the DRAM 101. Pixel data is generated by adding the outputs of pixels having different relative displacement directions between the microlens and the photoelectric conversion unit. The focus state data is generated from a phase difference between a pair of image signals generated by a pixel group in which the relative positional shift directions of the microlens and the photoelectric conversion unit are different from each other.

105は距離画素抽出部であり、詳しくは後述するが、位相差測距撮像素子104で撮像された画像領域において、ユーザが指定した基準距離領域の画素から所定の焦点状態データ(後述する基準距離焦点データ)を求め、所定の焦点状態データと一致又は近傍の焦点状態データを持つ画素を抽出する。近傍とは、所定の焦点状態データとの差分が所定範囲内であることをいう。   Reference numeral 105 denotes a distance pixel extraction unit, which will be described in detail later. In an image area captured by the phase difference ranging image sensor 104, predetermined focus state data (reference distance described later) is obtained from pixels in a reference distance area designated by the user. Focus data) is obtained, and pixels having focus state data that is coincident with or close to predetermined focus state data are extracted. The vicinity means that a difference from predetermined focus state data is within a predetermined range.

106は閉領域判別部であり、詳しくは後述するが、位相差測距撮像素子104で撮像された画像領域において、距離画素抽出部105が画素を抽出する際に、ユーザが指定した基準距離領域に対して閉領域となる(基準距離領域とつながっている)画素であるか否かを判別する。   Reference numeral 106 denotes a closed region determination unit, which will be described in detail later. In the image region captured by the phase difference ranging image sensor 104, a reference distance region designated by the user when the distance pixel extraction unit 105 extracts pixels. It is determined whether or not the pixel is a closed region (connected to the reference distance region).

107は波形生成部であり、位相差測距撮像素子104、距離画素抽出部105、閉領域判別部106で生成、判別された画素データから輝度、色相、彩度等の情報を表わすアシスト波形、本実施形態ではベクトルスコープを生成する。
108はタッチパネルであり、液晶パネル等の表示装置と透明な平板状の位置入力センサーとを組み合わせた電子部品で、画面上の表示をユーザが接触することで位置情報を検出することが可能である。
Reference numeral 107 denotes a waveform generation unit, which is an assist waveform that represents information such as luminance, hue, and saturation from pixel data generated and determined by the phase difference ranging image sensor 104, the distance pixel extraction unit 105, and the closed region determination unit 106. In this embodiment, a vector scope is generated.
Reference numeral 108 denotes a touch panel, which is an electronic component that combines a display device such as a liquid crystal panel and a transparent flat plate-like position input sensor, and can detect position information when the user touches the display on the screen. .

109はメディアインタフェースであり、撮像装置100に装着された記録媒体200から画像符号化データをDRAM101に読み込むことが可能である。
110はメインCPUであり、撮像装置100全体の制御を行う。
111はプログラムバスであり、CPU110と、ROM112及びRAM113を接続する。
112はROM(Read Only Memory)であり、CPU110が実行するプログラムが格納されている。ROM112には、例えばタッチパネル108から取得した位置情報から、位相差測距撮像素子104で撮像された画像領域内で対応する画素領域を算出する領域指定処理プログラムが格納されており、CPU110によって実行可能である。
113はRAM(Random Access Memory)であり、CPU110のワークメモリである。
114はCPU110が撮像装置100の各ブロックに制御指示を行うための制御バスである。
115は画素置換部であり、DRAM101に保持されている画像データの画素データを、所定の画素データに置き換える。
Reference numeral 109 denotes a media interface, which can read encoded image data into the DRAM 101 from the recording medium 200 attached to the imaging apparatus 100.
Reference numeral 110 denotes a main CPU that controls the entire imaging apparatus 100.
A program bus 111 connects the CPU 110 to the ROM 112 and the RAM 113.
Reference numeral 112 denotes a ROM (Read Only Memory), which stores a program executed by the CPU 110. The ROM 112 stores an area designation processing program for calculating a corresponding pixel area in an image area captured by the phase difference ranging image sensor 104 from position information acquired from the touch panel 108, for example, and can be executed by the CPU 110. It is.
Reference numeral 113 denotes a RAM (Random Access Memory), which is a work memory of the CPU 110.
Reference numeral 114 denotes a control bus used by the CPU 110 to give control instructions to each block of the imaging apparatus 100.
A pixel replacement unit 115 replaces the pixel data of the image data held in the DRAM 101 with predetermined pixel data.

図2に、波形生成部107が生成するベクトルスコープの例を示す。
ベクトルスコープは、画像の色差データ(R−Y・B−Y)の2つのデータをそれぞれ「X軸・Y軸」に配置した形になる。色データが強いほどスコープの外側に、中央に近づくほど無彩色に近いということを表わす。また、各頂点の位置を見ることで色相(HUE)の変化も確認でき、波形の明るさがその位置の色差データの画素頻度を表わす。
このベクトルスコープは、撮影現場等でホワイトバランスの確認にも用いられる。チェックするのは色の偏りであり、彩度ゼロを意図した真っ白の画面であるのに、光点が中心からずれていたりした場合は、ホワイトバランスがずれていることを示す。彩度が高すぎて光点が円形を飛び出している場合は、再生機器によってはその色がうまく再現できない可能性がある。
FIG. 2 shows an example of a vector scope generated by the waveform generation unit 107.
The vector scope has two types of image color difference data (RY and BY) arranged on the “X axis and Y axis”, respectively. The stronger the color data, the closer to the outside of the scope, and the closer to the center, the closer to the achromatic color. Further, a change in hue (HUE) can be confirmed by looking at the position of each vertex, and the brightness of the waveform represents the pixel frequency of the color difference data at that position.
This vector scope is also used for confirming white balance at a shooting site or the like. A check is made for color deviation, and a white screen intended to achieve zero saturation, but if the light spot is shifted from the center, this indicates that the white balance is shifted. If the saturation is too high and the light spot protrudes from a circle, the color may not be reproduced well depending on the playback device.

図3は、ホワイトバランス調整基準画像として用いられるカラーバー画像のベクトルスコープ表示を説明するための図である。図3(a)はカラーバー画像であり、基準となるWhite、Yellow、Cyan、Green、Magenta、Red、Blueが水平方向に並んだ画像である。このカラーバー画像をベクトルスコープで表示した場合、スコープ上にある「田」マークの目印の中心に光点が集まり、図3(b)に示すような波形表示となる。これが撮像装置100における「正しい」色ということを示している。   FIG. 3 is a diagram for explaining a vectorscope display of a color bar image used as a white balance adjustment reference image. FIG. 3A is a color bar image, which is an image in which white, yellow, cyan, green, magenta, red, and blue serving as a reference are arranged in the horizontal direction. When this color bar image is displayed with a vector scope, a light spot is gathered at the center of the mark of the “field” mark on the scope, resulting in a waveform display as shown in FIG. This indicates the “correct” color in the image capturing apparatus 100.

次に、図4、図5、図6を参照して、撮像装置100における全体画素ベクトルスコープ表示及び基準距離画素ベクトルスコープ表示について説明する。
図4は、撮像装置100で現在撮影されている画像を示す図である。撮影画像には、背景及び被写体Aが写っている。
Next, the entire pixel vector scope display and the reference distance pixel vector scope display in the imaging apparatus 100 will be described with reference to FIGS. 4, 5, and 6.
FIG. 4 is a diagram illustrating an image currently captured by the imaging apparatus 100. The background and subject A are shown in the photographed image.

図5は、撮像装置100における全体画素ベクトルスコープ表示を説明するための図である。タッチパネル108に、図4の撮影画像を表示する撮影画面が表示される。波形生成部107では、撮影画像全体の画素データを用いてベクトルスコープ501を生成する。このように撮影画像全体の画素データを用いて生成されるベクトルスコープを全体画素ベクトルスコープと呼ぶ。生成された全体画素ベクトルスコープ501は、画面右下に撮影画像の上に重畳表示される。
この全体画素ベクトルスコープ501は、撮影画像全体の画素データを用いて生成されている。したがって、画素データ量の多い背景部分の画素の割合が多く、ベクトルスコープ波形で視認しやすいのは背景部分の画素データとなっている。
FIG. 5 is a diagram for explaining the entire pixel vector scope display in the imaging apparatus 100. A shooting screen for displaying the shot image of FIG. 4 is displayed on the touch panel 108. The waveform generation unit 107 generates a vector scope 501 using pixel data of the entire captured image. A vector scope generated using the pixel data of the entire captured image in this way is called an entire pixel vector scope. The generated whole pixel vector scope 501 is superimposed and displayed on the photographed image at the lower right of the screen.
The entire pixel vector scope 501 is generated using pixel data of the entire captured image. Therefore, the ratio of pixels in the background portion with a large amount of pixel data is large, and the pixel data in the background portion is easy to see with the vectorscope waveform.

図6は、撮像装置100における基準距離画素ベクトルスコープ表示を説明するための図である。
ユーザが図4の撮影画像において基準距離領域601を指定すると、この基準距離領域601内において位相差測距撮像素子104で取得される焦点状態データの平均値を基準距離焦点データとする。図6の例では、ユーザが被写体Aの一部を基準距離領域601としている。波形生成部107では、基準距離焦点データと一致又は近傍の焦点状態データを持つ画素の画素データだけを用いてベクトルスコープ602を生成する。このように撮影画像から焦点状態データに応じて抽出した画素の画素データを用いて生成されるベクトルスコープを基準距離画素ベクトルスコープと呼ぶ。生成された基準距離画素ベクトルスコープ602は、画面右下に撮影画像の上に重畳表示される。
また、基準距離画素ベクトルスコープ602の生成に用いられない画素、ここでは背景部分の画素の画素データは、画素置換部115で彩度がない白黒データ(白黒画素)に置き換えて表示される。
この基準距離画素ベクトルスコープ602は、基準距離焦点データと一致又は近傍の焦点状態データを持つ画素の画素データだけを用いて生成されている。したがって、被写体Aの画素データの割合が多く、ベクトルスコープ波形で視認しやすいのは被写体Aの画素データとなっている。
FIG. 6 is a diagram for explaining reference distance pixel vector scope display in the imaging apparatus 100.
When the user designates the reference distance area 601 in the captured image of FIG. 4, the average value of the focus state data acquired by the phase difference ranging image sensor 104 in the reference distance area 601 is set as the reference distance focus data. In the example of FIG. 6, the user sets a part of the subject A as the reference distance area 601. In the waveform generation unit 107, the vector scope 602 is generated using only pixel data of pixels having the same or near focus state data as the reference distance focus data. The vector scope generated using the pixel data of the pixels extracted from the photographed image according to the focus state data in this way is called a reference distance pixel vector scope. The generated reference distance pixel vector scope 602 is superimposed on the photographed image at the lower right of the screen.
In addition, pixel data of pixels that are not used for generation of the reference distance pixel vector scope 602, in this case, pixels in the background portion, are displayed by being replaced with monochrome data (monochrome pixels) having no saturation by the pixel replacement unit 115.
This reference distance pixel vector scope 602 is generated using only pixel data of pixels having the same or near focus state data as the reference distance focus data. Therefore, the ratio of the pixel data of the subject A is large, and the pixel data of the subject A is easy to visually recognize with the vector scope waveform.

図7、図8を参照して、撮像装置100におけるベクトルスコープ表示の処理動作について説明する。図7、図8に示す処理は、CPU110がプログラムを実行し、各部を制御することにより実現される。
図7は、第1の実施形態におけるベクトルスコープ生成処理を示すフローチャートである。
ユーザがタッチパネル108を用いて基準距離領域(図6の基準距離領域601を参照)を指定したか否かを判別する(ステップS701)。
ステップS701でNoと判別された場合、全体画素ベクトルスコープを生成する(ステップS703)。
ステップS701でYesと判別された場合、基準距離画素ベクトルスコープを生成する(ステップS702)。
With reference to FIG. 7 and FIG. 8, the processing operation of the vector scope display in the imaging apparatus 100 will be described. The processing shown in FIGS. 7 and 8 is realized by the CPU 110 executing a program and controlling each unit.
FIG. 7 is a flowchart showing vector scope generation processing in the first embodiment.
It is determined whether or not the user has designated a reference distance area (see the reference distance area 601 in FIG. 6) using the touch panel 108 (step S701).
When it is determined No in step S701, an entire pixel vector scope is generated (step S703).
When it is determined Yes in step S701, a reference distance pixel vector scope is generated (step S702).

図8は、ステップS702の基準距離画素ベクトルスコープ生成処理を示すフローチャートである。
CPU110は、撮影画像の全画素に対して波形生成に用いるか否かの判別がなされたか否かを判別する(ステップS801)。この判別は、例えば撮影画像の左上座標を原点(0,0)とし、撮影画像の幅をw、高さをhとした場合、撮影画像の右下座標(w−1,h−1)までの範囲で行う。水平方向のカウンタをx、垂直方向のカウンタをyとしたときに、x、yの初期値をそれぞれ0とし、(0≦x<w)且つ(0≦y<h)の条件を満たすすべての画素に対して「波形生成に用いるか否か」の判別がなされたか否かを判別する。
FIG. 8 is a flowchart showing the reference distance pixel vector scope generation process in step S702.
The CPU 110 determines whether or not it has been determined whether or not to use all the pixels of the captured image for waveform generation (step S801). For example, when the upper left coordinate of the captured image is the origin (0, 0), the width of the captured image is w, and the height is h, the determination is made up to the lower right coordinate (w-1, h-1) of the captured image. Perform in the range. When the horizontal counter is x and the vertical counter is y, the initial values of x and y are 0, and all the conditions that satisfy (0 ≦ x <w) and (0 ≦ y <h) are satisfied. It is determined whether or not “whether or not to use for waveform generation” is determined for the pixel.

ステップS801でNOと判別された場合、距離画素抽出部105では、現時点での判別対象の画素(x,y)の焦点状態データが、ステップS701で指定された基準距離領域内において求められた基準距離焦点データと一致する又は近傍であるか否かを判別する(ステップS802)。上述したように基準距離領域内において取得される焦点状態データの平均値を基準距離焦点データとし、判別対象の画素の焦点状態データと基準距離焦点状態データとの差分が所定の範囲内にあれば近傍とする。   If NO is determined in step S801, the distance pixel extraction unit 105 determines the current focus state data of the pixel (x, y) to be determined in the reference distance area specified in step S701. It is determined whether or not the distance focus data matches or is near (step S802). As described above, if the average value of the focus state data acquired in the reference distance area is set as the reference distance focus data, and the difference between the focus state data of the discrimination target pixel and the reference distance focus state data is within a predetermined range. It is near.

ステップS802でYesと判別された場合、判別対象の画素(x,y)を波形生成画素として、その画素データを波形サンプリングデータとして登録し、ステップS801に戻る(ステップS803)。
ステップS802でNoと判別された場合、判別対象の画素(x,y)の画素データを画素置換部115で白黒データに置き換えて、ステップS801に戻る(ステップS804)。
If YES is determined in step S802, the pixel (x, y) to be determined is registered as a waveform generation pixel, and the pixel data is registered as waveform sampling data, and the process returns to step S801 (step S803).
If NO in step S802, the pixel replacement unit 115 replaces the pixel data of the determination target pixel (x, y) with the monochrome data, and the process returns to step S801 (step S804).

ステップS801でYesと判別された場合、波形生成部107では、その時点までに登録された波形サンプリングデータを用いてベクトルスコープ、すなわち基準距離画素ベクトルスコープを生成する(ステップS805)。
このように、基準距離焦点データと、撮影画像の各画素の焦点状態データとを画素単位で比較し、基準距離焦点データと一致又は近傍の焦点状態データを持つ画素の画素データだけを用いて基準距離画素ベクトルスコープを生成することができる。
If it is determined Yes in step S801, the waveform generation unit 107 generates a vector scope, that is, a reference distance pixel vector scope, using the waveform sampling data registered up to that point (step S805).
In this way, the reference distance focus data and the focus state data of each pixel of the captured image are compared on a pixel basis, and only the pixel data of the pixels having the same or near focus state data as the reference distance focus data is used as a reference. A distance pixel vectorscope can be generated.

以上説明したように、撮像素子で撮像された画像において、指定された領域の画素から基準距離焦点データを求め、その基準距離焦点データと一致又は近傍の焦点状態データを持つ画素を抽出して、基準距離画素ベクトルスコープを生成するようにしたので、注目被写体の色相、ホワイトバランスを精度高く確認することができる。   As described above, in the image picked up by the image sensor, the reference distance focus data is obtained from the pixels in the designated area, and the pixels having the focus state data coincident with or near the reference distance focus data are extracted, Since the reference distance pixel vector scope is generated, the hue and white balance of the subject of interest can be confirmed with high accuracy.

(第2の実施形態)
次に、第2の実施形態について説明する。なお、撮像装置の構成については第1の実施形態と同様であり、その説明を省略する。
図9は、撮像装置100における全体画素ベクトルスコープ及び基準距離画素ベクトルスコープ同時表示を説明するための図である。タッチパネル108に、図4の撮影画像を表示する撮影画面が表示される。そして、全体画素ベクトルスコープ501が画面右上に重畳表示され、基準距離画素ベクトルスコープ602が画面右下に重畳表示される。
このように異なる2つのベクトルスコープを同一画面に同時に表示することで、撮影画像の色相調整をより詳細且つ容易に調整することが可能になる。
(Second Embodiment)
Next, a second embodiment will be described. Note that the configuration of the imaging apparatus is the same as that of the first embodiment, and a description thereof will be omitted.
FIG. 9 is a diagram for explaining the simultaneous display of the entire pixel vector scope and the reference distance pixel vector scope in the imaging apparatus 100. A shooting screen for displaying the shot image of FIG. 4 is displayed on the touch panel 108. Then, the entire pixel vector scope 501 is superimposed on the upper right of the screen, and the reference distance pixel vector scope 602 is superimposed on the lower right of the screen.
By simultaneously displaying two different vector scopes on the same screen in this way, it becomes possible to adjust the hue adjustment of the captured image in more detail and easily.

図10は、第2の実施形態におけるベクトルスコープ生成処理を示すフローチャートである。図10に示す処理は、CPU110がプログラムを実行し、各部を制御することにより実現される。
ユーザがタッチパネル108を用いて、基準距離領域(図9の基準距離領域601を参照)を選択したか否かを判別する(ステップS1001)。
ステップS1001でYesと判別された場合、基準距離画素ベクトルスコープを生成する(ステップS1002)。この基準距離画素ベクトルスコープ生成処理は、図8で説明した通りである。
ステップS1001でNoと判別された場合、及びステップS1002で基準距離画素ベクトルスコープを生成した後、全体画素ベクトルスコープを生成する(ステップS1003)。
このように、基準距離領域が指定されている場合、基準距離画素ベクトルスコープ生成処理を行い、その後に全体画素ベクトルスコープ生成処理を行うことで、全体画素ベクトルスコープ及び基準距離画素ベクトルスコープの両方を表示することが可能になる。
FIG. 10 is a flowchart showing vector scope generation processing in the second embodiment. The processing shown in FIG. 10 is realized by the CPU 110 executing a program and controlling each unit.
It is determined whether or not the user has selected a reference distance area (see the reference distance area 601 in FIG. 9) using the touch panel 108 (step S1001).
If YES is determined in step S1001, a reference distance pixel vector scope is generated (step S1002). This reference distance pixel vector scope generation process is as described in FIG.
When it is determined No in step S1001, and after generating a reference distance pixel vector scope in step S1002, an entire pixel vector scope is generated (step S1003).
In this way, when the reference distance area is specified, the reference distance pixel vector scope generation process is performed, and then the entire pixel vector scope generation process is performed, so that both the entire pixel vector scope and the reference distance pixel vector scope are obtained. It becomes possible to display.

(第3の実施形態)
次に、第3の実施形態について説明する。なお、撮像装置の構成については第1の実施形態と同様であり、その説明を省略する。
図11は、撮像装置100で現在撮影されている画像を示す図である。撮影画像には、背景及び被写体A、被写体Bが写っている。
(Third embodiment)
Next, a third embodiment will be described. Note that the configuration of the imaging apparatus is the same as that of the first embodiment, and a description thereof will be omitted.
FIG. 11 is a diagram illustrating an image currently captured by the imaging apparatus 100. The photographed image includes the background, subject A, and subject B.

図12は、ユーザが図11の撮影画像において被写体Aを基準距離領域1201として指定した場合に、第1の実施形態で説明したのと同様に、基準距離画素ベクトルスコープ1202が生成、重畳表示された状態を示す。この基準距離領域1201内において位相差測距撮像素子104で取得される焦点状態データの平均値を基準距離焦点データとする。本例では、被写体Bは、基準距離焦点データと一致又は近傍の焦点状態データを持つ。したがって、基準距離画素ベクトルスコープ1202は、被写体A及び被写体Bの画素データを波形サンプリングデータとして生成される。   12, when the user designates the subject A as the reference distance area 1201 in the captured image of FIG. 11, the reference distance pixel vector scope 1202 is generated and displayed in the same manner as described in the first embodiment. Indicates the state. The average value of the focus state data acquired by the phase difference ranging image sensor 104 in the reference distance area 1201 is set as reference distance focus data. In this example, the subject B has focus state data that matches or is close to the reference distance focus data. Therefore, the reference distance pixel vector scope 1202 generates the pixel data of the subject A and the subject B as waveform sampling data.

図13は、ユーザが図11の撮影画像において被写体Aを基準距離領域1201として指定した場合で、閉領域画素制限が有効になっている場合に、基準距離画素ベクトルスコープ1301が生成、重畳表示された状態を示す。ここでは、基準距離画素ベクトルスコープ1301を生成する波形生成画素が、基準距離領域1201に対して閉領域となる(基準距離領域1201とつながっている)領域の画素に制限される。すなわち、被写体Bは、基準距離焦点データと一致又は近傍の焦点状態データを持つが、基準距離領域1201とつながっていない領域であるため、波形生成画素として扱われない。したがって、基準距離画素ベクトルスコープ1301は、被写体Aだけの画素データを波形サンプリングデータとして生成される。   FIG. 13 shows the case where the user designates the subject A as the reference distance area 1201 in the captured image of FIG. 11, and the reference distance pixel vector scope 1301 is generated and superimposed when the closed area pixel restriction is enabled. Indicates the state. Here, the waveform generation pixels that generate the reference distance pixel vector scope 1301 are limited to pixels in a region that is a closed region (connected to the reference distance region 1201) with respect to the reference distance region 1201. That is, the subject B is a region that has focal state data that matches or is close to the reference distance focus data, but is not connected to the reference distance region 1201, and therefore is not treated as a waveform generation pixel. Therefore, the reference distance pixel vector scope 1301 generates pixel data for only the subject A as waveform sampling data.

なお、第1の実施形態と同様、基準距離画素ベクトルスコープ1202、1301の生成に用いられない画素の画素データは、画素置換部115で彩度がない白黒データ(白黒画素)に置き換えて表示される。   As in the first embodiment, pixel data of pixels that are not used to generate the reference distance pixel vector scopes 1202 and 1301 are displayed by the pixel replacement unit 115 by replacing them with monochrome data (monochrome pixels) having no saturation. The

図14は、閉領域画素制限が有効になっている場合の基準距離画素ベクトルスコープ生成処理を示すフローチャートである。
第3の実施形態では、撮像装置100が、判別すべき座標値を一時保持する判別座標バッファを備える。このバッファはFIFO(First In First Out)構造になっており、登録した順に1座標ずつ取得できる構成となっている。
CPU110は、指定された基準距離領域の座標を判別座標バッファに登録する(ステップS1401)。
FIG. 14 is a flowchart showing the reference distance pixel vector scope generation process when the closed region pixel restriction is enabled.
In the third embodiment, the imaging apparatus 100 includes a determination coordinate buffer that temporarily stores coordinate values to be determined. This buffer has a FIFO (First In First Out) structure, and can be acquired one coordinate at a time in the registered order.
The CPU 110 registers the coordinates of the designated reference distance area in the discrimination coordinate buffer (step S1401).

続いて、CPU110は、判別座標バッファから座標を取得できたか否かを判別する(ステップS1402)。
ステップS1402でYesと判別された場合、距離画素抽出部105では、取得した座標の焦点状態データが、指定された基準距離領域内において求められた基準距離焦点データと一致する又は近傍であるか否かを判別する(ステップS1403)。上述したように基準距離領域内において取得される焦点状態データの平均値を基準距離焦点データとし、判別対象の画素の焦点状態データと基準距離焦点状態データとの差分が所定の範囲内にあれば近傍とする。
ステップS1403でNoと判別された場合、ステップS1402に戻る。
ステップS1403でYesと判別された場合、取得した座標が波形サンプリングデータとして未登録かを否かを判別する(ステップS1404)。
Subsequently, the CPU 110 determines whether or not the coordinates have been acquired from the determination coordinate buffer (step S1402).
If YES in step S1402, the distance pixel extraction unit 105 determines whether the focus state data of the acquired coordinates matches or is close to the reference distance focus data obtained in the designated reference distance area. Is determined (step S1403). As described above, if the average value of the focus state data acquired in the reference distance area is set as the reference distance focus data, and the difference between the focus state data of the discrimination target pixel and the reference distance focus state data is within a predetermined range. It is near.
If NO is determined in step S1403, the process returns to step S1402.
If YES is determined in step S1403, it is determined whether or not the acquired coordinates are unregistered as waveform sampling data (step S1404).

ステップS1404でNoと判別された場合、ステップS1402に戻る。
ステップS1404でYesと判別された場合、取得した座標の画素データを波形サンプリングデータとして登録する(ステップS1405)。
そして、ステップS1405で登録した座標に対して上下左右の座標を判別座標バッファに登録し、ステップS1402に戻る(ステップS1406)。このとき、上下左右の座標が撮影画像の座標範囲外になる場合は判別座標バッファに登録しない。
If NO is determined in step S1404, the process returns to step S1402.
If it is determined Yes in step S1404, the pixel data of the acquired coordinates is registered as waveform sampling data (step S1405).
Then, the upper, lower, left, and right coordinates with respect to the coordinates registered in step S1405 are registered in the discrimination coordinate buffer, and the process returns to step S1402 (step S1406). At this time, if the vertical, horizontal, and horizontal coordinates are outside the coordinate range of the captured image, they are not registered in the discrimination coordinate buffer.

ステップS1402でNoと判別された場合、波形生成部107では、その時点までに登録された波形サンプリングデータを用いてベクトルスコープ、すなわち基準距離画素ベクトルスコープを生成する(ステップS1407)。
このように基準距離領域として登録された座標の周囲(上下左右)の画素に対して、焦点状態データが基準距離焦点データと一致する又は近傍であるかを判別し、判別する座標がなくなった時点で登録されている波形サンプリングデータからベクトルスコープを生成することで、閉領域での基準距離画素ベクトルスコープ波形が生成される。
以上説明したように、閉領域での基準距離画素ベクトルスコープ波形を生成するようにしたので、注目被写体を絞って、その色相、ホワイトバランスをより精度高く確認することができる。
When it is determined No in step S1402, the waveform generation unit 107 generates a vector scope, that is, a reference distance pixel vector scope, using the waveform sampling data registered up to that point (step S1407).
When the focus state data coincides with or is close to the reference distance focus data for pixels around the coordinates registered as the reference distance area in this way (up, down, left, and right), and when the coordinates to be determined disappear By generating a vector scope from the waveform sampling data registered in the above, a reference distance pixel vector scope waveform in the closed region is generated.
As described above, since the reference distance pixel vectorscope waveform in the closed region is generated, it is possible to narrow down the subject of interest and confirm the hue and white balance with higher accuracy.

(その他の実施形態)
また、本発明は、以下の処理を実行することによっても実現される。すなわち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(又はCPUやMPU等)がプログラムを読み出して実行する処理である。
(Other embodiments)
The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, etc.) of the system or apparatus reads the program. It is a process to be executed.

100:撮像装置、200:記録媒体、101:DRAM、102:データバス、103:レンズユニット、104:位相差測距撮像素子、105:距離画素抽出部、106:閉領域判別部、107:波形生成部、108:タッチパネル、109:メディアインタフェース、110:CPU、111:プログラムバス、112:ROM、113:RAM、114:制御バス、115:画素置換部   DESCRIPTION OF SYMBOLS 100: Imaging device, 200: Recording medium, 101: DRAM, 102: Data bus, 103: Lens unit, 104: Phase difference ranging image sensor, 105: Distance pixel extraction part, 106: Closed area discrimination | determination part, 107: Waveform Generation unit, 108: touch panel, 109: media interface, 110: CPU, 111: program bus, 112: ROM, 113: RAM, 114: control bus, 115: pixel replacement unit

Claims (7)

撮像素子で撮像された画像からアシスト波形を生成して表示する画像処理装置であって、
前記撮像素子で撮像された画像の領域を指定する領域指定手段と、
前記撮像素子で撮像された画像において、前記領域指定手段で指定された領域の画素から所定の焦点状態を求め、前記所定の焦点状態と一致又は近傍の焦点状態を持つ画素を抽出する画素抽出手段と、
前記画素抽出手段で抽出した画素の画素データを用いてアシスト波形を生成する波形生成手段とを備えたことを特徴とする画像処理装置。
An image processing apparatus that generates and displays an assist waveform from an image captured by an image sensor,
Area designating means for designating an area of an image captured by the image sensor;
Pixel extraction means for obtaining a predetermined focus state from pixels in a region designated by the region designation means and extracting pixels having a focus state that matches or is close to the predetermined focus state in an image picked up by the image pickup device When,
An image processing apparatus comprising: waveform generation means for generating an assist waveform using pixel data of pixels extracted by the pixel extraction means.
前記撮像素子は、画素ごとに焦点状態を検出することが可能な位相差測距撮像素子であることを特徴とする請求項1に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the imaging element is a phase difference ranging imaging element capable of detecting a focus state for each pixel. 前記撮像素子で撮像された画像全体の画素データを用いてアシスト波形を生成する全体画素波形生成手段を備え、
前記波形生成手段で生成したアシスト波形と、前記全体画素波形生成手段で生成したアシスト波形との両方を表示することを特徴とする請求項1又は2に記載の画像処理装置。
An overall pixel waveform generation means for generating an assist waveform using pixel data of the entire image captured by the image sensor;
The image processing apparatus according to claim 1, wherein both the assist waveform generated by the waveform generation unit and the assist waveform generated by the entire pixel waveform generation unit are displayed.
前記波形生成手段でアシスト波形を生成する画素が、前記領域指定手段で指定された領域に対して閉領域となる領域の画素に制限されることを特徴とする請求項1乃至3のいずれか1項に記載の画像処理装置。   4. The pixel that generates an assist waveform by the waveform generation unit is limited to a pixel in a region that is a closed region with respect to the region specified by the region specifying unit. The image processing apparatus according to item. 前記画素抽出手段で抽出されなかった画素の画素データを、所定の画素データに置き換える置換手段を備えたことを特徴とする請求項1乃至4のいずれか1項に記載の画像処理装置。   5. The image processing apparatus according to claim 1, further comprising a replacement unit that replaces pixel data of a pixel that has not been extracted by the pixel extraction unit with predetermined pixel data. 6. 撮像素子で撮像された画像からアシスト波形を生成して表示する画像処理方法であって、
前記撮像素子で撮像された画像において、指定された領域の画素から所定の焦点状態を求め、前記所定の焦点状態と一致又は近傍の焦点状態を持つ画素を抽出するステップと、
前記抽出した画素の画素データを用いてアシスト波形を生成するステップとを有することを特徴とする画像処理方法。
An image processing method for generating and displaying an assist waveform from an image captured by an image sensor,
Obtaining a predetermined focus state from pixels in a specified region in an image captured by the image sensor, and extracting a pixel having a focus state that matches or is close to the predetermined focus state;
Generating an assist waveform using pixel data of the extracted pixels. An image processing method comprising:
撮像素子で撮像された画像からアシスト波形を生成して表示する画像処理を実行するためのプログラムであって、
前記撮像素子で撮像された画像において、指定された領域の画素から所定の焦点状態を求め、前記所定の焦点状態と一致又は近傍の焦点状態を持つ画素を抽出する処理と、
前記抽出した画素の画素データを用いてアシスト波形を生成する処理とをコンピュータに実行させるためのプログラム。
A program for executing image processing for generating and displaying an assist waveform from an image captured by an image sensor,
In the image captured by the image sensor, a process of obtaining a predetermined focus state from pixels in a specified region and extracting a pixel having a focus state that matches or is close to the predetermined focus state;
The program for making a computer perform the process which produces | generates an assist waveform using the pixel data of the said extracted pixel.
JP2013091599A 2013-04-24 2013-04-24 Image processing apparatus, method and program Pending JP2014216783A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013091599A JP2014216783A (en) 2013-04-24 2013-04-24 Image processing apparatus, method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013091599A JP2014216783A (en) 2013-04-24 2013-04-24 Image processing apparatus, method and program

Publications (1)

Publication Number Publication Date
JP2014216783A true JP2014216783A (en) 2014-11-17

Family

ID=51942155

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013091599A Pending JP2014216783A (en) 2013-04-24 2013-04-24 Image processing apparatus, method and program

Country Status (1)

Country Link
JP (1) JP2014216783A (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08154199A (en) * 1994-11-25 1996-06-11 Canon Inc Image pickup device
JP2002016948A (en) * 2000-06-29 2002-01-18 Ikegami Tsushinki Co Ltd Guide signal generator
JP2009284309A (en) * 2008-05-23 2009-12-03 Casio Comput Co Ltd Imaging device, display control program, and display control method
JP2011205380A (en) * 2010-03-25 2011-10-13 Canon Inc Image processing apparatus
JP2012211942A (en) * 2011-03-30 2012-11-01 Fujifilm Corp Solid-state image sensor and image pickup apparatus
JP2013038468A (en) * 2011-08-03 2013-02-21 Canon Inc Image processing apparatus, image processing method, imaging apparatus, control method of imaging apparatus, program and storage medium

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08154199A (en) * 1994-11-25 1996-06-11 Canon Inc Image pickup device
JP2002016948A (en) * 2000-06-29 2002-01-18 Ikegami Tsushinki Co Ltd Guide signal generator
JP2009284309A (en) * 2008-05-23 2009-12-03 Casio Comput Co Ltd Imaging device, display control program, and display control method
JP2011205380A (en) * 2010-03-25 2011-10-13 Canon Inc Image processing apparatus
JP2012211942A (en) * 2011-03-30 2012-11-01 Fujifilm Corp Solid-state image sensor and image pickup apparatus
JP2013038468A (en) * 2011-08-03 2013-02-21 Canon Inc Image processing apparatus, image processing method, imaging apparatus, control method of imaging apparatus, program and storage medium

Similar Documents

Publication Publication Date Title
CN109377469B (en) Processing method, system and storage medium for fusing thermal imaging with visible light image
TWI525382B (en) Camera array systems including at least one bayer type camera and associated methods
JP6173156B2 (en) Image processing apparatus, imaging apparatus, and image processing method
US20150278996A1 (en) Image processing apparatus, method, and medium for generating color image data
JP5464279B2 (en) Image processing apparatus, program thereof, and image processing method
JP2013031154A (en) Image processing device, image processing method, image capturing device, and program
JP6611531B2 (en) Image processing apparatus, image processing apparatus control method, and program
US20090041295A1 (en) Image Display Device, Image Display Method, and Image Display Program
US20130083169A1 (en) Image capturing apparatus, image processing apparatus, image processing method and program
JP5395650B2 (en) Subject area extraction device and control method thereof, subject tracking device, and program
JP2010028452A (en) Image processor and electronic camera
JP2011205380A (en) Image processing apparatus
JP2011035642A (en) Multiple eye photographing device, and adjustment method and program thereof
WO2015141185A1 (en) Imaging control device, imaging control method, and storage medium
JP2020005084A (en) Image processing apparatus, image processing method, and program
WO2013186960A1 (en) Image-data processing device and image-data processing method
JP2010213105A (en) Imaging apparatus
JP2013200840A (en) Video processing device, video processing method, video processing program, and video display device
JP5883715B2 (en) Image processing LSI, image processing system, and image processing method
JP2014216783A (en) Image processing apparatus, method and program
JP2018032991A (en) Image display unit, image display method and computer program for image display
JP2012169989A (en) Imaging device and interpolation processing method for imaging device
JP6762779B2 (en) Image processing equipment, imaging equipment, image processing methods, and programs
KR20160101762A (en) The method of auto stitching and panoramic image genertation using color histogram
US11375123B2 (en) Image processing apparatus, image capturing apparatus, control method for image processing apparatus, and program storage medium with coordinated display of image and display of distribution information of evaluation value

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160418

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170627

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20171219