JP2017220828A - Coding device, imaging apparatus, coding method and program - Google Patents

Coding device, imaging apparatus, coding method and program Download PDF

Info

Publication number
JP2017220828A
JP2017220828A JP2016114716A JP2016114716A JP2017220828A JP 2017220828 A JP2017220828 A JP 2017220828A JP 2016114716 A JP2016114716 A JP 2016114716A JP 2016114716 A JP2016114716 A JP 2016114716A JP 2017220828 A JP2017220828 A JP 2017220828A
Authority
JP
Japan
Prior art keywords
pixel
unit
encoding
encoded
photoelectric conversion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016114716A
Other languages
Japanese (ja)
Inventor
小林 幸史
Yukifumi Kobayashi
幸史 小林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2016114716A priority Critical patent/JP2017220828A/en
Publication of JP2017220828A publication Critical patent/JP2017220828A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

PROBLEM TO BE SOLVED: To perform more efficient compression coding on multiple images that are acquired by using a pupil divided imaging sensor.SOLUTION: The present invention relates to a coding device comprising: input means for inputting image data from imaging means in which multiple unit pixels are disposed, each unit pixel including multiple photoelectric conversion parts; and coding means for coding data of multiple pixels corresponding to the photoelectric conversion parts in the image data, the coding means being configured to code data of a pixel of a coding target by using data of a predictive pixel. The coding means selects as the predictive pixel either a pixel corresponding to the other photoelectric conversion part in the same unit pixel as the pixel of the coding target or a pixel corresponding to a photoelectric conversion part of a unit pixel adjacent to the unit pixel including the pixel of the coding target.SELECTED DRAWING: Figure 1

Description

本発明は、符号化装置、撮像装置、符号化方法及びプログラムに関する。   The present invention relates to an encoding device, an imaging device, an encoding method, and a program.

撮像センサにおいて1画素に対して2つの光電変換部を用い、撮影レンズの異なる瞳を通過した光を受光して画像信号を検出する技術が開発されている。この2つの画像信号には視差があるため、2つの画像の相関量を算出し、像ずれ量を求めることで位相差方式のデフォーカスマップの生成を行うことができる。このような1画素に対して複数の光電変換部を用いて分割された副画素ごとに画像信号を検出できる撮像センサのことを、瞳分割型の撮像センサと呼ぶことができる。   A technique has been developed in which two photoelectric conversion units are used for one pixel in an imaging sensor, and light that has passed through different pupils of a photographing lens is received to detect an image signal. Since these two image signals have parallax, a phase difference type defocus map can be generated by calculating a correlation amount between the two images and obtaining an image shift amount. Such an image sensor that can detect an image signal for each sub-pixel divided using a plurality of photoelectric conversion units for one pixel can be called a pupil-divided image sensor.

また、近年は4kテレビや4kビデオカメラが市場に出るなど、動画像の高解像度化、高フレームレート化が進んでいる。高解像度化、高フレームレート化にともない、撮像センサからの画像の読み出しデータ量が膨大になっている。このデータ量の増加にともない、撮像センサと画像処理エンジン間の伝送帯域がボトルネックになり、性能向上が図れないという問題がある。   In recent years, 4k televisions and 4k video cameras have been put on the market, and the resolution of moving images and the frame rate have been increasing. Along with higher resolution and higher frame rate, the amount of data read out from the image sensor has become enormous. As the amount of data increases, the transmission band between the image sensor and the image processing engine becomes a bottleneck, and there is a problem that performance cannot be improved.

そこで、撮像センサ内で画像データを符号化して圧縮することにより、撮像センサからの読み出しデータ量を削減するという方法が提案されている(特許文献1参照)。撮像センサ内での符号化を行う場合、処理の遅延が少なく、なるべく簡易的な回路で構成されることが望ましい。こういった処理に適した符号化方法として、DPCM(Differential Pulse Code Modulation)符号化方式がある(特許文献2参照)。DPCM符号化方式は、画像の空間的な相関性の高さを生かして、画素差分を取ることにより圧縮を行う方式であり、比較的簡単な回路で構成することができる。   Therefore, a method has been proposed in which image data is encoded and compressed in the image sensor to reduce the amount of data read from the image sensor (see Patent Document 1). When encoding is performed in the imaging sensor, it is desirable that the processing delay is small and the circuit is configured as simple as possible. As an encoding method suitable for such processing, there is a DPCM (Differential Pulse Code Modulation) encoding method (see Patent Document 2). The DPCM encoding method is a method of performing compression by taking advantage of the high spatial correlation of an image and taking a pixel difference, and can be configured with a relatively simple circuit.

特開2014-103543号JP 2014-103543 特開2010-004514号JP 2010-004514

しかし、瞳分割型の撮像センサを用いて取得した複数の画像に対してDPCM方式を用いて符号化を行う場合、複数の画像は互いに類似しているので、その相関性の高さを生かさなければ符号化効率が低下してしまう。   However, when encoding using the DPCM method for multiple images acquired using a pupil-division-type imaging sensor, the multiple images are similar to each other. If this is the case, the encoding efficiency will be reduced.

そこで、本発明は、瞳分割型の撮像センサを用いて取得した複数の画像に対して、より効率的な圧縮符号化を可能とする技術を提供する。   Therefore, the present invention provides a technique that enables more efficient compression encoding of a plurality of images acquired using a pupil division type imaging sensor.

上記課題を解決するための発明は、符号化装置であって、
それぞれが複数の光電変換部を有する単位画素が複数配置された撮像手段からの画像データを入力する入力手段と、
前記画像データにおける、前記光電変換部にそれぞれ対応した複数の画素のデータを符号化する符号化手段であって、予測画素のデータを用いて符号化対象の画素のデータを符号化する符号化手段とを有し、
前記符号化手段は、前記符号化対象の画素と同じ前記単位画素における他の光電変換部に対応した画素と、前記符号化対象の画素を含む単位画素に隣接する単位画素の光電変換部に対応した画素の一方を、前記予測画素として選択することを特徴とする。
An invention for solving the above-described problem is an encoding device,
Input means for inputting image data from an imaging means in which a plurality of unit pixels each having a plurality of photoelectric conversion units are arranged;
Encoding means for encoding data of a plurality of pixels respectively corresponding to the photoelectric conversion units in the image data, and encoding means for encoding data of pixels to be encoded using prediction pixel data And
The encoding unit corresponds to a pixel corresponding to another photoelectric conversion unit in the same unit pixel as the pixel to be encoded, and a photoelectric conversion unit of a unit pixel adjacent to the unit pixel including the pixel to be encoded. One of the selected pixels is selected as the predicted pixel.

本発明によれば、瞳分割型の撮像センサを用いて取得した複数の画像に対して効率的な圧縮符号化を行うことができる。   According to the present invention, efficient compression coding can be performed on a plurality of images acquired using a pupil division type imaging sensor.

発明の実施形態に対応するカメラシステムの構成例を示す図。The figure which shows the structural example of the camera system corresponding to embodiment of invention. 発明の実施形態に対応する瞳分割型の撮像素子の構成例を示す図。The figure which shows the structural example of the pupil division type image pick-up element corresponding to embodiment of invention. 発明の実施形態に対応する符号化時の画像バッファ104におけるデータ蓄積状態を説明するための図。The figure for demonstrating the data storage state in the image buffer 104 at the time of the encoding corresponding to embodiment of invention. 発明の実施形態に対応する撮像画素符号化部105の構成例を示す図。The figure which shows the structural example of the imaging pixel encoding part 105 corresponding to embodiment of invention. 発明の実施形態に対応するA像及びB像の符号化方法を説明するための図。The figure for demonstrating the encoding method of A image and B image corresponding to embodiment of invention. 発明の他の実施形態に対応する撮像画素符号化部105の構成例を示す図。The figure which shows the structural example of the imaging pixel encoding part 105 corresponding to other embodiment of invention. 発明の実施形態3に対応するカメラシステムの構成例を示す図。The figure which shows the structural example of the camera system corresponding to Embodiment 3 of invention.

以下、図面を参照しながら本発明の好適な実施の形態を説明する。   Hereinafter, preferred embodiments of the present invention will be described with reference to the drawings.

[実施形態1]
以下、発明の実施形態に対応するカメラシステムの構成を説明する。図1は発明の実施形態におけるカメラシステム10の構成の一例を示す図である。カメラシステム10は、撮像装置100と、画像処理装置110とを含んで構成される。図1のカメラシステム10において、各ブロックは、撮像素子や表示素子のような物理的デバイスを除き専用のデバイス、ロジック回路やメモリを用いてハードウェア的に構成されてもよい。或いは、メモリに記憶されている処理プログラムをCPU等のコンピュータが実行することにより、ソフトウェア的に構成されてもよい。カメラシステム10は例えばデジタルカメラとして実施することができるが、それ以外にも、例えばパーソナルコンピュータ、携帯電話、スマートフォン、PDA、タブレット端末、デジタルビデオカメラなど、撮像機能を有する任意の装置とすることができる。以下、カメラシステム10の各構成要素の構成及び機能について説明する。
[Embodiment 1]
The configuration of the camera system corresponding to the embodiment of the invention will be described below. FIG. 1 is a diagram illustrating an example of a configuration of a camera system 10 according to an embodiment of the invention. The camera system 10 includes an imaging device 100 and an image processing device 110. In the camera system 10 of FIG. 1, each block may be configured by hardware using a dedicated device, a logic circuit, and a memory except for a physical device such as an image sensor or a display element. Alternatively, the processing program stored in the memory may be configured by software by a computer such as a CPU executing the processing program. The camera system 10 can be implemented as, for example, a digital camera, but may be any device having an imaging function such as a personal computer, a mobile phone, a smartphone, a PDA, a tablet terminal, or a digital video camera. it can. Hereinafter, the configuration and function of each component of the camera system 10 will be described.

まず、本実施形態において、撮像装置100は瞳分割型撮像装置であり、光学系101、撮像素子部102、A(アナログ)/D(デジタル)変換器103、画像バッファ104、撮像画素符号化部105を含む。光学系101は複数のレンズ群と絞り機構からなり、フォーカスレンズ(測距用レンズ)、ズーム用レンズ及び絞り機構を含むことができる。被写体から反射した入射光は光学系101を介して撮像素子部102で受光される。撮像素子部102は、例えばCMOS(Complementary Metal Oxide Semiconductor)や、CCD(Charge Coupled Device)で構成され、アナログ画像データをA/D変換器103に出力する。A/D変換器103は、アナログ信号をデジタル信号に変換し、デジタル画像データを画像バッファ104へ出力する。   First, in the present embodiment, the imaging apparatus 100 is a pupil division type imaging apparatus, and includes an optical system 101, an imaging element unit 102, an A (analog) / D (digital) converter 103, an image buffer 104, and an imaging pixel encoding unit. 105. The optical system 101 includes a plurality of lens groups and a diaphragm mechanism, and can include a focus lens (ranging lens), a zoom lens, and a diaphragm mechanism. Incident light reflected from the subject is received by the image sensor unit 102 via the optical system 101. The imaging element unit 102 is configured by, for example, a complementary metal oxide semiconductor (CMOS) or a charge coupled device (CCD), and outputs analog image data to the A / D converter 103. The A / D converter 103 converts an analog signal into a digital signal and outputs digital image data to the image buffer 104.

画像バッファ104には、符号化対象となる複数画素の画像データが入力される。画像バッファ104は、画素の符号化が行われるまで画素を保持しておく。同一画素成分の複数画素を一つの単位として符号化が行われる。本実施形態では、横方向n画素を含む画素ブロックを一つの単位として符号化を行う例について説明する。符号化を行う画素ブロックの単位は、何画素単位でもよい。撮像画素符号化部105は、画像バッファ104に保持されている符号化対象画素を符号化し、符号化ストリームを生成する。撮像画素符号化部105は、符号化ストリームを画像処理装置110に出力する。符号化の詳細は、後に説明する。また、撮像素子部102、A/D変換部103、画像バッファ104、及び撮像画素符号化部105を、一つの半導体集積回路チップとして構成することも可能である。   The image buffer 104 receives image data of a plurality of pixels to be encoded. The image buffer 104 holds the pixels until the pixels are encoded. Encoding is performed with a plurality of pixels having the same pixel component as one unit. In the present embodiment, an example in which encoding is performed using a pixel block including n pixels in the horizontal direction as one unit will be described. The unit of the pixel block to be encoded may be any number of pixels. The imaging pixel encoding unit 105 encodes the encoding target pixel held in the image buffer 104 and generates an encoded stream. The imaging pixel encoding unit 105 outputs the encoded stream to the image processing device 110. Details of the encoding will be described later. In addition, the imaging element unit 102, the A / D conversion unit 103, the image buffer 104, and the imaging pixel encoding unit 105 can be configured as one semiconductor integrated circuit chip.

画像処理装置110は、撮像装置100から受け取った符号化ストリームから、撮像画素復号部111が画像データを復号する。画像処理部112は、復号された画像データに対し、歪補正や色変換などの画像処理を実施する。また、画像処理部112は、画像データに基づいてデフォーカスマップの作成や、絞り値の決定等も行う。画像処理部112はまた、画像データを解析して絞り値の他に、露光時間、ピント位置等を決定し、これらを光学系の各構成要素を制御する制御部にフィードバックする。これにより、被写体像を常に適切な露出、ピント位置で捉え続けることが可能である。画像処理部112は、画像処理後の画像データを符号化部113に出力する。符号化部113は、画像データの圧縮符号化を行う。符号化部113での画像圧縮は、動画像であればH.264などの符号化方式に従って実施される。符号化部113は、符号化後の符号化ストリームを記録メディア114に出力し、記録を行う。   In the image processing apparatus 110, the imaging pixel decoding unit 111 decodes image data from the encoded stream received from the imaging apparatus 100. The image processing unit 112 performs image processing such as distortion correction and color conversion on the decoded image data. The image processing unit 112 also creates a defocus map and determines an aperture value based on the image data. The image processing unit 112 also analyzes the image data, determines an exposure time, a focus position, and the like in addition to the aperture value, and feeds back these to a control unit that controls each component of the optical system. Thereby, it is possible to always capture the subject image at an appropriate exposure and focus position. The image processing unit 112 outputs the image data after the image processing to the encoding unit 113. The encoding unit 113 performs compression encoding of image data. The image compression in the encoding unit 113 is performed according to an encoding method such as H.264 if it is a moving image. The encoding unit 113 outputs the encoded stream after encoding to the recording medium 114 and performs recording.

次に、図2を参照し、撮像素子部102の構成を説明する。図2は、本実施形態における撮像素子部102の構成例を示す図である。図2(a)は撮像素子部102を正面から見た場合の、2次元の画素配列を説明する図である。撮像素子部102は、2つの光電変換部を有する単位画素200が縦横に整列した状態で画素領域205に複数配置されて構成されている。本実施形態では、説明の簡単のため画素領域205が水平7画素×垂直6画素の水平垂直配列から構成される例を示したが、実用上はさらに多数の画素が配置される。なお、以下特に断りのない限りは、本明細書を通じて、画素領域205の左上の単位画素200を第1列目(x=1)、第1行目(y=1)の画素と定義する。   Next, the configuration of the image sensor unit 102 will be described with reference to FIG. FIG. 2 is a diagram illustrating a configuration example of the image sensor unit 102 in the present embodiment. FIG. 2A is a diagram illustrating a two-dimensional pixel arrangement when the image sensor unit 102 is viewed from the front. The imaging element unit 102 is configured by arranging a plurality of unit pixels 200 having two photoelectric conversion units in the pixel region 205 in a state where the unit pixels 200 are aligned vertically and horizontally. In the present embodiment, an example in which the pixel area 205 is configured by a horizontal and vertical arrangement of 7 horizontal pixels × 6 vertical pixels has been described for the sake of simplicity of explanation, but a larger number of pixels are practically arranged. Unless otherwise specified, the unit pixel 200 at the upper left of the pixel region 205 is defined as a pixel in the first column (x = 1) and the first row (y = 1) throughout this specification.

単位画素200は、図2(b)に示すように入射光を受光して電気信号に変換する一対の光電変換部201と202とを有するように構成され、その上部にカラーフィルタ203とマイクロレンズ204とが設けられている。各単位画素のカラーフィルタ203として、ベイヤー配列に対応した色のフィルタが割り当てられる。よって、奇数行の画素には、左から順に緑(G)と赤(R)のカラーフィルタが交互に設けられる。また、偶数行の画素には、左から順に青(B)と緑(G)のカラーフィルタが交互に設けられる。撮像画素符号化部105は、赤(R)の複数画素ごとや、青(B)の複数画素ごとのように、同一画素成分の複数画素について符号化を行う。   As shown in FIG. 2B, the unit pixel 200 is configured to have a pair of photoelectric conversion units 201 and 202 that receive incident light and convert it into an electric signal, and a color filter 203 and a microlens are arranged on the upper part. 204 is provided. A color filter corresponding to the Bayer array is assigned as the color filter 203 of each unit pixel. Therefore, green (G) and red (R) color filters are alternately provided in order from the left on the pixels in the odd rows. In addition, blue (B) and green (G) color filters are alternately provided in order from the left on pixels in even rows. The imaging pixel encoding unit 105 performs encoding on a plurality of pixels having the same pixel component, for each of a plurality of red (R) pixels or a plurality of blue (B) pixels.

このような単位画素200の構成において、光電変換部201、202はそれぞれ射出瞳における別々の領域の光を受光する。よって、光電変換部201と202の出力信号を比較することで位相差の検知が可能となる。ここで、光電変換部201により光電変換された画像信号に対応する第1の画像をA像、光電変換部202により光電変換された画像信号に対応する第2の画像をB像と、それぞれ称する。   In such a configuration of the unit pixel 200, the photoelectric conversion units 201 and 202 each receive light in different regions in the exit pupil. Therefore, the phase difference can be detected by comparing the output signals of the photoelectric conversion units 201 and 202. Here, the first image corresponding to the image signal photoelectrically converted by the photoelectric conversion unit 201 is referred to as an A image, and the second image corresponding to the image signal photoelectrically converted by the photoelectric conversion unit 202 is referred to as a B image. .

本実施形態では、光電変換部201及び202から出力されるA像、B像のデータは、A/D変換器103に対して1画素単位でA像とB像とが交互に入力される構成としている。また、本実施形態では、同一の単位画素内ではA像がB像よりも符号化順序で先行する。これ以外に、複数画素単位でA像とB像を交互に入力する構成や、1行単位でA像とB像とを交互に入力する構成としてもよい。また、B像の代わりにA像とB像とを加算したA+B像を入力する構成としてもよい。この場合、画像バッファ104には、A像とA+B像とが格納されることになる。また、撮像画素符号化部105は、A+B像を読み出した後、同一位置のA像を減算することによりB像を生成し、符号化することができる。   In the present embodiment, the A image and B image data output from the photoelectric conversion units 201 and 202 are alternately input to the A / D converter 103 in units of one pixel. It is said. In this embodiment, the A image precedes the B image in the encoding order in the same unit pixel. In addition to this, a configuration in which the A image and the B image are alternately input in units of a plurality of pixels, or a configuration in which the A image and the B image are alternately input in units of one row may be employed. Further, instead of the B image, an A + B image obtained by adding the A image and the B image may be input. In this case, the image buffer 104 stores an A image and an A + B image. The imaging pixel encoding unit 105 can generate and encode a B image by subtracting the A image at the same position after reading the A + B image.

次に、図3を参照して、画像バッファ104に格納される画素について説明する。図3は、本実施形態における撮像画素符号化部105が符号化を行う前に画像バッファ104に格納されている一つのブロックの画素の関係を説明するための図である。ここで、撮像素子部102において水平方向位置がx、垂直方向位置がyにある位置の画素のA像の画素値をA(x、y)、B像の画素値をB(x、y)と表記する。図3では、画素位置(x、y)から(x+n−1、y)の同一行のA像n画素、B像n画素のA像及びB像の各画素が画像バッファ104に格納されており、これらの画素に対して符号化を行うものとする。このように本実施形態の撮像画素符号化部105が実行する符号化処理では、入力画像データを所定数の画素で構成されるブロック(以下、「符号化ブロック」という)に分割し、符号化ブロック単位に符号化を行うものとする。   Next, the pixels stored in the image buffer 104 will be described with reference to FIG. FIG. 3 is a diagram for explaining the relationship between the pixels of one block stored in the image buffer 104 before the imaging pixel encoding unit 105 in the present embodiment performs encoding. Here, in the image sensor unit 102, the pixel value of the A image of the pixel at the position where the horizontal position is x and the vertical position is y is A (x, y), and the pixel value of the B image is B (x, y). Is written. In FIG. 3, the A image n pixels, the A image B pixels of the B image n pixels, and the B image pixels in the same row from the pixel position (x, y) to (x + n−1, y) are stored in the image buffer 104. Assume that these pixels are encoded. As described above, in the encoding process performed by the imaging pixel encoding unit 105 of the present embodiment, the input image data is divided into blocks (hereinafter referred to as “encoding blocks”) configured by a predetermined number of pixels and encoded. It is assumed that encoding is performed in block units.

次に、図4を参照して、撮像画素符号化部105での符号化動作について説明する。図4は、本実施形態に対応する撮像画素符号化部105の構成例を示す。まず、入力された画像データは1画素ずつ量子化部401に送られ、量子化処理が行われる。量子化処理に用いる量子化パラメータは、例えば、符号化ブロックの符号量が所定の符号量になるように量子化制御部402で符号化単位ごとに決定され、量子化部401に設定される。量子化後のデータと、画像バッファ403に格納されている量子化済みのデータ(予測データ)との差分が可変長符号化部404に送られる。また量子化後のデータは、次の画素のための予測データとして使用するため、画像バッファ403に格納される。以下、符号化対象の画素を符号化するために使用される予測データを予測画素という。   Next, the encoding operation in the imaging pixel encoding unit 105 will be described with reference to FIG. FIG. 4 shows a configuration example of the imaging pixel encoding unit 105 corresponding to the present embodiment. First, the input image data is sent to the quantization unit 401 pixel by pixel, and quantization processing is performed. The quantization parameter used for the quantization process is determined for each coding unit by the quantization control unit 402 so that the code amount of the coding block becomes a predetermined code amount, and is set in the quantization unit 401, for example. The difference between the quantized data and the quantized data (predicted data) stored in the image buffer 403 is sent to the variable length coding unit 404. The quantized data is stored in the image buffer 403 for use as prediction data for the next pixel. Hereinafter, prediction data used for encoding a pixel to be encoded is referred to as a prediction pixel.

可変長符号化部404は、差分データに対して所定の可変長符号化方式に従う可変長符号化を行う。所定の可変長符号化方式には、例えばハフマン符号、ゴロム符号などが含まれる。この可変長符号化方式では、入力値が0の場合に最も短い符号長の符号データが割り当てられており、入力値の絶対値が大きくなるほど、符号データの符号長は長くなる。可変長符号化後の符号化データは、DPCM方式の符号化データとして多重化部405に送られる。ここで、ブロックの先頭画素のように予測画像が存在しない等の条件により、量子化後のデータをPCM方式の符号化データとして多重化部405に送る場合もある。即ち、ブロックの先頭の画素を符号化する際には量子化部401からのデータを選択して多重化部405に出力し、ブロックの先頭以外の画素を符号化する際には可変長符号化部404からの符号化データを選択して多重化部405に出力する。多重化部405では、符号化ブロックに含まれる各画素の符号化データと量子化制御部402から送られてくる量子化パラメータとを1本のストリームとして多重化し、符号化ストリームとして出力する。   The variable length coding unit 404 performs variable length coding on the difference data according to a predetermined variable length coding method. The predetermined variable length coding scheme includes, for example, a Huffman code and a Golomb code. In this variable length coding method, the code data with the shortest code length is assigned when the input value is 0, and the code length of the code data increases as the absolute value of the input value increases. The encoded data after the variable length encoding is sent to the multiplexing unit 405 as DPCM encoded data. Here, there is a case where the quantized data is sent to the multiplexing unit 405 as encoded data of the PCM method depending on a condition such that the predicted image does not exist like the first pixel of the block. That is, when encoding the top pixel of the block, the data from the quantization unit 401 is selected and output to the multiplexing unit 405, and when encoding the pixels other than the top of the block, variable length encoding is performed. The encoded data from the unit 404 is selected and output to the multiplexing unit 405. The multiplexing unit 405 multiplexes the encoded data of each pixel included in the encoded block and the quantization parameter sent from the quantization control unit 402 as one stream, and outputs it as an encoded stream.

次に、画像バッファ104に格納された画素の符号化処理手順を、図5を参照して説明する。図5は、発4の実施形態に対応するA像及びB像の画素の符号化手順を説明するための図である。まず、符号化対象の画素は、図3で示したA(x、y)〜A(x+n−1、y)のn画素、およびB(x、y)〜B(x+n−1、y)のn画素である。本実施形態では、同一単位画素において符号化順序が最初(先)となるA像の画素について、符号化ブロック内の全てのA像の画素をまず符号化する。このとき、符号化対象のA像の画素と空間的に隣接する他の単位画素のA像の画素との差分を算出する。次いで、符号化済みの同一単位画素のA像の画素を使って、対応するB像の画素を順に符号化する。   Next, the encoding processing procedure of the pixels stored in the image buffer 104 will be described with reference to FIG. FIG. 5 is a diagram for explaining a procedure for encoding pixels of A and B images corresponding to the fourth embodiment. First, the encoding target pixels are n pixels of A (x, y) to A (x + n-1, y) and B (x, y) to B (x + n-1, y) shown in FIG. n pixels. In the present embodiment, all the A image pixels in the encoding block are first encoded with respect to the A image pixel whose encoding order is the first (first) in the same unit pixel. At this time, the difference between the pixel of the A image to be encoded and the pixel of the A image of another unit pixel spatially adjacent is calculated. Next, the corresponding B image pixels are sequentially encoded using the encoded A image pixels of the same unit pixel.

本実施形態では、A像のn画素が1画素ずつ順番に画像バッファ104から撮像画素符号化部105に入力され、符号化が行われる。このとき、図5(a)に示すように、ブロックの先頭画素(ブロック内でxが最小値となる画素)A(x、y)は、予測画素が存在しないので予測画素との差分を取らずに量子化後にPCM符号化データとして、そのまま多重化部405に出力する。また、図5では、A(x、y)の量子化後のデータをAQ(x、y)、同様にB(x、y)の量子化後のデータをBQ(x、y)と表記している。量子化後のデータであるAQ(x、y)は、画像バッファ403に格納される。   In the present embodiment, n pixels of the A image are sequentially input from the image buffer 104 to the imaging pixel encoding unit 105 and encoded. At this time, as shown in FIG. 5 (a), the first pixel of the block (pixel where x is the minimum value in the block) A (x, y) does not have a prediction pixel, so a difference from the prediction pixel is taken. Instead, the data is output as it is to the multiplexing unit 405 as PCM encoded data after quantization. In FIG. 5, the data after quantization of A (x, y) is expressed as AQ (x, y), and similarly the data after quantization of B (x, y) is expressed as BQ (x, y). ing. AQ (x, y) that is data after quantization is stored in the image buffer 403.

次に2番目以降の画素については、まず図5(b)に示すように、次の画素であるA(x+1、y)の符号化時は、当該画素が属する単位画素に隣接する単位画素(隣接位置)のA像の符号化済みのデータであるAQ(x、y)を予測データに用いる。A(x、y)の量子化後のデータであるAQ(x+1、y)と予測データAQ(x、y)との間で差分を取り、可変長符号化が行われ、DPCM符号化データとして符号化する。これ以降は、図5(c)に示すように、同様にしてA(x+2、y)からA(x+n−1、y)まで、隣接する単位画素のA像の符号化済みのデータを予測画素として符号化を行う。   Next, for the second and subsequent pixels, as shown in FIG. 5 (b), when encoding the next pixel A (x + 1, y), a unit pixel adjacent to the unit pixel to which the pixel belongs ( AQ (x, y), which is encoded data of the A image at the (adjacent position), is used as the prediction data. A difference is taken between AQ (x + 1, y), which is data after quantization of A (x, y), and prediction data AQ (x, y), variable length coding is performed, and DPCM encoded data is obtained. Encode. Thereafter, as shown in FIG. 5C, similarly, encoded data of A image of adjacent unit pixels from A (x + 2, y) to A (x + n-1, y) is predicted pixels. Is encoded as follows.

A像についてAQ(x、y))からAQ(x+n−1、y)までが画像バッファ403に格納されると、次はB像の画素の符号化を行う。B像のn画素が1画素ずつ順番に画像バッファ104から撮像画素符号化部105に入力され、符号化が行われる。本実施形態におけるB像の符号化処理では、予測画素として、隣接する単位画素のB像の符号化済みのデータではなく、同一単位画素内(同一位置)の符号化済みのA像の符号化済みのデータを用いる。これは、図2に示すようにB像同士の隣接位置の画素よりも、同一位置のA像とB像の画素の方が距離が近いため、より相関が高くなり、符号化効率を高めることができるからである。   When AQ (x, y)) to AQ (x + n-1, y) are stored in the image buffer 403 for the A image, the B image pixels are encoded next. The n pixels of the B image are sequentially input pixel by pixel from the image buffer 104 to the imaging pixel encoding unit 105 and encoded. In the encoding process of the B image in the present embodiment, the encoded A image in the same unit pixel (same position) is used as the prediction pixel, not the encoded data of the B image of the adjacent unit pixel. Use completed data. This is because, as shown in FIG. 2, the A image and the B image pixels at the same position are closer to each other than the pixels at the adjacent positions of the B images, so that the correlation is higher and the encoding efficiency is increased. Because you can.

図5(d)に示すように、B(x、y)の符号化時には、予測画素として同一単位画素(xの値が同一)のA像の符号化済みのデータ、すなわちAQ(x、y)が用いられる。B(x、y)の量子化後のデータであるBQ(x、y)と予測画素AQ(x、y)との間で差分を取り、可変長符号化が行われ、DPCM符号化データが生成される。これ以降は、図5(e)に示すように、同様にしてB(x、y))からB(x+n−1、y)まで、符号化対象のB像の画素と同一単位画素のA像の符号化済みデータを予測画素として符号化が行われ、A像n画素、B像n画素の符号化ストリームが作成される。   As shown in FIG. 5D, at the time of encoding B (x, y), the encoded data of the A image of the same unit pixel (same value of x) as the predicted pixel, that is, AQ (x, y ) Is used. A difference is taken between BQ (x, y), which is data after quantization of B (x, y), and the predicted pixel AQ (x, y), variable length coding is performed, and DPCM encoded data is Generated. Thereafter, as shown in FIG. 5 (e), in the same way, from B (x, y)) to B (x + n-1, y), an A image of the same unit pixel as the B image pixel to be encoded. Are encoded using the encoded data as prediction pixels, and encoded streams of A image n pixels and B image n pixels are created.

本実施形態において撮像画素符号化部105の構成、符号化方法は、上述の構成、方法に限ったものではなく、画素差分を用いた符号化方式であれば、どんなものを用いてもよい。例えば、画素差分を取った後に量子化処理を行うような方式を用いてもよい。また撮像画素復号部111は、撮像画素符号化部105の符号化方式に対応させた復号方式を用いれば、どのような構成をとってもよい。   In the present embodiment, the configuration and encoding method of the imaging pixel encoding unit 105 are not limited to the above-described configuration and method, and any encoding scheme using pixel differences may be used. For example, a method of performing a quantization process after taking a pixel difference may be used. The imaging pixel decoding unit 111 may have any configuration as long as a decoding method corresponding to the encoding method of the imaging pixel encoding unit 105 is used.

以上のように、本実施形態では、瞳分割型の撮像センサのA像の画素とB像の画素を、画素差分を用いて符号化を行う方式において、同一単位画素内のA像とB像とで参照する画素を切替えることができる。具体的に、A像を符号化する場合には、隣接単位画素のA像の符号化済みのデータを予測データとして使用する一方、B像を符号化する場合は、同一単位画素内のA像の符号化済みのデータを予測データとして使用する。これにより、同一の単位画素に含まれる光電変換部から生成された画素の相関性の高さを生かすことができ、符号化効率を高めることができる。   As described above, in the present embodiment, the A image and the B image in the same unit pixel in the method of encoding the pixel of the A image and the pixel of the B image of the pupil division type imaging sensor using the pixel difference. The pixel to be referred to can be switched with. Specifically, when encoding an A image, encoded data of an A image of an adjacent unit pixel is used as prediction data, while when encoding a B image, an A image in the same unit pixel is used. Are used as prediction data. Thereby, the high correlation of the pixel produced | generated from the photoelectric conversion part contained in the same unit pixel can be utilized, and encoding efficiency can be improved.

[実施形態2]
実施形態1では、B像の符号化時に予測画素として同一位置のA像の符号化済みデータを用いた。これに対し本実施形態では、B像の符号化時の予測画素として、同一位置のA像の符号化済みデータと、隣接位置のB像の符号化済みデータとのいずれかを選択して用いる場合を説明する。本実施形態2と上述の実施形態1との相違点は、撮像画素符号化部105の構成にあり、その他の機能ブロックの構成及び動作については実施形態1と同様であるため説明は省略する。
[Embodiment 2]
In the first embodiment, encoded data of an A image at the same position is used as a prediction pixel when encoding a B image. On the other hand, in the present embodiment, either the encoded data of the A image at the same position or the encoded data of the B image at the adjacent position is selected and used as a prediction pixel at the time of encoding the B image. Explain the case. The difference between the second embodiment and the first embodiment described above lies in the configuration of the imaging pixel encoding unit 105, and the configuration and operation of other functional blocks are the same as those in the first embodiment, and thus description thereof is omitted.

本実施形態に対応する撮像画素符号化部105の構成例を図6に示す。図4に示した実施形態1における撮像画素符号化部105との違いは、予測画素選択部601が追加されている点である。本実施形態でも、実施形態1と同様、符号化ブロックとして同一行の(x、y)から(x+n−1、y)の画素位置にあるA(x、y))からA(x+n−1、y)のA像n画素、およびB(x、y))からB(x+n−1、y)のB像n画素を符号化する場合について説明する。   A configuration example of the imaging pixel encoding unit 105 corresponding to the present embodiment is shown in FIG. The difference from the imaging pixel encoding unit 105 in Embodiment 1 shown in FIG. 4 is that a prediction pixel selection unit 601 is added. Also in the present embodiment, as in the first embodiment, A (x, y)) to A (x + n−1) in the pixel positions (x, y) to (x + n−1, y) in the same row as the coding block. The case where the A image n pixel of y) and the B image n pixel of B (x + n−1, y) from B (x, y)) are encoded will be described.

まず、A(x、y)からA(x+n−1、y)のA像n画素については符号化順に従い、隣接位置のA像の符号化済みのデータを予測画素として符号化を行う。次に、B像の先頭画素であるB(x、y)は、同一位置のA像の符号化済みのデータであるAQ(x、y)を予測画素として符号化を行う。次に、B像の次の画素であるB(x+1、y)のための予測画素は、同一位置のA像の符号化済みのデータであるAQ(x+1、y)と、隣接位置のB像の符号化済みのデータであるBQ(x、y)から選択する。   First, the A image n pixels from A (x, y) to A (x + n−1, y) are encoded in accordance with the encoding order using the encoded data of the A image at the adjacent position as a prediction pixel. Next, B (x, y), which is the first pixel of the B image, is encoded using AQ (x, y), which is encoded data of the A image at the same position, as a prediction pixel. Next, the prediction pixel for B (x + 1, y), which is the next pixel of the B image, is AQ (x + 1, y), which is the encoded data of the A image at the same position, and the B image at the adjacent position. Are selected from BQ (x, y) which is already encoded data.

このときA像とB像のいずれかの符号化済みデータを予測画素として選択するための、本実施形態に対応する選択方法を説明する。予測画素選択部601には、符号化対象画素であるB(x+1、y)を量子化したBQ(x+1、y)と予測画素候補であるAQ(x+1、y)、BQ(x、y)が入力される。予測画素選択部601は、符号化コストとしてそれぞれの予測画素候補との差分絶対値を算出し、差分絶対値の小さくなる符号化済み画素を予測画素として選択する。   At this time, a selection method corresponding to the present embodiment for selecting encoded data of either the A image or the B image as a prediction pixel will be described. The prediction pixel selection unit 601 includes BQ (x + 1, y) obtained by quantizing B (x + 1, y) that is a pixel to be encoded and AQ (x + 1, y) and BQ (x, y) that are prediction pixel candidates. Entered. The prediction pixel selection unit 601 calculates the absolute difference value between each prediction pixel candidate as the encoding cost, and selects an encoded pixel having a small difference absolute value as the prediction pixel.

すなわち、予測画素選択部601は、|BQ(x+1、y)−AQ(x+1、y)|と|BQ(x+1、y)−BQ(x、y)|とをそれぞれ算出する。そして、2つの算出値を比較し、|BQ(x+1、y)−AQ(x+1、y)|の方が小さければ同一位置のA像の符号化済みのデータを予測画素として選択する。一方、|BQ(x+1、y)−BQ(x、y)|の方が小さければ隣接位置のB像の符号化済みのデータを予測画素として選択する。   That is, the prediction pixel selection unit 601 calculates | BQ (x + 1, y) −AQ (x + 1, y) | and | BQ (x + 1, y) −BQ (x, y) |. Then, the two calculated values are compared, and if | BQ (x + 1, y) −AQ (x + 1, y) | is smaller, the encoded data of the A image at the same position is selected as the prediction pixel. On the other hand, if | BQ (x + 1, y) −BQ (x, y) | is smaller, the encoded data of the B image at the adjacent position is selected as the prediction pixel.

選択結果は、画像バッファ403に出力され画像バッファ403から読み出す画素を選択するために使用される。このようにして画像バッファ403から選択され、出力された予測画素と、符号化対象画素の量子化結果との差分が可変長符号化部404に出力され、可変長符号化が実行される。   The selection result is output to the image buffer 403 and used to select a pixel to be read from the image buffer 403. The difference between the prediction pixel selected and output from the image buffer 403 in this way and the quantization result of the encoding target pixel is output to the variable length encoding unit 404, and variable length encoding is executed.

また、予測画素選択部601は、A像とB像のうちのどちらの予測画素を使用して符号化したのかの情報(予測情報)を多重化部405に送る。それ以降のB像のB(x+2,y)〜B(x+n-1,y)の画素についても同様に符号化を行う。多重化部405では、符号化データ、量子化パラメータとともに各画素の予測情報を多重化し、符号化ストリームとして出力する。   Further, the prediction pixel selection unit 601 sends information (prediction information) indicating which of the prediction pixels of the A image and the B image is used for encoding (prediction information) to the multiplexing unit 405. The subsequent B image B (x + 2, y) to B (x + n-1, y) pixels are similarly encoded. The multiplexing unit 405 multiplexes the prediction information of each pixel together with the encoded data and the quantization parameter, and outputs it as an encoded stream.

以上のように、本実施形態では同一位置のA像の画素を予測画素として用いる場合と、隣接位置のB像の画素を予測画素として用いる場合とを比較し、符号化コストの小さい方を選択することにより、符号化効率を高めることができる。   As described above, in this embodiment, the case where the pixel of the A image at the same position is used as the prediction pixel is compared with the case where the pixel of the B image at the adjacent position is used as the prediction pixel, and the one with the lower encoding cost is selected By doing so, encoding efficiency can be improved.

また、本実施形態においてはB像の予測画素として同一位置のA像を用いるか、隣接位置のB像を用いるかの予測情報を1画素ごとに符号化ストリームに付加したが、符号化ブロックごと共通で使用する単一の予測情報を1つ付加する構成にしてもよい。その場合、符号化ブロック内のn個のB画素について、あらかじめ同一位置のA像を予測画素とした場合の全体コスト、隣接位置のB像を予測画素とした場合の全体コストをそれぞれ算出し、符号化効率が良い方を選択すればよい。この点は、以下の実施形態でも同様である。   Further, in the present embodiment, prediction information indicating whether the A image at the same position or the B image at the adjacent position is used as the prediction pixel of the B image is added to the encoded stream for each pixel. A configuration may be adopted in which one piece of single prediction information used in common is added. In that case, for n B pixels in the coding block, the total cost when the A image at the same position is set as the prediction pixel in advance and the total cost when the B image at the adjacent position is set as the prediction pixel are respectively calculated. The one with the better coding efficiency may be selected. This also applies to the following embodiments.

[実施形態3]
本実施形態では、実施形態2の変形例として、B像の画素を符号化する場合に、A像とB像のいずれかの符号化済みデータを予測画素として選択するための他の選択方法について説明する。具体的に、実施形態2では差分絶対値に基づき予測画素を選択したが、本実施形態では、符号化対象の画素が含まれる領域が合焦領域か否かに基づき予測画素を選択する場合を説明する。以下、上述の実施形態との相違部分について説明する。
[Embodiment 3]
In the present embodiment, as a modification of the second embodiment, when a B image pixel is encoded, another selection method for selecting encoded data of either the A image or the B image as a predicted pixel is described. explain. Specifically, in the second embodiment, the prediction pixel is selected based on the absolute difference value. However, in the present embodiment, the prediction pixel is selected based on whether or not the region including the pixel to be encoded is a focused region. explain. Hereinafter, differences from the above-described embodiment will be described.

図2に示すように、同一の単位画素から得られた同一位置のA像とB像は、隣接する単位画素のB像同士と比較して、空間的な距離が近いため、画素値の相関性が高いと考えられる。ただし、A像とB像とでは視差があるため、ピントがあっている(合焦)部分に関しては相関が高くなるが、ピントがあっていない(非合焦)部分に関しては、必ずしも相関が高くなるとは限らない。このことに鑑み、本実施形態では、処理対象の単位画素が属する領域がピントの合っている画素領域かどうかに応じて、予測画素の選択を自動的に行う。   As shown in FIG. 2, since the A and B images at the same position obtained from the same unit pixel are closer in spatial distance than the B images of adjacent unit pixels, the correlation of pixel values It is considered that the nature is high. However, because there is parallax between the A and B images, the correlation is high for the focused (focused) part, but the correlation is not necessarily high for the unfocused (unfocused) part. Not necessarily. In view of this, in the present embodiment, the prediction pixel is automatically selected depending on whether or not the region to which the unit pixel to be processed belongs is a focused pixel region.

本実施形態のカメラシステムの構成例を図7に示す。実施形態1との差異は、合焦検出部702を備えること、および合焦検出部702から撮像画素符号化部701へ、画素領域205のうちのどの領域にピントが合っているかのフォーカス領域情報が渡されることである。また、撮像画素符号化部701は、フォーカス領域情報を用いて予測画素を選択するように動作する。   A configuration example of the camera system of the present embodiment is shown in FIG. The difference from Embodiment 1 is that the focus detection unit 702 is provided, and the focus region information indicating which region of the pixel region 205 is in focus from the focus detection unit 702 to the imaging pixel encoding unit 701. Is to be passed. Further, the imaging pixel encoding unit 701 operates to select a prediction pixel using the focus area information.

画像処理部112は、符号化対象画素が含まれるフレーム画像の一つ前のフレーム画像のA像とB像の情報からデフォーカスマップを生成する。画像処理部112はデフォーカスマップを合焦検出部702に提供する。合焦検出部702は、取得したデフォーカスマップに基づいて、所定のデフォーカス量を閾値として、画素領域205を、ピントが合っている合焦領域とピントが合ってない非合焦領域とをそれぞれ特定する。合焦検出部702は、このピントが合っている合焦領域の情報をフォーカス領域情報として、撮像画素符号化部701へ出力する。   The image processing unit 112 generates a defocus map from the information of the A image and the B image of the frame image immediately before the frame image including the encoding target pixel. The image processing unit 112 provides the defocus map to the focus detection unit 702. Based on the acquired defocus map, the focus detection unit 702 uses the predetermined defocus amount as a threshold value to set the pixel area 205 as an in-focus area that is not in focus and an in-focus area that is not in focus. Identify each one. The focus detection unit 702 outputs information on the focused area in focus to the imaging pixel encoding unit 701 as focus area information.

撮像画素符号化部701の構成例は図6(b)に示す通りである。実施形態2の図6(a)の構成と相違点は、予測画素選択部602にフォーカス領域情報が入力され、それを用いて予測画素を選択する点である。本実施形態でも実施形態1と同様、(x、y)〜(x+n−1、y)の画素位置にある同一行のA(x、y)からA(x+n−1、y)のA像n画素、およびB(x、y)〜B(x+n−1、y)のB像n画素からなる符号化ブロックについて符号化を行う場合を説明する。まず、A(x、y)〜A(x+n−1、y)のA像n画素については上述の実施形態と同様に隣接位置のA像の符号化済みのデータを予測画素として符号化を行う。次に、B像の先頭画素であるB(x,y)は、同一位置のA像の符号化済みのデータであるAQ(x、y)を予測画素として符号化を行う。次のB(x+1、y)からB(x+n−1、y)を符号化する場合に、フォーカス領域情報を用いて予測画素の選択を行う。   A configuration example of the imaging pixel encoding unit 701 is as illustrated in FIG. The difference from the configuration of FIG. 6A of the second embodiment is that focus area information is input to the prediction pixel selection unit 602 and a prediction pixel is selected using the focus area information. Also in this embodiment, as in the first embodiment, an A image n from A (x, y) to A (x + n-1, y) in the same row at pixel positions (x, y) to (x + n-1, y). A case will be described in which encoding is performed on a pixel and an encoded block including B pixels x pixels of B (x, y) to B (x + n−1, y). First, the A image n pixels of A (x, y) to A (x + n−1, y) are encoded using the encoded data of the A image at the adjacent position as a prediction pixel, as in the above-described embodiment. . Next, B (x, y), which is the first pixel of the B image, is encoded using AQ (x, y), which is encoded data of the A image at the same position, as a predicted pixel. When encoding B (x + n-1, y) from the next B (x + 1, y) to B (x + 1, y), the prediction pixel is selected using the focus area information.

予測画素選択部602は、これから符号化を行うB(x+1,y)の位置情報、およびフォーカス領域情報から、符号化対象画素であるB(x+1、y)が合焦領域に含まれるか否か(当該画素に対してピントが合っている状態か)どうかを判定する。予測画素選択部602は、処理対象画素が合焦領域に含まれると判定すると、同一の単位画素のA像の符号化済みのデータであるAQ(x+1、y)を予測画素として符号化を行う。一方、予測画素選択部602は処理対象画素が合焦領域に含まれていないと判定すると、隣接位置のB像の符号化済みのデータであるBQ(x、y)を予測画素として符号化を行う。同様にして、B(x+n−1、y)まで、処理対象画素が合焦領域に含まれているかに応じて予測画素の選択を行い、符号化を行う。   The predicted pixel selection unit 602 determines whether B (x + 1, y), which is a pixel to be encoded, is included in the focus area from the position information of B (x + 1, y) to be encoded and the focus area information. It is determined whether or not (whether the pixel is in focus). If the prediction pixel selection unit 602 determines that the processing target pixel is included in the in-focus area, the prediction pixel selection unit 602 performs encoding using AQ (x + 1, y) that is encoded data of the A image of the same unit pixel as a prediction pixel. . On the other hand, if the prediction pixel selection unit 602 determines that the processing target pixel is not included in the in-focus area, the prediction pixel selection unit 602 performs encoding using BQ (x, y), which is the encoded data of the B image at the adjacent position, as the prediction pixel. Do. Similarly, up to B (x + n−1, y), prediction pixels are selected according to whether or not the processing target pixel is included in the in-focus area, and encoding is performed.

以上のように、処理対象の画素に対してピントが合っている状態かどうかに応じて、自動的に相関性の高い予測画素を選択することにより、符号化効率を高めることができる。   As described above, encoding efficiency can be increased by automatically selecting a predictive pixel having a high correlation depending on whether or not the pixel to be processed is in focus.

[実施形態4]
本実施形態では、実施形態2の更なる変形例として、B像の画素を符号化する場合に、A像とB像のいずれかの符号化済みデータを予測画素として選択するための他の選択方法について説明する。具体的に、実施形態3ではフォーカス領域情報に基づき予測画素を選択したが、本実施形態では、絞り情報を用いて予測画素を選択する場合を説明する。以下、上述の実施形態との相違部分について説明する。
[Embodiment 4]
In the present embodiment, as a further modification of the second embodiment, when the B image pixel is encoded, another selection for selecting encoded data of either the A image or the B image as the prediction pixel is performed. A method will be described. Specifically, in the third embodiment, the prediction pixel is selected based on the focus area information. However, in the present embodiment, a case where the prediction pixel is selected using the aperture information will be described. Hereinafter, differences from the above-described embodiment will be described.

実施形態3で説明したように、合焦領域に属する画素ではA像とB像との画素値の相関性が高い。そして絞り情報に基づけば画素領域205のどの部分でピントが合っているかが推測できるので、本実施形態では、絞り情報に応じて予測画素の選択を行う。具体的に、絞り値が大きい場合は、被写界深度は深くなり画像領域中のほとんどの部分でピントが合っている状態になると考えられる。一方、絞り値が小さい場合は、被写界深度は浅くなり画像領域中でピントが合っている領域が少なくなると考えられる。そこで、絞り値が所定の閾値以上の場合、B像の符号化時に予測画素として同一位置のA像の符号化済みのデータを用いる。一方、絞り値が所定の閾値よりも小さい場合、B像の符号化時に予測画素として隣接位置のB像の符号化済みのデータを用いる。   As described in the third embodiment, the correlation between the pixel values of the A and B images is high in the pixels belonging to the in-focus area. Then, based on the aperture information, it can be inferred in which part of the pixel area 205 the focus is achieved. Therefore, in this embodiment, the prediction pixel is selected according to the aperture information. Specifically, when the aperture value is large, it is considered that the depth of field becomes deep and the most part of the image area is in focus. On the other hand, when the aperture value is small, the depth of field is shallow, and it is considered that there are fewer in-focus areas in the image area. Therefore, when the aperture value is equal to or larger than a predetermined threshold, encoded data of the A image at the same position is used as a prediction pixel when encoding the B image. On the other hand, when the aperture value is smaller than a predetermined threshold value, the encoded data of the B image at the adjacent position is used as a prediction pixel when encoding the B image.

絞り値は、例えば画像処理部112が、処理対象の画素が含まれるフレーム画像の一つ前のフレーム画像を解析して決定することができる。本実施形態では、画像処理部112が絞り値を実施形態3のフォーカス領域情報の代わりに予測画素選択部602に提供する。予測画素選択部602は、画像処理部112から取得した絞り値を所定の閾値と比較して、フレーム画像単位にA像とB像とのいずれかを選択する。或いは、画像処理部112が予め所定の閾値との比較を行ってA像とB像とのいずれかを使用するかを決定し、A像またはB像を指定する信号を予測画素選択部602に提供してもよい。   The aperture value can be determined by, for example, the image processing unit 112 analyzing the frame image immediately before the frame image including the pixel to be processed. In the present embodiment, the image processing unit 112 provides the aperture value to the predicted pixel selection unit 602 instead of the focus area information of the third embodiment. The predicted pixel selection unit 602 compares the aperture value acquired from the image processing unit 112 with a predetermined threshold value, and selects either the A image or the B image for each frame image. Alternatively, the image processing unit 112 compares in advance with a predetermined threshold value to determine whether to use the A image or the B image, and sends a signal specifying the A image or the B image to the prediction pixel selection unit 602. May be provided.

このようにして、絞り情報を用いることで、予測画素として相関性の高い画素を選択することができる。なお、画像全域で絞り値は同一となるので、予測画素として同一位置のA像の符号化後の画素値を用いるのか、隣接位置のB像の符号化後の画素値を用いるのかの予測情報はフレーム画像全体について1回だけ送ればよい。   In this way, by using the aperture information, it is possible to select a highly correlated pixel as a predicted pixel. Note that since the aperture value is the same throughout the entire image, prediction information as to whether the pixel value after encoding of the A image at the same position is used as the prediction pixel or the pixel value after encoding of the B image at the adjacent position is used. Need only be sent once for the entire frame image.

以上のように、本実施形態では、絞り値に応じて自動的に相関性の高い予測画素を選択することにより、符号化効率を高めることができる。   As described above, in this embodiment, encoding efficiency can be increased by automatically selecting a predictive pixel having high correlation according to the aperture value.

100 撮像装置、110 画像処理装置 100 imaging device, 110 image processing device

Claims (14)

それぞれが複数の光電変換部を有する単位画素が複数配置された撮像手段からの画像データを入力する入力手段と、
前記画像データにおける、前記光電変換部にそれぞれ対応した複数の画素のデータを符号化する符号化手段であって、予測画素のデータを用いて符号化対象の画素のデータを符号化する符号化手段と
を有し、
前記符号化手段は、前記符号化対象の画素と同じ前記単位画素における他の光電変換部に対応した画素と、前記符号化対象の画素を含む単位画素に隣接する単位画素の光電変換部に対応した画素の一方を、前記予測画素として選択する
ことを特徴とする符号化装置。
Input means for inputting image data from an imaging means in which a plurality of unit pixels each having a plurality of photoelectric conversion units are arranged;
Encoding means for encoding data of a plurality of pixels respectively corresponding to the photoelectric conversion units in the image data, and encoding means for encoding data of pixels to be encoded using prediction pixel data And
The encoding unit corresponds to a pixel corresponding to another photoelectric conversion unit in the same unit pixel as the pixel to be encoded, and a photoelectric conversion unit of a unit pixel adjacent to the unit pixel including the pixel to be encoded. One of the selected pixels is selected as the predicted pixel.
前記符号化手段は、前記符号化対象の画素が同一の単位画素の複数の光電変換部に対応した複数の画素のうち最初に符号化される画素である場合、前記隣接する単位画素の光電変換部に対応した画素を前記予測画素として選択することを特徴とする請求項1に記載の符号化装置。   When the encoding target pixel is a pixel encoded first among a plurality of pixels corresponding to a plurality of photoelectric conversion units of the same unit pixel, the encoding unit performs photoelectric conversion of the adjacent unit pixel. The encoding device according to claim 1, wherein a pixel corresponding to a part is selected as the prediction pixel. 前記符号化手段は、前記符号化対象の画素が前記最初に符号化される画素でない場合、前記同一の単位画素における他の光電変換部に対応した画素を前記予測画素として選択することを特徴とする請求項2に記載の符号化装置。   The encoding unit selects, as the prediction pixel, a pixel corresponding to another photoelectric conversion unit in the same unit pixel when the pixel to be encoded is not the pixel to be encoded first. The encoding device according to claim 2. 前記符号化手段は、前記符号化対象の画素が前記最初に符号化される画素でない場合、前記同一の単位画素における他の光電変換部に対応した画素と、前記隣接する単位画素の光電変換部に対応した画素との一方を前記予測画素として選択することを特徴とする請求項2に記載の符号化装置。   When the encoding target pixel is not the pixel to be encoded first, the encoding unit includes a pixel corresponding to another photoelectric conversion unit in the same unit pixel and a photoelectric conversion unit of the adjacent unit pixel. The encoding apparatus according to claim 2, wherein one of the pixels corresponding to is selected as the prediction pixel. 前記符号化手段は、前記同一の単位画素における他の光電変換部に対応した画素、または、前記隣接する単位画素の光電変換部に対応した画素のうち、前記符号化対象の画素のデータとの差分がより小さくなる方を前記予測画素として選択することを特徴とする請求項4に記載の符号化装置。   The encoding unit is configured to output a pixel corresponding to another photoelectric conversion unit in the same unit pixel, or a pixel corresponding to a photoelectric conversion unit of the adjacent unit pixel and data of the pixel to be encoded. The encoding apparatus according to claim 4, wherein a smaller difference is selected as the prediction pixel. 前記単位画素が複数配置された画素領域のうち合焦領域を特定する特定手段を更に備え、
前記符号化手段は、
前記符号化対象の画素が前記合焦領域に含まれる単位画素の画素である場合、前記同一の単位画素における他の光電変換部に対応した画素を前記予測画素として選択し、
前記符号化対象の画素が前記合焦領域に含まれる単位画素の画素でない場合、前記隣接する単位画素の光電変換部に対応した画素を前記予測画素として選択する
ことを特徴とする請求項4に記載の符号化装置。
Further comprising specifying means for specifying a focus area among pixel areas in which a plurality of unit pixels are arranged;
The encoding means includes
When the pixel to be encoded is a pixel of a unit pixel included in the in-focus area, a pixel corresponding to another photoelectric conversion unit in the same unit pixel is selected as the prediction pixel,
5. The pixel corresponding to the photoelectric conversion unit of the adjacent unit pixel is selected as the prediction pixel when the encoding target pixel is not a pixel of a unit pixel included in the in-focus area. The encoding device described.
前記撮像手段が撮像を行う場合の光学系の絞り値の情報を取得する取得手段を更に備え、
前記符号化手段は、
前記絞り値が所定の閾値以上の場合に、前記同一の単位画素における他の光電変換部に対応した画素を前記予測画素として選択し、
前記絞り値が所定の閾値より小さい場合に、前記隣接する単位画素の光電変換部に対応した画素を前記予測画素として選択する
ことを特徴とする請求項4に記載の符号化装置。
An acquisition means for acquiring information on an aperture value of an optical system when the imaging means performs imaging;
The encoding means includes
When the aperture value is greater than or equal to a predetermined threshold, select a pixel corresponding to another photoelectric conversion unit in the same unit pixel as the prediction pixel,
The encoding apparatus according to claim 4, wherein when the aperture value is smaller than a predetermined threshold, a pixel corresponding to a photoelectric conversion unit of the adjacent unit pixel is selected as the prediction pixel.
前記符号化手段が生成した符号化データと、前記選択された予測画素に関する情報とを多重化して符号化ストリームを生成する多重化手段を更に備えることを特徴とする請求項4から7のいずれか1項に記載の符号化装置。   8. The multiplexer according to claim 4, further comprising a multiplexer that multiplexes the encoded data generated by the encoder and information on the selected prediction pixel to generate an encoded stream. The encoding device according to item 1. 前記多重化手段は、所定数の画素を符号化単位として前記符号化ストリームを生成し、
前記選択された予測画素に関する情報は、前記符号化ストリームごとに単一の情報が設定されることを特徴とする請求項8に記載の符号化装置。
The multiplexing means generates the encoded stream with a predetermined number of pixels as an encoding unit,
The encoding apparatus according to claim 8, wherein the information related to the selected prediction pixel is set as a single information for each encoded stream.
前記符号化手段は、前記入力手段により入力された画素のデータを量子化する量子化手段を有し、
前記量子化手段により量子化された符号化対象の画素のデータと、前記量子化手段により量子化された前記予測画素のデータとの差分を符号化することを特徴とする請求項1から9のいずれか1項に記載の符号化装置。
The encoding means includes quantization means for quantizing pixel data input by the input means,
10. The difference between the encoding target pixel data quantized by the quantization means and the predicted pixel data quantized by the quantization means is encoded. The encoding device according to any one of claims.
前記符号化手段は、所定数の画素を含むブロックを単位として前記画像データを符号化し、
前記ブロックの先頭の前記単位画素における複数の前記光電変換部に対応した複数の画素のうち、最初に符号化される画素については前記量子化手段により量子化されたデータを出力し、前記ブロックにおける2番目以降に符号化される画素については前記予測画素のデータとの差分を符号化した結果を出力することを特徴とする請求項10に記載の符号化装置。
The encoding means encodes the image data in units of blocks including a predetermined number of pixels,
Among the plurality of pixels corresponding to the plurality of photoelectric conversion units in the unit pixel at the head of the block, for the pixel encoded first, the data quantized by the quantization unit is output, The encoding apparatus according to claim 10, wherein the second and subsequent encoded pixels output a result of encoding a difference from the predicted pixel data.
それぞれが複数の光電変換部を有する単位画素が複数配置された撮像素子を含む撮像手段と、
前記撮像手段により得られた画像データにおける、前記光電変換部にそれぞれ対応した複数の画素のデータを符号化する符号化手段であって、予測画素のデータを用いて符号化対象の画素のデータを符号化する符号化手段と
を有し、
前記符号化手段は、前記符号化対象の画素と同じ単位画素における他の光電変換部に対応した画素と、前記符号化対象の画素を含む単位画素に隣接する単位画素の光電変換部に対応した画素の一方を、前記予測画素として選択することを特徴とする撮像装置。
An imaging unit including an imaging element in which a plurality of unit pixels each having a plurality of photoelectric conversion units are arranged;
Coding means for coding data of a plurality of pixels respectively corresponding to the photoelectric conversion units in the image data obtained by the imaging means, wherein the pixel data to be coded is encoded using prediction pixel data Encoding means for encoding,
The encoding means corresponds to a pixel corresponding to another photoelectric conversion unit in the same unit pixel as the pixel to be encoded and a photoelectric conversion unit of a unit pixel adjacent to the unit pixel including the pixel to be encoded. One of the pixels is selected as the predicted pixel.
それぞれが複数の光電変換部を有する単位画素が複数配置された撮像手段からの画像データにおける前記光電変換部にそれぞれ対応した複数の画素のデータを符号化する符号化手段を有する符号化装置が実行する符号化方法であって、
前記符号化手段が、予測画素のデータを用いて符号化対象の画素のデータを符号化する符号化する工程であって、前記符号化対象の画素と同じ前記単位画素における他の光電変換部に対応した画素と、前記符号化対象の画素を含む単位画素に隣接する単位画素の光電変換部に対応した画素の一方を、前記予測画素として選択することを含む、工程を有することを特徴とする符号化方法。
Executed by an encoding apparatus having encoding means for encoding data of a plurality of pixels respectively corresponding to the photoelectric conversion sections in image data from an imaging means in which a plurality of unit pixels each having a plurality of photoelectric conversion sections are arranged An encoding method for
The encoding means is a process of encoding data of a pixel to be encoded using prediction pixel data, and is applied to another photoelectric conversion unit in the same unit pixel as the pixel to be encoded. And selecting one of the corresponding pixels and the pixel corresponding to the photoelectric conversion unit of the unit pixel adjacent to the unit pixel including the pixel to be encoded as the prediction pixel. Encoding method.
コンピュータを請求項1から11のいずれか1項に記載の符号化装置の符号化手段として機能させるためのプログラム。   The program for functioning a computer as an encoding means of the encoding apparatus of any one of Claim 1 to 11.
JP2016114716A 2016-06-08 2016-06-08 Coding device, imaging apparatus, coding method and program Pending JP2017220828A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016114716A JP2017220828A (en) 2016-06-08 2016-06-08 Coding device, imaging apparatus, coding method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016114716A JP2017220828A (en) 2016-06-08 2016-06-08 Coding device, imaging apparatus, coding method and program

Publications (1)

Publication Number Publication Date
JP2017220828A true JP2017220828A (en) 2017-12-14

Family

ID=60656247

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016114716A Pending JP2017220828A (en) 2016-06-08 2016-06-08 Coding device, imaging apparatus, coding method and program

Country Status (1)

Country Link
JP (1) JP2017220828A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019230443A1 (en) * 2018-06-01 2019-12-05 ソニー株式会社 Image processing device and method
WO2020116178A1 (en) * 2018-12-05 2020-06-11 ソニー株式会社 Image processing device and method

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019230443A1 (en) * 2018-06-01 2019-12-05 ソニー株式会社 Image processing device and method
US11758298B2 (en) 2018-06-01 2023-09-12 Sony Corporation Image processing apparatus and method
WO2020116178A1 (en) * 2018-12-05 2020-06-11 ソニー株式会社 Image processing device and method
US11935212B2 (en) 2018-12-05 2024-03-19 Sony Group Corporation Image processing apparatus and method

Similar Documents

Publication Publication Date Title
US8416303B2 (en) Imaging apparatus and imaging method
US9609192B2 (en) Image processing apparatus, image processing method and program, and imaging apparatus
EP1631055B1 (en) Imaging apparatus
US20180109797A1 (en) Moving image compression device, moving image decoding device, image compression device, image decoding device, imaging device, and non-transitory medium storage program
US10003806B2 (en) Optimized plenoptic image encoding
JP2018530963A (en) Method and apparatus for encoding and decoding light field based images and corresponding computer program product
WO2019142821A1 (en) Encoder, decoder, encoding method, decoding method, encoding program, and decoding program
JP6628987B2 (en) Image processing apparatus, image processing method, and imaging apparatus
US20160360136A1 (en) Imaging element, image pickup apparatus, method of controlling imaging element, program, and storage medium
JP2014086968A (en) Image processing device, image processing method, and program
JP2009194760A (en) Image coding device, image decoding device, program for coding image, and program for decoding image
JP2017220828A (en) Coding device, imaging apparatus, coding method and program
JP2018046324A (en) Imaging sensor, control method therefor, and imaging apparatus
JP2013258501A (en) Image processing device and image processing method
US10748305B2 (en) Image capturing apparatus that can reduce amount of data that is to be recorded, method for controlling the image capturing apparatus, and storage medium
JP5974691B2 (en) MOVING IMAGE COMPRESSION DEVICE, IMAGING DEVICE, AND PROGRAM
US10516896B2 (en) Encoding device, encoding method, and storage medium
JP7041494B2 (en) Image processing device and image processing method
US10863088B2 (en) Image capturing apparatus and control method for capturing still images without interrupting video recordings
JP7417388B2 (en) Encoding device, decoding device, and program
JP5924262B2 (en) Image processing apparatus and image processing program
JP2021141357A (en) Imaging sensor and imaging apparatus
JP7076983B2 (en) Coding device, image processing device and image processing method
JP2017126889A (en) Image processing apparatus, imaging device, image processing method and program
JP5974692B2 (en) Moving picture decoding apparatus and program