JP4831006B2 - Image processing apparatus and electronic camera - Google Patents

Image processing apparatus and electronic camera Download PDF

Info

Publication number
JP4831006B2
JP4831006B2 JP2007192284A JP2007192284A JP4831006B2 JP 4831006 B2 JP4831006 B2 JP 4831006B2 JP 2007192284 A JP2007192284 A JP 2007192284A JP 2007192284 A JP2007192284 A JP 2007192284A JP 4831006 B2 JP4831006 B2 JP 4831006B2
Authority
JP
Japan
Prior art keywords
image
compression
processing
frame
compression processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2007192284A
Other languages
Japanese (ja)
Other versions
JP2008061228A (en
Inventor
豊 津田
和敬 高橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2007192284A priority Critical patent/JP4831006B2/en
Priority to PCT/JP2007/000808 priority patent/WO2008015781A1/en
Priority to US12/309,741 priority patent/US8249339B2/en
Priority to EP07790302.9A priority patent/EP2053841B1/en
Publication of JP2008061228A publication Critical patent/JP2008061228A/en
Application granted granted Critical
Publication of JP4831006B2 publication Critical patent/JP4831006B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Compression Of Band Width Or Redundancy In Fax (AREA)
  • Image Processing (AREA)

Description

本発明は、画像処理装置および電子カメラに関する。
The present invention relates to an image processing apparatus and an electronic camera .

一般に、カメラなどで撮影した画像を画像処理して記憶媒体に保存する手順は、先ず撮影した画像の補間処理や色処理を行い、最後に画像圧縮処理を行って記憶媒体に保存する。ところが、各部の処理速度が異なるため、遅い処理によって全体の処理速度が決まってしまうという問題がある。   In general, the procedure of processing an image captured by a camera or the like and storing it in a storage medium is to first perform interpolation processing and color processing of the captured image, and finally perform image compression processing and store it in the storage medium. However, since the processing speed of each part is different, there is a problem that the overall processing speed is determined by slow processing.

このため、全体の処理速度を向上するために、撮像素子から2系統の信号を取り出して並列処理する方法など、様々な技術が考えられている(例えば、特許文献1参照)。   For this reason, in order to improve the overall processing speed, various techniques such as a method of taking out two systems of signals from the image sensor and performing parallel processing have been considered (for example, see Patent Document 1).

また、撮影した画像を圧縮処理した時の符号量は、画像の種類によって異なる。例えば一般的に用いられている画像圧縮処理のJPEG方式では、同じスケールファクタ(量子化テーブルに掛けて量子化ビット数を可変する圧縮パラメータ)を用いて画像圧縮を行うと、高周波成分が多い画像は符号量が多くなり、高周波成分が少ない画像では符号量は少なくなる。   Also, the amount of code when the captured image is compressed varies depending on the type of image. For example, in the commonly used JPEG method of image compression processing, when image compression is performed using the same scale factor (a compression parameter that varies the number of quantization bits applied to a quantization table), an image with many high-frequency components Increases the amount of code, and the amount of code decreases for images with few high-frequency components.

このような可変長圧縮を行う場合、メモリ量が一定の電子カメラでは、撮影する画像によって撮影可能枚数が異なり、残りの撮影可能枚数を把握できないという問題が生じる。
また、画像圧縮後の符号量が所定範囲内に収まるようにスケールファクタを予測して調整する固定長圧縮も用いられている(例えば、特許文献2参照)。
特開2002−84493号公報 特開2001−61148号公報
When such variable-length compression is performed, an electronic camera with a fixed memory amount has a problem that the number of shootable images differs depending on the image to be shot, and the remaining number of shootable images cannot be grasped.
In addition, fixed-length compression is also used in which a scale factor is predicted and adjusted so that the code amount after image compression falls within a predetermined range (see, for example, Patent Document 2).
JP 2002-84493 A JP 2001-61148 A

従来技術では、補間処理や色処理に対して画像圧縮処理の方が処理が重いため、処理時間が長く掛かってしまうという問題があった。また、撮像素子から2系統の信号を取り出す方法は、専用の撮像素子が必要になり、画像処理装置のコストが高くなってしまうという問題があった。さらに、画像圧縮後の符号量を所定範囲内に収めるためのスケールファクタの予測やスケールファクタを更新するタイミングなどについては詳しく検討されていなかった。   In the prior art, the image compression process is heavier than the interpolation process and the color process, so that there is a problem that it takes a long processing time. In addition, the method of taking out two systems of signals from the image sensor requires a dedicated image sensor, which increases the cost of the image processing apparatus. Furthermore, details of the prediction of the scale factor for keeping the code amount after image compression within a predetermined range, the timing for updating the scale factor, and the like have not been studied in detail.

発明の目的は、全体の処理時間短縮することが可能な画像処理装置および電子カメラを提供することである。
An object of the present invention is to provide an image processing device and an electronic camera which can shorten the processing time of the entire body.

請求項1に記載の画像処理装置は、連続したフレームの画像を入力して補間および色処理を行う補間色処理回路と、前記補間色処理回路で処理中および処理済の複数フレーム分の画像を巡回的に記憶する記憶部と、前記補間色処理回路で処理済のフレームの画像を前記記憶部から読み出して画像圧縮処理を行い、フレーム毎に巡回的に起動されて並列処理する複数の画像圧縮処理回路と、前記画像圧縮処理回路で処理した圧縮データを記憶する圧縮データ記憶部とを有し、前記画像圧縮処理回路の個数は、(前記画像圧縮処理回路の1フレームの処理時間)÷(前記補間色処理回路の1フレームの処理時間)の計算値を切り上げた個数以上としたことを特徴とする。The image processing apparatus according to claim 1, wherein an interpolation color processing circuit that performs continuous interpolation and color processing by inputting continuous frame images, and images for a plurality of frames being processed and processed by the interpolation color processing circuit. A storage unit that cyclically stores and a plurality of image compressions that perform image compression processing by reading an image of a frame processed by the interpolation color processing circuit from the storage unit, and that are cyclically activated for each frame and processed in parallel A processing circuit and a compressed data storage unit for storing compressed data processed by the image compression processing circuit, and the number of the image compression processing circuits is ((processing time of one frame of the image compression processing circuit) / ( The calculated value of the processing time of one frame of the interpolation color processing circuit is set to be equal to or more than the rounded-up number.

請求項8に記載の電子カメラは、被写体像を撮像して連続したフレームの画像を出力する撮像部と、請求項1から請求項7のいずれか一項に記載の画像処理装置とを備えることを特徴とする。An electronic camera according to an eighth aspect includes an imaging unit that captures a subject image and outputs a continuous frame image, and the image processing apparatus according to any one of the first to seventh aspects. It is characterized by.

本発明によれば、全体の処理時間を短縮することが可能となる。
According to the present invention, it is possible to shorten the entire processing time.

以下、図面を参照して各実施形態に係る画像処理装置を有するカメラについて説明するが、各実施形態について説明する前に、先ず従来技術による画像処理装置を有するカメラ151について図10を用いて説明する。 Will be described below, but a camera having an image processing apparatus according to each embodiment with reference to the drawings, before describing the embodiments, with reference to FIG. 10 for a camera 151 having an image processing apparatus according to previously not a prior art explain.

カメラ151は、CPU102に予め格納されたプログラムによって動作し、使用者の操作パネル103の操作に基づいて、システムバス104を介してカメラ151の各部を制御する。   The camera 151 operates according to a program stored in advance in the CPU 102, and controls each unit of the camera 151 via the system bus 104 based on a user's operation on the operation panel 103.

レンズ105から入射した被写体光は撮像素子106に結像され、タイミングジェネレータ(TG)107のタイミングに基づいて、光を電気信号に変換する。電気信号に変換されたアナログ画像信号は、アナログフロントエンド(AFE)108でノイズ除去や増幅が行われ、アナログデジタル変換部(A/D)109でデジタル画像データに変換される。デジタル画像データは、撮影画像の生データ(RAWデータ)としてRAWメモリ110に一時的に記憶される。   The subject light incident from the lens 105 is imaged on the image sensor 106 and converts the light into an electrical signal based on the timing of the timing generator (TG) 107. The analog image signal converted into the electrical signal is subjected to noise removal and amplification by an analog front end (AFE) 108 and converted to digital image data by an analog / digital conversion unit (A / D) 109. The digital image data is temporarily stored in the RAW memory 110 as raw image data (RAW data).

補間色処理回路111は、RAWメモリ110からRAWデータを読み出して、補間処理やRGBデータから輝度色差(YCrCb)データへの変換処理を行って、メモリ112に一時的に記憶する。   The interpolation color processing circuit 111 reads RAW data from the RAW memory 110, performs interpolation processing and conversion processing from RGB data to luminance color difference (YCrCb) data, and temporarily stores them in the memory 112.

圧縮回路113は、メモリ112からYCrCbデータを読み出して、画像圧縮処理を行う。圧縮回路113が生成した画像圧縮データは、使用者による操作パネル103からの指示や設定に応じて、メモリカードIF114を介して接続されているメモリカード115に保存される。尚、RAWメモリ110,メモリ112,補間色処理回路111および圧縮回路113の間のデータの入出力は、システムバス104を介して行われ、CPU102によって制御される。   The compression circuit 113 reads YCrCb data from the memory 112 and performs image compression processing. The compressed image data generated by the compression circuit 113 is stored in the memory card 115 connected via the memory card IF 114 in accordance with an instruction or setting from the operation panel 103 by the user. Data input / output among the RAW memory 110, the memory 112, the interpolation color processing circuit 111, and the compression circuit 113 is performed via the system bus 104 and controlled by the CPU.

次に、これらの一連の動作について図11を用いて説明する。尚、ここでは、圧縮回路113は、JPEG規格の画像圧縮処理を行うJPEGエンコーダ113として説明する。同図において、補間色処理回路111によって補間色処理されたYCrCbデータは、メモリ112に設けられた2フレーム分の記憶エリアYUV1およびYUV2に交互に記憶される。尚、CPU102は、メモリ112に記憶されたYCrCbデータを読み出して、表示回路116を介して液晶モニタ117に撮影された画像を表示する。   Next, a series of these operations will be described with reference to FIG. Here, the compression circuit 113 will be described as a JPEG encoder 113 that performs JPEG standard image compression processing. In the figure, YCrCb data subjected to interpolation color processing by the interpolation color processing circuit 111 is alternately stored in storage areas YUV1 and YUV2 for two frames provided in the memory 112. The CPU 102 reads out the YCrCb data stored in the memory 112 and displays the photographed image on the liquid crystal monitor 117 via the display circuit 116.

JPEGエンコーダ113は、メモリ112から補間色処理されたYCrCbデータを読み出して、画像圧縮処理を行う。この時、2フレーム分の記憶エリアYUV1およびYUV2に記憶されている補間色処理済の方のYCrCbデータを交互に読み出して画像圧縮処理を行い、生成した1フレーム分のJPEGコードを順番にメモリ112の画像圧縮データの記憶エリアに記憶する。例えば、図11において、1フレーム目がJPEGcode1,2フレーム目がJPEGcode2,3フレーム目がJPEGcode3で、xフレーム目がJPEGcodexとなるように画像圧縮データを記憶する。   The JPEG encoder 113 reads YCrCb data that has undergone interpolation color processing from the memory 112 and performs image compression processing. At this time, the YCrCb data having been subjected to the interpolation color processing stored in the storage areas YUV1 and YUV2 for two frames are alternately read out to perform image compression processing, and the generated JPEG code for one frame is sequentially stored in the memory 112. Is stored in the storage area of the compressed image data. For example, in FIG. 11, the compressed image data is stored such that the first frame is JPEGcode1, the second frame is JPEGcode2, the third frame is JPEGcode3, and the xth frame is JPEGcodex.

次に、上記の処理と時間の関係について、図12を用いて説明する。図12は、補間色処理回路111とJPEGエンコーダ113との処理時間の関係を説明した図である。   Next, the relationship between the above processing and time will be described with reference to FIG. FIG. 12 is a diagram for explaining the relationship between the processing times of the interpolation color processing circuit 111 and the JPEG encoder 113.

尚、一般に、補間色処理に掛かる時間よりも画像圧縮処理に掛かる時間の方が長く、画像圧縮処理がボトルネックとなって、全体の処理時間を左右する。図12は、補間色処理に掛かる時間よりも画像圧縮処理に掛かる時間が1.5倍ぐらいを想定したものである。   In general, the time required for the image compression processing is longer than the time required for the interpolation color processing, and the image compression processing becomes a bottleneck, which affects the entire processing time. FIG. 12 assumes that the time required for image compression processing is about 1.5 times the time required for interpolation color processing.

タイミングt1からタイミングt6までの時間は、補間色処理回路111が7つの画像フレームを連続して処理した場合の時間である。補間色処理回路111は、タイミングt1でフレーム501の画像データの補間色処理を開始し、タイミングt2で補間色処理を完了する。つまり、タイミングt2の時点で、図11のメモリ112の記憶エリアYUV1に処理されたYCrCbデータの記憶が終了し、フレーム501は処理済となる。   The time from the timing t1 to the timing t6 is a time when the interpolation color processing circuit 111 processes seven image frames continuously. The interpolation color processing circuit 111 starts the interpolation color processing of the image data of the frame 501 at the timing t1, and completes the interpolation color processing at the timing t2. That is, at the timing t2, the storage of the YCrCb data processed in the storage area YUV1 of the memory 112 in FIG. 11 is completed, and the frame 501 is processed.

次に、補間色処理回路111は、フレーム501の処理が終わったタイミングt2から次のフレーム502の補間色処理を開始する。同時に、JPEGエンコーダ113は、記憶エリアYUV1に記憶された補間色処理が終了したフレーム501のYCrCbデータを読み出して、JPEG規格に基づいた画像圧縮処理を開始する。   Next, the interpolation color processing circuit 111 starts the interpolation color processing of the next frame 502 from the timing t2 when the processing of the frame 501 is completed. At the same time, the JPEG encoder 113 reads the YCrCb data of the frame 501 that has been subjected to the interpolation color processing and stored in the storage area YUV1, and starts image compression processing based on the JPEG standard.

ところが、先に説明したように、補間色処理に掛かる時間よりも画像圧縮処理に掛かる時間が1.5倍ぐらい長いので、フレーム502の補間色処理が先に終了する。この時点で、JPEGエンコーダ113は、記憶エリアYUV1に記憶されたフレーム501の画像圧縮処理中なので、補間色処理回路111は記憶エリアYUV1を使用することができない。タイミングt3で、JPEGエンコーダ113はフレーム501の画像圧縮処理を終了し、JPEGcode1の生成を完了する。この時点で、記憶エリアYUV1が使用可能となり、補間色処理回路111は、次のフレーム503の補間色処理を開始し、処理されたYCrCbデータを記憶エリアYUV1に書き込んでいく。同時に、JPEGエンコーダ113は、記憶エリアYUV2に記憶された補間色処理が終了したフレーム502のYCrCbデータを読み出して、画像圧縮処理を開始する。   However, as described above, since the time required for the image compression processing is about 1.5 times longer than the time required for the interpolation color processing, the interpolation color processing of the frame 502 ends first. At this time, since the JPEG encoder 113 is performing image compression processing of the frame 501 stored in the storage area YUV1, the interpolation color processing circuit 111 cannot use the storage area YUV1. At timing t3, the JPEG encoder 113 finishes the image compression processing of the frame 501 and completes generation of JPEGcode1. At this time, the storage area YUV1 becomes usable, and the interpolation color processing circuit 111 starts the interpolation color processing of the next frame 503 and writes the processed YCrCb data in the storage area YUV1. At the same time, the JPEG encoder 113 reads the YCrCb data of the frame 502 for which interpolation color processing has been completed and stored in the storage area YUV2, and starts image compression processing.

ところが、フレーム502の場合と同様に、補間色処理に掛かる時間よりも画像圧縮処理に掛かる時間が1.5倍ぐらい長いので、フレーム503の補間色処理が先に終了する。この時点で、JPEGエンコーダ113は、記憶エリアYUV2に記憶されたフレーム502の画像圧縮処理中なので、補間色処理回路111は記憶エリアYUV2を使用することができない。このため、JPEGエンコーダ113がフレーム502の画像圧縮処理を終了するタイミングt4で、補間色処理回路111は、次のフレーム504の補間色処理を開始し、処理されたYCrCbデータを記憶エリアYUV2に書き込んでいく。同時に、JPEGエンコーダ113は、記憶エリアYUV1に記憶された補間色処理が終了したフレーム503のYCrCbデータを読み出して、画像圧縮処理を開始する。   However, as in the case of the frame 502, since the time required for the image compression processing is about 1.5 times longer than the time required for the interpolation color processing, the interpolation color processing of the frame 503 ends first. At this time, since the JPEG encoder 113 is performing image compression processing of the frame 502 stored in the storage area YUV2, the interpolation color processing circuit 111 cannot use the storage area YUV2. Therefore, at the timing t4 when the JPEG encoder 113 finishes the image compression processing of the frame 502, the interpolation color processing circuit 111 starts the interpolation color processing of the next frame 504 and writes the processed YCrCb data in the storage area YUV2. Go. At the same time, the JPEG encoder 113 reads the YCrCb data of the frame 503 for which the interpolation color processing has been completed and stored in the storage area YUV1, and starts image compression processing.

同様に、JPEGエンコーダ113がフレーム503の画像圧縮処理を終了するタイミングt5で、補間色処理回路111は、次のフレーム505の補間色処理を開始し、処理されたYCrCbデータを記憶エリアYUV1に書き込んでいく。同時に、JPEGエンコーダ113は、記憶エリアYUV2に記憶された補間色処理が終了したフレーム504のYCrCbデータを読み出して、画像圧縮処理を開始する。   Similarly, at the timing t5 when the JPEG encoder 113 finishes the image compression processing of the frame 503, the interpolation color processing circuit 111 starts the interpolation color processing of the next frame 505 and writes the processed YCrCb data in the storage area YUV1. Go. At the same time, the JPEG encoder 113 reads the YCrCb data of the frame 504 that has been subjected to the interpolation color processing and is stored in the storage area YUV2, and starts image compression processing.

このように、補間色処理回路111が連続して処理すれば、点線で示したフレーム1からフレーム7までの補間色処理が行える処理時間内に、図10の構成では、フレーム501から505の5つのフレームしか処理できない。   In this way, if the interpolation color processing circuit 111 continuously processes, the processing time in which the interpolation color processing from the frame 1 to the frame 7 indicated by the dotted line can be performed within the processing time in the configuration of FIG. Only one frame can be processed.

次に、上記のような課題を解決する本発明に係る各実施形態について、順に説明する。
(第1の実施形態)
図1は、第1の実施形態に係る画像処理装置を有するカメラ101aの構成を示すブロック図である。カメラ101aの基本構成は、先に説明した図10のカメラ151と同じで、CPU102に予め格納されたプログラムによって動作し、使用者の操作パネル103の操作に基づいて、システムバス104を介してカメラ101aの各部を制御する。ここでは、図10と異なる部分について説明する。
Next, each embodiment according to the present invention that solves the above problems will be described in order.
(First embodiment)
FIG. 1 is a block diagram showing a configuration of a camera 101a having an image processing apparatus according to the first embodiment. The basic configuration of the camera 101a is the same as that of the camera 151 of FIG. 10 described above, operates according to a program stored in the CPU 102 in advance, and is operated via the system bus 104 based on the operation of the user's operation panel 103. Each part of 101a is controlled. Here, a different part from FIG. 10 is demonstrated.

図10と異なる部分は、圧縮回路113と同等の圧縮回路113aと113bとを設けたことで、レンズ105から入射した被写体光が撮像素子106で電気信号に変換され、AFE108およびA/D109を介して撮影したデジタル画像データがRAWメモリ110に記憶される部分までは同じである。   A difference from FIG. 10 is that compression circuits 113a and 113b equivalent to the compression circuit 113 are provided, so that the subject light incident from the lens 105 is converted into an electrical signal by the image sensor 106, and is passed through the AFE 108 and the A / D 109. This is the same up to the point where the digital image data photographed in this way is stored in the RAW memory 110.

また、補間色処理回路111aは、図10の補間色処理回路111と同様に、RAWメモリ110からRAWデータを読み出して、補間処理やRGBデータから輝度色差(YCrCb)データへの変換処理を行って、メモリ112に一時的に記憶するが、メモリ112への記憶の仕方が異なる。この様子を図2に示す。尚、ここでは、圧縮回路113aおよび113bは、JPEG規格の画像圧縮処理を行うJPEGエンコーダ113aおよび113bに置き換えて説明する。補間色処理されたYCrCbデータは、メモリ112に設けられた3フレーム分の記憶エリアYUV1,YUV2およびYUV3に巡回的に記憶される。   Similarly to the interpolation color processing circuit 111 in FIG. 10, the interpolation color processing circuit 111 a reads RAW data from the RAW memory 110 and performs an interpolation process or a conversion process from RGB data to luminance color difference (YCrCb) data. The data is temporarily stored in the memory 112, but the storage method in the memory 112 is different. This is shown in FIG. In the following description, the compression circuits 113a and 113b are replaced with JPEG encoders 113a and 113b that perform image compression processing of the JPEG standard. The YCrCb data subjected to the interpolation color processing is cyclically stored in the storage areas YUV1, YUV2, and YUV3 for three frames provided in the memory 112.

JPEGエンコーダ113aおよびbは、交互に、メモリ112から補間色処理されたYCrCbデータを読み出して、JPEG規格の画像圧縮処理を行う。この時、3フレーム分の記憶エリアYUV1,YUV2およびYUV3に記憶されている補間色処理済のYCrCbデータを巡回的に読み出して画像圧縮処理を行う。例えば、補間色処理回路111aが記憶エリアYUV1への処理済みのデータの記憶が完了した場合は、JPEGエンコーダ113aが記憶エリアYUV1のYCrCbデータを読み出して画像圧縮処理を行う。次に、補間色処理回路111aが記憶エリアYUV2への処理済みのデータの記憶が完了した場合は、JPEGエンコーダ113bが記憶エリアYUV2のYCrCbデータを読み出して画像圧縮処理を行う。さらに、補間色処理回路111aが記憶エリアYUV3への処理済みのデータの記憶が完了した場合は、JPEGエンコーダ113aが記憶エリアYUV3のYCrCbデータを読み出して画像圧縮処理を行う。このように、補間色処理回路111aは、記憶エリアYUV1,YUV2およびYUV3に処理済みのYCrCbデータを巡回的に書き込み、同時に、記憶エリアYUV1,YUV2およびYUV3の中の処理済みの記憶エリアからYCrCbデータをJPEGエンコーダ113aおよびbは交互に読み出して、画像圧縮処理を行う。   The JPEG encoders 113a and 113b alternately read YCrCb data subjected to interpolation color processing from the memory 112 and perform JPEG standard image compression processing. At this time, the YCrCb data subjected to interpolation color processing stored in the storage areas YUV1, YUV2, and YUV3 for three frames is cyclically read and image compression processing is performed. For example, when the interpolation color processing circuit 111a completes storing the processed data in the storage area YUV1, the JPEG encoder 113a reads the YCrCb data in the storage area YUV1 and performs image compression processing. Next, when the interpolation color processing circuit 111a has completed storing the processed data in the storage area YUV2, the JPEG encoder 113b reads the YCrCb data in the storage area YUV2 and performs image compression processing. Further, when the interpolation color processing circuit 111a has completed storing the processed data in the storage area YUV3, the JPEG encoder 113a reads the YCrCb data in the storage area YUV3 and performs image compression processing. As described above, the interpolation color processing circuit 111a cyclically writes the processed YCrCb data in the storage areas YUV1, YUV2, and YUV3, and at the same time, the YCrCb data from the processed storage areas in the storage areas YUV1, YUV2, and YUV3. JPEG encoders 113a and 113b alternately read and perform image compression processing.

JPEGエンコーダ113aおよびbが交互に生成した画像圧縮データは、例えば、1フレーム目がJPEGcode1,2フレーム目がJPEGcode2,3フレーム目がJPEGcode3で、xフレーム目がJPEGcodexとなるようにメモリ112の画像圧縮データの記憶エリアに記憶される。   The compressed image data generated alternately by the JPEG encoders 113a and 113b is compressed in the memory 112 such that the first frame is JPEGcode1, the second frame is JPEGcode2, the third frame is JPEGcode3, and the xth frame is JPEGcodex. It is stored in the data storage area.

次に、上記の処理と時間の関係について、図3を用いて説明する。図3は、補間色処理回路111aとJPEGエンコーダ113aおよびbとの処理時間の関係を説明した図である。図12と比較するために、補間色処理に掛かる時間よりも画像圧縮処理に掛かる時間が1.5倍ぐらいを想定したもので、図12のタイミングt1からタイミングt6までの時間は、図3のt11からt18までの時間に対応し、補間色処理回路111aが7つの画像フレームを連続して処理した場合の時間を示している。   Next, the relationship between the above processing and time will be described with reference to FIG. FIG. 3 is a diagram for explaining the relationship between the processing time of the interpolation color processing circuit 111a and the JPEG encoders 113a and 113b. For comparison with FIG. 12, it is assumed that the time required for image compression processing is about 1.5 times the time required for interpolation color processing, and the time from timing t1 to timing t6 in FIG. Corresponding to the time from t11 to t18, the time when the interpolation color processing circuit 111a continuously processes seven image frames is shown.

補間色処理回路111aは、タイミングt11でフレーム201の画像データの補間色処理を開始し、タイミングt12で補間色処理を完了する。つまり、タイミングt12の時点で、図2のメモリ112の記憶エリアYUV1に処理されたYCrCbデータの記憶が終了し、フレーム201は処理済となる。   The interpolation color processing circuit 111a starts the interpolation color processing of the image data of the frame 201 at the timing t11, and completes the interpolation color processing at the timing t12. That is, at the timing t12, the storage of the YCrCb data processed in the storage area YUV1 of the memory 112 in FIG. 2 is completed, and the frame 201 is processed.

次に、補間色処理回路111aは、フレーム201の処理が終わったタイミングt12から次のフレーム202の補間色処理を開始する。同時に、JPEGエンコーダ113aは、記憶エリアYUV1に記憶された補間色処理が終了したフレーム201のYCrCbデータを読み出して、画像圧縮処理を開始する。   Next, the interpolation color processing circuit 111a starts the interpolation color processing of the next frame 202 from the timing t12 when the processing of the frame 201 ends. At the same time, the JPEG encoder 113a reads the YCrCb data of the frame 201 that has been subjected to the interpolation color processing and stored in the storage area YUV1, and starts image compression processing.

次に、補間色処理回路111aは、フレーム202の処理が終わったタイミングt13から次のフレーム203の補間色処理を開始する。同時に、JPEGエンコーダ113bは、記憶エリアYUV2に記憶された補間色処理が終了したフレーム202のYCrCbデータを読み出して、画像圧縮処理を開始する。   Next, the interpolation color processing circuit 111a starts the interpolation color processing of the next frame 203 from the timing t13 when the processing of the frame 202 ends. At the same time, the JPEG encoder 113b reads the YCrCb data of the frame 202 that has been subjected to the interpolation color processing and stored in the storage area YUV2, and starts image compression processing.

同様に、タイミングt14では、補間色処理回路111aが次のフレーム204の補間色処理を開始し、JPEGエンコーダ113aは、記憶エリアYUV3に記憶された補間色処理が終了したフレーム203の画像圧縮処理を開始する。   Similarly, at timing t14, the interpolation color processing circuit 111a starts the interpolation color processing of the next frame 204, and the JPEG encoder 113a performs the image compression processing of the frame 203 after the interpolation color processing stored in the storage area YUV3. Start.

以降、タイミングt15では、補間色処理回路111aは次のフレーム205の処理を開始し、JPEGエンコーダ113bは補間色処理が終了したフレーム204の画像圧縮処理を開始する。タイミングt16では、補間色処理回路111aは次のフレーム206の処理を開始し、JPEGエンコーダ113aは補間色処理が終了したフレーム205の画像圧縮処理を開始する。タイミングt17では、補間色処理回路111aは次のフレーム207の処理を開始し、JPEGエンコーダ113bは補間色処理が終了したフレーム206の画像圧縮処理を開始する。   Thereafter, at timing t15, the interpolation color processing circuit 111a starts processing of the next frame 205, and the JPEG encoder 113b starts image compression processing of the frame 204 for which interpolation color processing has been completed. At timing t16, the interpolation color processing circuit 111a starts processing of the next frame 206, and the JPEG encoder 113a starts image compression processing of the frame 205 for which interpolation color processing has been completed. At timing t17, the interpolation color processing circuit 111a starts processing for the next frame 207, and the JPEG encoder 113b starts image compression processing for the frame 206 for which interpolation color processing has been completed.

このように、JPEGエンコーダ113aが画像圧縮処理を行っている場合は、JPEGエンコーダ113bが画像圧縮処理を行い、逆に、JPEGエンコーダ113bが画像圧縮処理を行っている場合は、JPEGエンコーダ113aが画像圧縮処理を行うので、補間色処理回路111aはフレーム201から207の7つのフレームを連続して処理することができる。   Thus, when the JPEG encoder 113a performs image compression processing, the JPEG encoder 113b performs image compression processing. Conversely, when the JPEG encoder 113b performs image compression processing, the JPEG encoder 113a performs image compression processing. Since compression processing is performed, the interpolation color processing circuit 111a can process seven frames 201 to 207 in succession.

尚、本実施形態の説明では、補間色処理に掛かる時間よりも画像圧縮処理に掛かる時間が1.5倍程度の長さとしたが、例えば、2.5倍程度の場合は、補間色処理回路で補間色処理したYCrCbデータを格納する記憶エリアを4フレーム分(YUV1,YUV2,YUV3およびYUV4)と、JPEGエンコーダを3つ設けることにより、3つのJPEGエンコーダが巡回的に、4フレーム分の記憶エリアから補間色処理済みのYCrCbデータを処理済みのものから順番に読み出して画像圧縮処理することにより実現できる。   In the description of the present embodiment, the time required for the image compression processing is about 1.5 times longer than the time required for the interpolation color processing. For example, when the time is about 2.5 times, the interpolation color processing circuit is used. The storage area for storing YCrCb data that has undergone interpolation color processing in (4) (YUV1, YUV2, YUV3, and YUV4) and three JPEG encoders are provided, so that three JPEG encoders store four frames cyclically. This can be realized by reading out the YCrCb data having undergone interpolation color processing from the area in order from the processed data and performing image compression processing.

つまり、圧縮回路の個数は次の式で計算できる。圧縮回路の個数=(画像圧縮回路の1フレームの処理時間)÷(補間色処理回路の1フレームの処理時間)の計算値を切り上げた整数値。例えば、補間色処理に掛かる時間よりも画像圧縮処理に掛かる時間が1.5倍程度の時、圧縮回路の個数は2個となり、2.5倍の時は3個、3.5倍の時は4個のように計算できる。尚、補間色処理回路で補間色処理したYCrCbデータを格納する記憶エリアの数は、圧縮回路の個数+1個の記憶エリアが少なくとも必要である。   That is, the number of compression circuits can be calculated by the following equation. The number of compression circuits = an integer value obtained by rounding up the calculated value of (processing time of one frame of image compression circuit) / (processing time of one frame of interpolation color processing circuit). For example, when the time required for image compression processing is about 1.5 times the time required for interpolation color processing, the number of compression circuits is 2, and when 2.5 times is 3 times, when 3.5 times Can be calculated as four. The number of storage areas for storing YCrCb data subjected to interpolation color processing by the interpolation color processing circuit needs to be at least the number of compression circuits + 1.

このように、図10の場合は、補間色処理回路111が7つのフレームを連続して処理する時間に、図10の場合は5フレームの補間色処理と、約4フレームの画像圧縮データしか生成できなかったが、本実施形態の図3では7フレームの補間色処理と、約6フレームの画像圧縮データを生成することができる。   Thus, in the case of FIG. 10, the interpolation color processing circuit 111 generates only five frames of interpolated color processing and image compression data of about four frames in the time when seven frames are successively processed in the case of FIG. Although not possible, in FIG. 3 of the present embodiment, 7 frames of interpolation color processing and about 6 frames of compressed image data can be generated.

(第2の実施形態)
次に、第2の実施形態に係る画像処理装置を有するカメラ101bのブロック図を図4に示す。カメラ101bの基本構成は、第1の実施形態の図1のカメラ101と同じであるが、補間色処理回路111bと圧縮回路113cおよび113dとの間にバッファ118aおよび118bをそれぞれ設けた構成になっている。つまり、補間色処理回路111bと、圧縮回路113cおよび113dとが、システムバス104とは別に、バッファ118aおよび118bを介して直接接続された構成になっている。
(Second Embodiment)
Next, FIG. 4 shows a block diagram of a camera 101b having an image processing apparatus according to the second embodiment. The basic configuration of the camera 101b is the same as that of the camera 101 of FIG. 1 of the first embodiment, but buffers 118a and 118b are respectively provided between the interpolation color processing circuit 111b and the compression circuits 113c and 113d. ing. That is, the interpolation color processing circuit 111b and the compression circuits 113c and 113d are directly connected via the buffers 118a and 118b separately from the system bus 104.

同図において、レンズ105から入射した被写体光が撮像素子106で電気信号に変換され、AFE108およびA/D109を介して撮影したデジタル画像データがRAWメモリ110に記憶される部分までは、第1の実施形態と同じである。   In the same figure, the subject light incident from the lens 105 is converted into an electrical signal by the image sensor 106, and the first portion until the digital image data photographed via the AFE 108 and the A / D 109 is stored in the RAW memory 110 is the first. This is the same as the embodiment.

その後、補間色処理回路111bは、図10の補間色処理回路111と同様に、RAWメモリ110からRAWデータを読み出して、補間処理やRGBデータから輝度色差(YCrCb)データへの変換処理を行って、メモリ112に一時的に記憶すると共に、補間色処理しているフレームの一部の処理済みデータをバッファ118aおよび118bに記憶する。   After that, the interpolation color processing circuit 111b reads out the RAW data from the RAW memory 110 in the same manner as the interpolation color processing circuit 111 in FIG. 10, and performs an interpolation process or a conversion process from RGB data to luminance color difference (YCrCb) data. In addition to temporarily storing in the memory 112, the processed data of a part of the frame undergoing interpolation color processing is stored in the buffers 118a and 118b.

一方、圧縮回路113cおよび113dは、バッファ118aおよび118bに記憶された処理済みデータを読み出して画像圧縮処理を行い、システムバス104を介してメモリ112の画像圧縮データの記憶エリアに記憶する。この様子を図5に示す。尚、第1の実施形態と同様に、ここでは、圧縮回路113cおよび113dを、JPEG規格の画像圧縮処理を行うJPEGエンコーダ113cおよび113dに置き換えて説明する。   On the other hand, the compression circuits 113c and 113d read the processed data stored in the buffers 118a and 118b, perform image compression processing, and store them in the image compressed data storage area of the memory 112 via the system bus 104. This is shown in FIG. Similar to the first embodiment, here, the compression circuits 113c and 113d are replaced with JPEG encoders 113c and 113d that perform JPEG standard image compression processing.

図5において、補間色処理されたYCrCbデータは、図11と同様に、メモリ112に設けられた2フレーム分の記憶エリアYUV1およびYUV2に交互に記憶される。同時に、補間色処理されたYCrCbデータの一部は、バッファ118aおよび118bに記憶される。ここで、バッファ118aは記憶エリアYUV1に記憶されるフレームに対応し、バッファ118bは記憶エリアYUV2に記憶されるフレームに対応する。   In FIG. 5, the YCrCb data that has undergone interpolation color processing is alternately stored in the storage areas YUV1 and YUV2 for two frames provided in the memory 112, as in FIG. At the same time, a part of the YCrCb data subjected to the interpolation color processing is stored in the buffers 118a and 118b. Here, the buffer 118a corresponds to a frame stored in the storage area YUV1, and the buffer 118b corresponds to a frame stored in the storage area YUV2.

JPEGエンコーダ113cおよび113dは、バッファ118aおよび118bに画像圧縮処理可能なデータ量が溜まり次第、画像圧縮処理を起動する。   The JPEG encoders 113c and 113d start the image compression process as soon as the data amount that can be subjected to the image compression process is accumulated in the buffers 118a and 118b.

ここで、画像圧縮処理可能なデータ量について説明する。一般に、本実施形態のようなJPEG規格の画像圧縮処理を行う場合、画像圧縮処理可能なデータ量は、YCrCbデータ(YUVデータ)のYとUVとの画素数比率によって異なる。例えば、YUV422と称される画像データは、横方向の画素数において、Yデータの2画素分がUおよびVデータの1画素分に間引かれている。一方、JPEG規格の圧縮処理は、YとUとVのそれぞれに対して、8×8画素の単位で離散コサイン変換が行われるので、UおよびVデータが水平方向に8画素が揃うには、横方向16画素で縦方向8画素の16×8画素の処理単位が最低限必要である。   Here, the amount of data that can be subjected to image compression processing will be described. In general, when JPEG standard image compression processing as in the present embodiment is performed, the amount of data that can be subjected to image compression processing varies depending on the ratio of the number of Y and UV pixels in YCrCb data (YUV data). For example, in image data called YUV422, two pixels of Y data are thinned out by one pixel of U and V data in the number of pixels in the horizontal direction. On the other hand, in the compression processing of the JPEG standard, discrete cosine transform is performed in units of 8 × 8 pixels for each of Y, U, and V, so that U and V data are aligned in 8 pixels in the horizontal direction. A processing unit of 16 × 8 pixels of 16 pixels in the horizontal direction and 8 pixels in the vertical direction is at least necessary.

実際には、バッファ118aおよび118bの切替時間や読み書きの時間が必要なので、複数の処理単位が必要となる。現実的には、例えば、8ライン分のバッファ118aおよび118bを備えるのが好ましい。この場合、横方向の画素数が1600画素の場合は、1600÷16=100の処理単位を確保できることになる。   Actually, since the switching time of the buffers 118a and 118b and the time for reading and writing are required, a plurality of processing units are required. In practice, for example, it is preferable to provide buffers 118a and 118b for eight lines. In this case, if the number of pixels in the horizontal direction is 1600 pixels, a processing unit of 1600 ÷ 16 = 100 can be secured.

図5において、JPEGエンコーダ113cおよびdが交互に生成した画像圧縮データは、第1の実施形態と同様に、1フレーム目がJPEGcode1,2フレーム目がJPEGcode2,3フレーム目がJPEGcode3で、xフレーム目がJPEGcodexとなるようにメモリ112の画像圧縮データの記憶エリアに記憶される。   In FIG. 5, the compressed image data generated alternately by the JPEG encoders 113c and 113d is the same as in the first embodiment. The first frame is JPEGcode1, the second frame is JPEGcode2, the third frame is JPEGcode3, and the xth frame. Is stored in the storage area of the compressed image data in the memory 112 so that becomes JPEGcodex.

次に、上記の処理と時間の関係について、図6を用いて説明する。図6は、補間色処理回路111bとJPEGエンコーダ113cおよび113dとの処理時間の関係を説明した図である。図12および図3と比較するために、補間色処理に掛かる時間よりも画像圧縮処理に掛かる時間が1.5倍ぐらいを想定したもので、図12のタイミングt1からタイミングt6までの時間は、図6のタイミングt21からタイミングt28までの時間に相当し、補間色処理回路111bが7つの画像フレームを連続して処理した場合の時間を示している。また、時間taは、画像圧縮処理可能なデータ量が溜まる時間を示しており、ここでは8ライン分のデータ量が溜まるまでの補間色処理回路111bの処理時間に相当する。   Next, the relationship between the above processing and time will be described with reference to FIG. FIG. 6 is a diagram for explaining the relationship between the processing times of the interpolation color processing circuit 111b and the JPEG encoders 113c and 113d. For comparison with FIGS. 12 and 3, it is assumed that the time required for the image compression processing is about 1.5 times the time required for the interpolation color processing, and the time from timing t1 to timing t6 in FIG. This corresponds to the time from the timing t21 to the timing t28 in FIG. 6, and shows the time when the interpolation color processing circuit 111b continuously processes seven image frames. The time ta indicates a time during which the data amount that can be subjected to image compression processing is accumulated, and here corresponds to the processing time of the interpolation color processing circuit 111b until the data amount for 8 lines is accumulated.

図6において、補間色処理回路111bは、タイミングt21でフレーム301の画像データの補間色処理を開始し、処理が終了した部分からメモリ112の記憶エリアYUV1およびバッファ118aに記憶していく。タイミングt1から時間taが経過した時点で、JPEGエンコーダ113cが起動され、バッファ118aに記憶されたデータの画像圧縮処理を行い、JPEGcode1を生成し始める。   In FIG. 6, the interpolation color processing circuit 111b starts the interpolation color processing of the image data of the frame 301 at the timing t21, and stores it in the storage area YUV1 and the buffer 118a of the memory 112 from the part where the processing is completed. When the time ta elapses from the timing t1, the JPEG encoder 113c is activated, performs image compression processing on the data stored in the buffer 118a, and starts generating JPEGcode1.

タイミングt22で、補間色処理回路111bは、フレーム301の1フレーム分の補間色処理を完了すると同時に、フレーム302の補間色処理を開始し、処理が終了した部分からメモリ112の記憶エリアYUV2およびバッファ118bに記憶していく。タイミングt22から時間taが経過した時点で、JPEGエンコーダ113dが起動され、バッファ118bに記憶されたデータの画像圧縮処理を行い、JPEGcode2を生成し始める。   At the timing t22, the interpolation color processing circuit 111b completes the interpolation color processing for one frame of the frame 301, and at the same time starts the interpolation color processing for the frame 302, and the storage area YUV2 and the buffer of the memory 112 from the portion where the processing is completed. It memorize | stores in 118b. When the time ta elapses from the timing t22, the JPEG encoder 113d is activated, performs image compression processing on the data stored in the buffer 118b, and starts generating JPEGcode2.

次のタイミングt23で、補間色処理回路111bは、フレーム302の1フレーム分の補間色処理を完了すると同時に、フレーム303の補間色処理を開始し、処理が終了した部分からメモリ112の記憶エリアYUV1およびバッファ118aに記憶していく。タイミングt23から時間taが経過した時点で、JPEGエンコーダ113cが起動され、バッファ118aに記憶されたデータの画像圧縮処理を行い、JPEGcode3を生成し始める。   At the next timing t23, the interpolation color processing circuit 111b completes the interpolation color processing for one frame of the frame 302 and at the same time starts the interpolation color processing for the frame 303, and the storage area YUV1 of the memory 112 starts from the part where the processing is completed. And stored in the buffer 118a. When the time ta elapses from the timing t23, the JPEG encoder 113c is activated, performs image compression processing on the data stored in the buffer 118a, and starts generating JPEGcode3.

以下同様に、タイミングt24,t25,t26およびt27において、それぞれのタイミングから時間taが経過した時点で、JPEGエンコーダ113cまたは113dが起動され、バッファ118aまたは118bに記憶されたデータの画像圧縮処理を行い、JPEGcode4から7を生成する。   Similarly, at timings t24, t25, t26, and t27, when the time ta has elapsed from the respective timings, the JPEG encoder 113c or 113d is activated, and image compression processing of data stored in the buffer 118a or 118b is performed. , JPEGcode4 to 7 are generated.

このように、補間色処理回路111bが1フレーム全体の処理を終えなくても、バッファ118aまたは118bに記憶された処理済みのデータを用いて画像圧縮処理を行うことができる。また、第1の実施形態と同様に、JPEGエンコーダ113cが前のフレームの画像圧縮処理を行っている間に、JPEGエンコーダ113dが次のフレームの画像圧縮処理を行い、逆に、JPEGエンコーダ113dが前のフレームの画像圧縮処理を行っている間に、JPEGエンコーダ113cが次のフレームの画像圧縮処理を行うので、1フレームの画像圧縮処理の時間が1フレームの補間色処理の時間より長い場合でも、補間色処理回路111bはフレーム301から307の7つのフレームを連続して処理することができる。   As described above, even if the interpolation color processing circuit 111b does not finish the processing of the entire frame, the image compression processing can be performed using the processed data stored in the buffer 118a or 118b. Similarly to the first embodiment, while the JPEG encoder 113c is performing the image compression process of the previous frame, the JPEG encoder 113d performs the image compression process of the next frame, and conversely, the JPEG encoder 113d is While the image compression processing of the previous frame is performed, the JPEG encoder 113c performs the image compression processing of the next frame. Therefore, even when the time of the image compression processing of one frame is longer than the time of the interpolation color processing of one frame. The interpolation color processing circuit 111b can process seven frames from 301 to 307 in succession.

尚、本実施形態の説明では、補間色処理に掛かる時間よりも画像圧縮処理に掛かる時間が1.5倍程度の長さとしたが、例えば、2.5倍程度の場合は、補間色処理回路で補間色処理したYCrCbデータを格納するバッファとJPEGエンコーダをそれぞれ3つ設けることにより、3つのJPEGエンコーダが巡回的に、3つのバッファから補間色処理済みのYCrCbデータを読み出して画像圧縮処理することにより実現できる。   In the description of the present embodiment, the time required for the image compression processing is about 1.5 times longer than the time required for the interpolation color processing. For example, when the time is about 2.5 times, the interpolation color processing circuit is used. By providing three buffers and JPEG encoders for storing YCrCb data subjected to interpolation color processing in step 3, the three JPEG encoders cyclically read the YCrCb data subjected to interpolation color processing from the three buffers and perform image compression processing. Can be realized.

つまり、バッファおよび圧縮回路の個数は次の式で計算できる。バッファおよび圧縮回路の個数=(画像圧縮回路の1フレームの処理時間)÷(補間色処理回路の1フレームの処理時間)の計算値を切り上げた整数値。例えば、補間色処理に掛かる時間よりも画像圧縮処理に掛かる時間が1.5倍程度の時、バッファおよび圧縮回路の個数は2個となり、2.5倍の時は3個、3.5倍の時は4個のように計算できる。尚、補間色処理回路で処理したYCrCbデータを格納する記憶エリアの数は変わらないが、補間色処理回路は、バッファの数と同数のフレームのデータを巡回的にバッファに記憶する必要がある。   That is, the number of buffers and compression circuits can be calculated by the following equation. Number of buffers and compression circuits = an integer value obtained by rounding up the calculated value of (processing time of one frame of image compression circuit) / (processing time of one frame of interpolation color processing circuit). For example, when the time required for the image compression processing is about 1.5 times the time required for the interpolation color processing, the number of buffers and compression circuits is two. When the time is 2.5 times, three and 3.5 times. In case of, it can be calculated as four. Although the number of storage areas for storing YCrCb data processed by the interpolation color processing circuit does not change, the interpolation color processing circuit needs to cyclically store data of the same number of frames as the number of buffers in the buffer.

このように、第1の実施形態の図3の場合は、7フレームの補間色処理を行う間に、約6フレームの画像圧縮データを生成することができたが、本実施形態では約7フレームの画像圧縮データを生成することができる。また、補間色処理したYCrCbデータを格納するメモリ112内の記憶エリアを、第1の実施形態に比べて1フレーム分少なくすることができ、補間色処理を連続して行いながら、メモリのコストを削減することが可能となる。   As described above, in the case of FIG. 3 of the first embodiment, the image compression data of about 6 frames can be generated while the interpolation color processing of 7 frames is performed, but in this embodiment, about 7 frames. It is possible to generate compressed image data. Further, the storage area in the memory 112 for storing the YCrCb data subjected to the interpolation color processing can be reduced by one frame compared to the first embodiment, and the cost of the memory can be reduced while performing the interpolation color processing continuously. It becomes possible to reduce.

尚、本実施形態ではバッファ118aおよび118bを設けたが、補間色処理したYCrCbデータを格納するメモリ112内の記憶エリアに画像圧縮処理可能なデータ量が溜まり次第、圧縮回路113cおよび113dがこのデータを読み出して画像圧縮処理するようにしても構わない。   Although the buffers 118a and 118b are provided in this embodiment, the compression circuits 113c and 113d store the data as soon as the data amount that can be subjected to the image compression process is accumulated in the storage area in the memory 112 that stores the YCrCb data subjected to the interpolation color processing. May be read out and subjected to image compression processing.

(第3の実施形態)
次に、第3の実施形態に係る画像処理装置を有するカメラ101cのブロック図を図7に示す。カメラ101cの基本構成は、第2の実施形態の図4のカメラ101bと同じであるが、圧縮回路113eおよび113fの出力がデータ並べ替え用バッファ119を介してシステムバス104に接続された構成になっている。
(Third embodiment)
Next, a block diagram of a camera 101c having an image processing apparatus according to the third embodiment is shown in FIG. The basic configuration of the camera 101c is the same as that of the camera 101b of FIG. 4 of the second embodiment, except that the outputs of the compression circuits 113e and 113f are connected to the system bus 104 via the data rearrangement buffer 119. It has become.

同図において、レンズ105から入射した被写体光が撮像素子106で電気信号に変換され、AFE108およびA/D109を介して撮影したデジタル画像データがRAWメモリ110に記憶される部分までは、第1および第2の実施形態と同じである。   In the same figure, the subject light incident from the lens 105 is converted into an electrical signal by the image sensor 106, and the first and second portions are processed until the digital image data photographed via the AFE 108 and the A / D 109 is stored in the RAW memory 110. This is the same as in the second embodiment.

その後、補間色処理回路111cは、図10の補間色処理回路111と同様に、RAWメモリ110からRAWデータを読み出して、補間処理やRGBデータから輝度色差(YCrCb)データへの変換処理を行って、メモリ112に一時的に記憶すると共に、補間色処理しているフレームの一部の処理済みデータをバッファ118aおよび118bに記憶する。   After that, the interpolation color processing circuit 111c reads out the RAW data from the RAW memory 110 and performs an interpolation process or a conversion process from RGB data to luminance color difference (YCrCb) data, similarly to the interpolation color processing circuit 111 of FIG. In addition to temporarily storing in the memory 112, the processed data of a part of the frame undergoing interpolation color processing is stored in the buffers 118a and 118b.

一方、圧縮回路113eおよび113fは、バッファ118aおよび118bに記憶された処理済みデータを所定のデータ量毎(処理単位毎)に読み出して画像圧縮処理を行い、データ並べ替え用バッファ119に記憶する。ここで、データ並べ替え用バッファ119に記憶する際に、圧縮回路113eおよび113fが出力する画像圧縮データを交互に並べ替えて記憶する。その後、並べ替えられた1フレーム分の画像圧縮データは、第1および第2の実施形態と同様に、システムバス104を介してメモリ112の画像圧縮データの記憶エリアに記憶される。尚、この時、データ並べ替え用バッファ119に記憶する際に並べ替えるのではなく、CPU102がデータ並べ替え用バッファ119から画像圧縮データを読み出す際に、画像圧縮データを並べ替えて読み出し、メモリ112の画像圧縮データの記憶エリアに記憶するようにしても構わない。   On the other hand, the compression circuits 113e and 113f read the processed data stored in the buffers 118a and 118b for each predetermined data amount (each processing unit), perform image compression processing, and store the data in the data rearrangement buffer 119. Here, when storing the data in the data rearrangement buffer 119, the compressed image data output from the compression circuits 113e and 113f are alternately rearranged and stored. Thereafter, the rearranged image compressed data for one frame is stored in the image compressed data storage area of the memory 112 via the system bus 104 as in the first and second embodiments. At this time, when the CPU 102 reads out the compressed image data from the data rearrangement buffer 119, it does not rearrange it when storing it in the data rearrangement buffer 119. You may make it memorize | store in the storage area of the image compression data.

次に、これらの一連の様子を図8を用いて説明する。尚、第1および第2の実施形態と同様に、ここでは、圧縮回路113eおよび113fを、JPEG規格の画像圧縮処理を行うJPEGエンコーダ113eおよび113fに置き換えて説明する。   Next, a series of these states will be described with reference to FIG. Note that, similarly to the first and second embodiments, here, the compression circuits 113e and 113f are replaced with JPEG encoders 113e and 113f that perform image compression processing of the JPEG standard.

図8において、補間色処理回路111cが出力するYCrCbデータは、メモリ112に設けられた1フレーム分の記憶エリアYUV1に記憶される。同時に、補間色処理されたYCrCbデータの一部は、第2の実施形態と同様に、バッファ118aおよび118bに記憶される。ここで、記憶エリアYUV1に記憶されるフレームは、複数の部分に分割され、部分毎にバッファ118aおよびバッファ118bに交互に記憶される。ここで、分割する部分は、例えば、8ライン毎,16ライン毎などである。従って、バッファ118aおよびバッファ118bに記憶容量は、少なくとも、分割された部分を記憶できる容量であればよい。   In FIG. 8, the YCrCb data output from the interpolation color processing circuit 111 c is stored in the storage area YUV 1 for one frame provided in the memory 112. At the same time, part of the YCrCb data that has undergone interpolation color processing is stored in the buffers 118a and 118b, as in the second embodiment. Here, the frame stored in the storage area YUV1 is divided into a plurality of portions, and each portion is alternately stored in the buffer 118a and the buffer 118b. Here, the parts to be divided are, for example, every 8 lines or every 16 lines. Therefore, the storage capacity of the buffer 118a and the buffer 118b may be a capacity that can store at least the divided portion.

JPEGエンコーダ113eおよび113fは、バッファ118aおよび118bに画像圧縮処理可能なデータ量が溜まり次第、画像圧縮処理を起動する。尚、画像圧縮処理可能なデータ量は、第2の実施形態と同じで、例えば、YUV422の場合は横方向16画素で縦方向8画素の16×8画素の処理単位が画像圧縮処理可能なデータ量となる。   The JPEG encoders 113e and 113f start the image compression process as soon as the amount of data that can be subjected to the image compression process is accumulated in the buffers 118a and 118b. The amount of data that can be subjected to image compression processing is the same as in the second embodiment. For example, in the case of YUV422, data that can be subjected to image compression processing in a processing unit of 16 × 8 pixels of 16 pixels in the horizontal direction and 8 pixels in the vertical direction. It becomes quantity.

次に、上記の処理と時間の関係について、図9を用いて説明する。図9は、補間色処理回路111cとJPEGエンコーダ113eおよび113fとの処理時間の関係を説明した図である。図12,図3および図6と比較するために、補間色処理に掛かる時間よりも画像圧縮処理に掛かる時間が1.5倍ぐらいを想定したもので、図12のタイミングt1からタイミングt6までの時間は、図9のタイミングt31からタイミングt38までの時間に相当し、補間色処理回路111cが7つの画像フレームを連続して処理した場合の時間を示している。また、時間taは、画像圧縮処理可能なデータ量が溜まる時間を示しており、ここでは8ライン分のデータ量が溜まるまでの補間色処理回路111cの処理時間に相当する。   Next, the relationship between the above processing and time will be described with reference to FIG. FIG. 9 is a diagram illustrating the relationship between the processing times of the interpolation color processing circuit 111c and the JPEG encoders 113e and 113f. For comparison with FIGS. 12, 3, and 6, it is assumed that the time required for the image compression processing is about 1.5 times the time required for the interpolation color processing, and from the timing t <b> 1 to the timing t <b> 6 in FIG. 12. The time corresponds to the time from the timing t31 to the timing t38 in FIG. 9, and indicates the time when the interpolation color processing circuit 111c processes seven image frames continuously. The time ta indicates a time during which the amount of data that can be subjected to image compression processing is accumulated. Here, the time ta corresponds to the processing time of the interpolation color processing circuit 111c until the data amount for 8 lines is accumulated.

図9において、補間色処理回路111cは、タイミングt31でフレーム401の画像データの補間色処理を開始し、処理が終了した部分からメモリ112の記憶エリアYUV1およびバッファ118aに記憶していく。タイミングt31から時間taが経過した時点で、JPEGエンコーダ113eが起動され、バッファ118aに記憶されたデータの画像圧縮処理を開始し、JPEGcode1を部分的に生成し始める。   In FIG. 9, the interpolation color processing circuit 111c starts the interpolation color processing of the image data of the frame 401 at the timing t31, and stores it in the storage area YUV1 and the buffer 118a of the memory 112 from the part where the processing is completed. When the time ta elapses from the timing t31, the JPEG encoder 113e is activated, starts image compression processing of the data stored in the buffer 118a, and starts to partially generate JPEGcode1.

一方、タイミングt31から時間taが経過した時点で、補間色処理回路111cは、フレーム401の画像データの補間色処理したデータをメモリ112の記憶エリアYUV1に引き続き記憶しながら、今度はバッファ118bに記憶していく。タイミングt31から時間ta×2が経過した時点で、今度はJPEGエンコーダ113fが起動され、バッファ118bに記憶されたデータの画像圧縮処理を開始し、JPEGcode1を部分的に生成し始める。   On the other hand, when the time ta elapses from the timing t31, the interpolation color processing circuit 111c stores the data subjected to the interpolation color processing of the image data of the frame 401 in the storage area YUV1 of the memory 112 while storing it in the buffer 118b. I will do it. When the time ta × 2 has elapsed from the timing t31, the JPEG encoder 113f is now activated, starts image compression processing of the data stored in the buffer 118b, and starts to partially generate JPEGcode1.

同様に、時間taが経過する毎に(或いは、補間色処理回路111cが所定の部分を処理する毎に)、補間色処理回路111cは処理したデータをバッファ118aおよび118bに交互に記憶し、JPEGエンコーダ113eおよび113fは、それぞれのバッファ118aおよび118bから画像圧縮可能なデータ量を読み出して、画像圧縮処理を行い、画像圧縮データをデータ並べ替え用バッファ119に記憶する。このようにして、JPEGエンコーダ113eおよび113fは、JPEGcode1が処理単位毎に交互に分割された画像圧縮データJPEGcode1(408)とJPEGcode1(409)とをデータ並べ替え用バッファ119に出力する。   Similarly, whenever the time ta elapses (or every time the interpolation color processing circuit 111c processes a predetermined portion), the interpolation color processing circuit 111c stores the processed data alternately in the buffers 118a and 118b. The encoders 113e and 113f read the amount of data that can be compressed from the respective buffers 118a and 118b, perform image compression processing, and store the compressed image data in the data rearrangement buffer 119. In this manner, the JPEG encoders 113e and 113f output the compressed image data JPEGcode1 (408) and JPEGcode1 (409) obtained by alternately dividing JPEGcode1 for each processing unit to the data rearrangement buffer 119.

ここで、JPEGエンコーダ113eおよび113fが交互に生成した画像圧縮データは、第2の実施形態とは異なり、例えば、1フレーム目のJPEGcode1が、画像圧縮できる処理単位毎に分割されて交互に出力される。仮に、JPEGcode1がJPEGcode1−1,JPEGcode1−2,JPEGcode1−3,JPEGcode1−4の4つの処理単位に分割されていたとすると、JPEGエンコーダ113eがJPEGcode1−1を出力し、次にJPEGエンコーダ113fがJPEGcode1−2を出力し、次にJPEGエンコーダ113eがJPEGcode1−3を出力し、次にJPEGエンコーダ113fがJPEGcode1−4を出力する。データ並べ替え用バッファ119では、これらの分割されて交互に出力される画像圧縮データJPEGcode1−1,JPEGcode1−2,JPEGcode1−3,JPEGcode1−4を並べ替え、各圧縮画像データを連続的につなぎ合わせることで、1フレーム分の画像圧縮データJPEGcode1を生成する。データ並べ替え用バッファ119に生成された1フレーム目の画像圧縮データJPEGcode1は、第1および第2の実施形態と同様に、メモリ112の画像圧縮データの記憶エリアに記憶される。   Here, the image compression data alternately generated by the JPEG encoders 113e and 113f is different from the second embodiment, and for example, the JPEG code 1 of the first frame is divided and output alternately for each processing unit capable of image compression. The If JPEGcode1 is divided into four processing units of JPEGcode1-1, JPEGcode1-2, JPEGcode1-3, and JPEGcode1-4, JPEG encoder 113e outputs JPEGcode1-1, and then JPEG encoder 113f outputs JPEGcode1- 2 is output, then the JPEG encoder 113e outputs JPEGcode1-3, and then the JPEG encoder 113f outputs JPEGcode1-4. The data rearrangement buffer 119 rearranges the compressed image data JPEGcode1-1, JPEGcode1-2, JPEGcode1-3, and JPEGcode1-4 that are divided and output alternately, and continuously connects the compressed image data. Thus, the compressed image data JPEGcode1 for one frame is generated. The image compression data JPEGcode1 of the first frame generated in the data rearrangement buffer 119 is stored in the image compression data storage area of the memory 112, as in the first and second embodiments.

タイミングt32においても、タイミングt31の場合と同様に、補間色処理回路111cは、フレーム402の画像データの補間色処理を行い、タイミングt32から時間taが経過した時点で、JPEGエンコーダ113eが起動され、さらに時間taが経過した時点で、JPEGエンコーダ113fが起動されて、それぞれJPEGcode2を部分的に生成し、データ並べ替え用バッファ119で1フレーム分の画像圧縮データJPEGcode2を生成する。   Also at the timing t32, as in the timing t31, the interpolation color processing circuit 111c performs the interpolation color processing of the image data of the frame 402, and when the time ta has elapsed from the timing t32, the JPEG encoder 113e is activated, Further, when the time ta elapses, the JPEG encoder 113f is activated to generate JPEGcode2 partially, and the data rearrangement buffer 119 generates image compression data JPEGcode2 for one frame.

以下同様に、タイミングt33ではフレーム403の画像データが処理されて画像圧縮データJPEGcode3が生成され、タイミングt34ではフレーム404の画像データが処理されて画像圧縮データJPEGcode4が生成され、タイミングt35ではフレーム405の画像データから画像圧縮データJPEGcode5が、タイミングt36ではフレーム406の画像データから画像圧縮データJPEGcode6が、タイミングt37ではフレーム407の画像データから画像圧縮データJPEGcode7が、それぞれ生成される。   Similarly, at timing t33, the image data of frame 403 is processed to generate compressed image data JPEGcode3. At timing t34, the image data of frame 404 is processed to generate compressed image data JPEGcode4. At timing t35, the compressed image data JPEGcode3 is generated. The compressed image data JPEGcode5 is generated from the image data, the compressed image data JPEGcode6 is generated from the image data of the frame 406 at the timing t36, and the compressed image data JPEGcode7 is generated from the image data of the frame 407 at the timing t37.

尚、本実施形態ではデータ並べ替え用バッファ119を設けたが、メモリ112内で分割された画像圧縮データの並べ替えを行うようにしても構わない。   In this embodiment, the data rearrangement buffer 119 is provided. However, the compressed image data divided in the memory 112 may be rearranged.

また、本実施形態の説明では、補間色処理に掛かる時間よりも画像圧縮処理に掛かる時間が1.5倍程度の長さとしたが、例えば、2.5倍程度の場合は、第2の実施形態と同様に、補間色処理回路で補間色処理したYCrCbデータを格納するバッファとJPEGエンコーダをそれぞれ3つ設けることにより、1フレームの画像データを処理単位毎に巡回的に3分割して、3つのJPEGエンコーダが画像圧縮処理することにより実現できる。尚、この場合は、データ並べ替え用バッファ119は3分割して出力される画像圧縮データを並べ替えて、1フレーム分の画像圧縮データに変換する。   In the description of the present embodiment, the time required for the image compression processing is about 1.5 times longer than the time required for the interpolation color processing. Similarly to the embodiment, by providing three buffers each storing YCrCb data subjected to interpolation color processing by the interpolation color processing circuit and three JPEG encoders, one frame of image data is cyclically divided into three for each processing unit. This can be realized by image compression processing by two JPEG encoders. In this case, the data rearrangement buffer 119 rearranges the image compression data output in three divisions and converts it into image compression data for one frame.

本実施形態でのバッファおよび圧縮回路の個数は次の式で概算できる。バッファおよび圧縮回路の個数≒(画像圧縮回路の1フレームの処理時間)÷(補間色処理回路の1フレームの処理時間)の計算値を切り上げた整数値。例えば、補間色処理に掛かる時間よりも画像圧縮処理に掛かる時間が1.5倍程度の時、バッファおよび圧縮回路の個数は2個となり、2.5倍の時は3個、3.5倍の時は4個のように概算できる。尚、上式は図9の時間ta≒0とした場合で、時間taが全体の処理時間に対して十分に短い場合に成立する。   The number of buffers and compression circuits in this embodiment can be estimated by the following equation. An integer value obtained by rounding up the calculated value of the number of buffers and compression circuits≈ (processing time of one frame of the image compression circuit) ÷ (processing time of one frame of the interpolation color processing circuit). For example, when the time required for the image compression processing is about 1.5 times the time required for the interpolation color processing, the number of buffers and compression circuits is two. When the time is 2.5 times, three and 3.5 times. In the case of, it can be estimated as four. The above equation is established when time ta≈0 in FIG. 9 and when time ta is sufficiently short with respect to the entire processing time.

このように、本実施形態では、補間色処理回路111cが1フレーム全体の処理を終えなくても、バッファ118aまたは118bに記憶された処理済みのデータを用いて画像圧縮処理を行うことができる。しかも、1つのフレームを分割して2つのJPEGエンコーダ113eおよびJPEGエンコーダ113fで画像圧縮処理を行うので、補間色処理回路111cの処理時間とほぼ同じ処理時間で画像圧縮処理を終えることができる。   As described above, in the present embodiment, even when the interpolation color processing circuit 111c does not finish the processing for one frame, the image compression processing can be performed using the processed data stored in the buffer 118a or 118b. In addition, since one frame is divided and image compression processing is performed by the two JPEG encoders 113e and 113f, the image compression processing can be completed in substantially the same processing time as the processing time of the interpolation color processing circuit 111c.

(第4の実施形態)
次に、第4の実施形態に係る画像処理装置を有するカメラについて説明する。尚、本実施形態のカメラの基本構成は、第1の実施形態の図1のカメラ101aと同じである。また、補間色処理回路111a,JPEGエンコーダ113a,JPEGエンコーダ113bがメモリ112を介してデータを入出力する構成を示す図2も第1の実施形態と同じである。
(Fourth embodiment)
Next, a camera having the image processing apparatus according to the fourth embodiment will be described. Note that the basic configuration of the camera of this embodiment is the same as that of the camera 101a of FIG. 1 of the first embodiment. Also, FIG. 2 showing a configuration in which the interpolation color processing circuit 111a, the JPEG encoder 113a, and the JPEG encoder 113b input and output data via the memory 112 is the same as that of the first embodiment.

本実施形態では、JPEGエンコーダ113aおよびJPEGエンコーダ113bが画像圧縮処理を行う際に、圧縮後の符号量が所定範囲内に収まるようにする固定長圧縮を行う。一般に、JPEG規格の画像圧縮処理は、8×8画素程度の画素ブロック毎にDCT(離散コサイン変換)などの直交変換を行って、画像データを空間周波数成分データに変換する。さらに、空間周波数成分毎の量子化係数で定義した量子化テーブルを用いて、量子化を行う。量子化ビット数が多いほど画像は精細になるが、圧縮処理後の符号量も多くなるので、固定長圧縮を行う場合は量子化テーブルにスケールファクタと呼ばれる係数を乗算して割り当てる量子化ビット数を調整する処理が行われる。その後、調整した量子化テーブルを用いてDCT変換された空間周波数成分データを量子化する。つまり、(DCT係数)÷(量子化テーブル×スケールファクタ)の計算により量子化される。量子化されたデータはジグザグスキャンによる一次元化の後、ハフマン符号化などの可変長符号化が行われ、画像圧縮処理が完了する。   In the present embodiment, when the JPEG encoder 113a and the JPEG encoder 113b perform image compression processing, fixed length compression is performed so that the amount of code after compression falls within a predetermined range. In general, in the JPEG standard image compression processing, image data is converted into spatial frequency component data by performing orthogonal transform such as DCT (discrete cosine transform) for each pixel block of about 8 × 8 pixels. Furthermore, quantization is performed using a quantization table defined by quantization coefficients for each spatial frequency component. As the number of quantization bits increases, the image becomes finer, but the amount of code after compression processing also increases, so when performing fixed-length compression, the number of quantization bits assigned by multiplying the quantization table by a coefficient called a scale factor The process of adjusting the is performed. Thereafter, the spatial frequency component data subjected to DCT conversion is quantized using the adjusted quantization table. That is, it is quantized by calculating (DCT coefficient) ÷ (quantization table × scale factor). The quantized data is made one-dimensional by zigzag scanning and then subjected to variable length coding such as Huffman coding, and the image compression processing is completed.

ところが、圧縮後の符号量は、一度、圧縮を行ってみる必要があり、本実施形態では、図13のように処理する。図13は、1フレーム目(1f)から8フレーム目(8f)までの連続するフレームを圧縮処理する場合の補間色処理回路111a,JPEGエンコーダ113a,JPEGエンコーダ113bの処理期間と、メモリ112内のバッファYUV1,YUV2,YUV3の使用期間の時間関係を示した図である。尚、3フレーム目(3f)と4フレーム目(4f)との間、4フレーム目(4f)と5フレーム目(5f)との間に、それぞれ空き期間があるが、バッファYUV1,YUV2,YUV3が空くまでの補間色処理回路111aの処理待ち時間である。実際には、この期間に撮影された画像は、図1のRAWメモリ110にバッファされている。   However, the code amount after compression needs to be compressed once, and is processed as shown in FIG. 13 in this embodiment. FIG. 13 shows processing periods of the interpolation color processing circuit 111a, the JPEG encoder 113a, and the JPEG encoder 113b in the case where the continuous frames from the first frame (1f) to the eighth frame (8f) are compressed, It is the figure which showed the time relationship of the use period of buffer YUV1, YUV2, YUV3. There is a free period between the third frame (3f) and the fourth frame (4f), and between the fourth frame (4f) and the fifth frame (5f), but the buffers YUV1, YUV2, YUV3 Is the processing wait time of the interpolating color processing circuit 111a until it becomes empty. Actually, images taken during this period are buffered in the RAW memory 110 of FIG.

また、本実施形態では、JPEGエンコーダ113aおよびJPEGエンコーダ113bは、共通の量子化テーブルを用い、JPEGエンコーダ113aはスケールファクタSaを、JPEGエンコーダ113bはスケールファクタSbをそれぞれ使用する。また、各スケールファクタの記憶領域はメモリ112内に確保されている。尚、一連の画像の圧縮処理を開始する際には、予め定義されたスケールファクタSaの初期値およびスケールファクタSbの初期値がそれぞれの設定され、一連の画像の圧縮処理を行っている間は、画像の圧縮処理毎にその符号量から次に圧縮処理する時のスケールファクタSaおよびスケールファクタSbを予測して、それぞれのスケールファクタSaおよびスケールファクタSbを更新する。   In this embodiment, the JPEG encoder 113a and the JPEG encoder 113b use a common quantization table, the JPEG encoder 113a uses the scale factor Sa, and the JPEG encoder 113b uses the scale factor Sb. A storage area for each scale factor is reserved in the memory 112. Note that when starting a series of image compression processing, a predetermined initial value of the scale factor Sa and initial value of the scale factor Sb are set, and while the series of image compression processing is being performed, For each image compression process, the scale factor Sa and the scale factor Sb for the next compression process are predicted from the code amount, and the scale factor Sa and the scale factor Sb are updated.

図13において、1フレーム目(1f)の補間色処理は、補間色処理回路111aがタイミングt41〜t42の期間にバッファYUV1を用いて行われる。1フレーム目(1f)の補間色処理が終了すると、JPEGエンコーダ113aはタイミングt42〜t45の期間にバッファYUV1を用いて1フレーム目(1f)の画像圧縮処理を行う。   In FIG. 13, the interpolation color processing of the first frame (1f) is performed by the interpolation color processing circuit 111a using the buffer YUV1 during the period from timing t41 to t42. When the interpolation color processing for the first frame (1f) is completed, the JPEG encoder 113a performs the image compression processing for the first frame (1f) using the buffer YUV1 during the period from timing t42 to t45.

先ず、JPEGエンコーダ113aは、最初に設定された初期値のスケールファクタSaを用いて、初期タイミングt42〜t61の期間に1フレーム目(1f)の画像の1回目の圧縮処理(予備圧縮処理)を行う。次に、JPEGエンコーダ113aは、1回目の圧縮処理で得られた符号量に基づいて、次の圧縮処理を行った時の符号量が所定範囲内に収まるようなスケールファクタを予測して、スケールファクタSaの更新を行う。   First, the JPEG encoder 113a performs the first compression process (preliminary compression process) of the first frame (1f) image during the period from the initial timing t42 to t61, using the initial scale factor Sa set initially. Do. Next, the JPEG encoder 113a predicts a scale factor based on the code amount obtained in the first compression process so that the code amount when the next compression process is performed falls within a predetermined range, The factor Sa is updated.

タイミングt61〜t45の期間では、JPEGエンコーダ113aは、更新されたスケールファクタSaを用いて、1フレーム目(1f)の画像の2回目の圧縮処理を行い、2回目の圧縮処理で得られた符号量に基づいて、次の圧縮処理を行った時の符号量が所定範囲内に収まるようなスケールファクタを予測して、スケールファクタSaの更新を行う。   In the period from timing t61 to t45, the JPEG encoder 113a performs the second compression process on the image of the first frame (1f) using the updated scale factor Sa, and the code obtained by the second compression process. Based on the amount, the scale factor Sa is updated by predicting a scale factor such that the code amount when the next compression processing is performed falls within a predetermined range.

同様に、2フレーム目(2f)の補間色処理は、補間色処理回路111aがタイミングt42〜t43の期間にバッファYUV2を用いて行われる。2フレーム目(2f)の補間色処理が終了すると、JPEGエンコーダ113bはタイミングt43〜t47の期間にバッファYUV2を用いて2フレーム目(2f)の画像圧縮処理を行う。   Similarly, the interpolation color processing of the second frame (2f) is performed by the interpolation color processing circuit 111a using the buffer YUV2 during the period from timing t42 to t43. When the interpolation color processing for the second frame (2f) is completed, the JPEG encoder 113b performs image compression processing for the second frame (2f) using the buffer YUV2 during the period from timing t43 to t47.

先ず、JPEGエンコーダ113bは、最初に設定された初期値のスケールファクタSbを用いて、初期タイミングt43〜t62の期間に2フレーム目(2f)の画像の1回目の圧縮処理(予備圧縮処理)を行う。次に、JPEGエンコーダ113bは、1回目の圧縮処理で得られた符号量に基づいて、次の圧縮処理を行った時の符号量が所定範囲内に収まるようなスケールファクタを予測して、スケールファクタSbの更新を行う。   First, the JPEG encoder 113b performs the first compression process (preliminary compression process) of the second frame (2f) image during the period of the initial timing t43 to t62 using the initially set scale factor Sb. Do. Next, the JPEG encoder 113b predicts a scale factor such that the code amount when the next compression processing is performed falls within a predetermined range based on the code amount obtained by the first compression processing, The factor Sb is updated.

タイミングt62〜t47の期間では、JPEGエンコーダ113bは、更新されたスケールファクタSbを用いて、2フレーム目(2f)の画像の2回目の圧縮処理を行い、2回目の圧縮処理で得られた符号量に基づいて、次の圧縮処理を行った時の符号量が所定範囲内に収まるようなスケールファクタを予測して、スケールファクタSbの更新を行う。   In the period from timing t62 to t47, the JPEG encoder 113b performs the second compression process on the second frame (2f) image using the updated scale factor Sb, and the code obtained by the second compression process. Based on the amount, the scale factor Sb is updated by predicting a scale factor such that the code amount when the next compression processing is performed falls within a predetermined range.

3フレーム目(3f)の補間色処理は、補間色処理回路111aがタイミングt43〜t44の期間にバッファYUV3を用いて行われる。3フレーム目(3f)の補間色処理が終了すると、1フレーム目(1f)の圧縮処理を終えたJPEGエンコーダ113aが、タイミングt45〜t47の期間にバッファYUV3を用いて3フレーム目(3f)の画像圧縮処理をスケールファクタSaを用いて行う。さらに、得られた符号量に基づいて、次の圧縮処理を行った時の符号量が所定範囲内に収まるようなスケールファクタを予測して、スケールファクタSaの更新を行う。ここで、3フレーム目(3f)の補間色処理はタイミングt44で終了しているが、JPEGエンコーダ113aは1フレーム目(1f)の圧縮処理を実行中なので、この圧縮処理が終了するタイミングt45を待って3フレーム目(3f)の圧縮処理を行う。   The interpolation color processing of the third frame (3f) is performed by the interpolation color processing circuit 111a using the buffer YUV3 during the period from timing t43 to t44. When the interpolation color processing for the third frame (3f) is completed, the JPEG encoder 113a that has finished the compression processing for the first frame (1f) uses the buffer YUV3 during the period from timing t45 to t47 to perform the third frame (3f). Image compression processing is performed using the scale factor Sa. Further, based on the obtained code amount, a scale factor is predicted such that the code amount when the next compression processing is performed falls within a predetermined range, and the scale factor Sa is updated. Here, the interpolation color processing for the third frame (3f) ends at timing t44, but since the JPEG encoder 113a is executing the compression processing for the first frame (1f), the timing t45 when this compression processing ends is set. After that, the third frame (3f) is compressed.

4フレーム目(4f)の補間色処理は、補間色処理回路111aがタイミングt45〜t46の期間にバッファYUV1を用いて行われる。ここで、3フレーム目(3f)の補間色処理が終了するタイミングt44では、1フレーム目(1f)の圧縮処理でバッファYUV1が使用されているので、バッファYUV1が空くタイミングt45を待って4フレーム目(4f)の補間色処理が行われる。タイミングt46で4フレーム目(4f)の補間色処理が終了すると、JPEGエンコーダ113bの2フレーム目(2f)の圧縮処理が終了するタイミングt47を待って、4フレーム目(4f)の画像圧縮処理をスケールファクタSbを用いて行う。さらに、得られた符号量に基づいて、次の圧縮処理を行った時の符号量が所定範囲内に収まるようなスケールファクタを予測して、スケールファクタSbの更新を行う。   The interpolation color processing for the fourth frame (4f) is performed by the interpolation color processing circuit 111a using the buffer YUV1 during the period from timing t45 to t46. Here, at the timing t44 when the interpolation color processing of the third frame (3f) ends, the buffer YUV1 is used in the compression processing of the first frame (1f), so the frame Y4 waits for the timing t45 when the buffer YUV1 becomes free. Interpolation color processing of the eye (4f) is performed. When the interpolation color processing for the fourth frame (4f) ends at timing t46, the image compression processing for the fourth frame (4f) is performed after timing t47 when the compression processing for the second frame (2f) of the JPEG encoder 113b ends. This is performed using the scale factor Sb. Furthermore, based on the obtained code amount, a scale factor is predicted such that the code amount when the next compression processing is performed falls within a predetermined range, and the scale factor Sb is updated.

次に、5フレーム目(5f)の処理はバッファYUV2を用いて行われる。補間色処理回路111aは、タイミングt47〜t48の間で補間色処理を行い、JPEGエンコーダ113aは、タイミングt48〜t53の間でスケールファクタSaを用いて画像圧縮処理を行い、その符号量に基づいて、次の圧縮処理を行った時の符号量が所定範囲内に収まるようなスケールファクタを予測して、スケールファクタSaの更新を行う。   Next, the process of the fifth frame (5f) is performed using the buffer YUV2. The interpolation color processing circuit 111a performs interpolation color processing between timings t47 and t48, and the JPEG encoder 113a performs image compression processing using the scale factor Sa between timings t48 and t53, and based on the code amount. The scale factor Sa is updated by predicting a scale factor such that the code amount when the next compression processing is performed falls within a predetermined range.

同様に、6フレーム目(6f)の処理はバッファYUV3を用いて行われる。補間色処理回路111aは、タイミングt48〜t49の間で補間色処理を行い、JPEGエンコーダ113bは、タイミングt49〜t54の間でスケールファクタSbを用いて画像圧縮処理を行い、その符号量に基づいて、次の圧縮処理を行った時の符号量が所定範囲内に収まるようなスケールファクタを予測して、スケールファクタSbの更新を行う。   Similarly, the process of the sixth frame (6f) is performed using the buffer YUV3. The interpolation color processing circuit 111a performs interpolation color processing between timings t48 and t49, and the JPEG encoder 113b performs image compression processing using the scale factor Sb between timings t49 and t54, and based on the code amount. The scale factor Sb is updated by predicting a scale factor such that the code amount when the next compression processing is performed falls within a predetermined range.

同様に、7フレーム目(7f)の処理はバッファYUV1を用いて行われる。補間色処理回路111aは、タイミングt49〜t50の間で補間色処理を行い、JPEGエンコーダ113bは、タイミングt50〜t55の間でスケールファクタSaを用いて画像圧縮処理を行い、その符号量に基づいて、次の圧縮処理を行った時の符号量が所定範囲内に収まるようなスケールファクタを予測して、スケールファクタSaの更新を行う。   Similarly, the processing of the seventh frame (7f) is performed using the buffer YUV1. The interpolation color processing circuit 111a performs interpolation color processing between timings t49 and t50, and the JPEG encoder 113b performs image compression processing using the scale factor Sa between timings t50 and t55, and based on the code amount. The scale factor Sa is updated by predicting a scale factor such that the code amount when the next compression processing is performed falls within a predetermined range.

同様に、8フレーム目(8f)の処理はバッファYUV2を用いて行われる。補間色処理回路111aは、タイミングt50〜t51の間で補間色処理を行い、JPEGエンコーダ113bは、タイミングt51〜t56の間でスケールファクタSbを用いて画像圧縮処理を行い、その符号量に基づいて、次の圧縮処理を行った時の符号量が所定範囲内に収まるようなスケールファクタを予測して、スケールファクタSbの更新を行う。以降、同様に、一連の撮影が終了するまで行われる。   Similarly, the processing of the eighth frame (8f) is performed using the buffer YUV2. The interpolation color processing circuit 111a performs interpolation color processing between timings t50 and t51, and the JPEG encoder 113b performs image compression processing using the scale factor Sb between timings t51 and t56, and based on the code amount. The scale factor Sb is updated by predicting a scale factor such that the code amount when the next compression processing is performed falls within a predetermined range. Thereafter, similarly, it is performed until a series of photographing ends.

このように、本実施形態に係る画像処理装置を有するカメラ101aは、連続して撮影された画像の圧縮処理を行う場合に、奇数フレームの画像圧縮処理をJPEGエンコーダ113aが行い、偶数フレームの画像圧縮処理をJPEGエンコーダ113bが行うので、画像圧縮掛かる処理時間に左右されることなく高速に画像圧縮処理を行うことができる。   As described above, when the camera 101a having the image processing apparatus according to the present embodiment performs compression processing of continuously shot images, the JPEG encoder 113a performs odd-frame image compression processing and the even-frame image compression processing. Since the JPEG encoder 113b performs the compression processing, the image compression processing can be performed at high speed without being affected by the processing time for image compression.

また、JPEGエンコーダ113aおよびJPEGエンコーダ113bのそれぞれに独立したスケールファクタSaとスケールファクタSbとを設け、奇数フレームおよび偶数フレームのそれぞれの最初のフレームのみで予備圧縮して適切なスケールファクタを求めるので、以降のフレームでは予備圧縮することなく、更新された適切なスケールファクタで画像圧縮処理を行うことができ、効率的な固定長圧縮処理を実現できる。   Also, an independent scale factor Sa and scale factor Sb are provided for each of the JPEG encoder 113a and the JPEG encoder 113b, and an appropriate scale factor is obtained by pre-compressing only the first frame of each of the odd and even frames. In subsequent frames, image compression processing can be performed with an updated appropriate scale factor without performing preliminary compression, and efficient fixed-length compression processing can be realized.

尚、本実施形態では、JPEGエンコーダ113aおよびJPEGエンコーダ113bのそれぞれに独立したスケールファクタSaおよびスケールファクタSbを用いるようにしたが、スケールファクタSaとスケールファクタSbを1つにして、JPEGエンコーダ113aとJPEGエンコーダ113bとで、共用するようにしても構わない。   In the present embodiment, independent scale factor Sa and scale factor Sb are used for each of JPEG encoder 113a and JPEG encoder 113b. However, JPEG encoder 113a is combined with scale factor Sa and scale factor Sb. It may be shared by the JPEG encoder 113b.

(第5の実施形態)
次に、第5の実施形態に係る画像処理装置を有するカメラについて説明する。尚、本実施形態のカメラの基本構成は、第1の実施形態の図1のカメラ101aと同じである。また、補間色処理回路111a,JPEGエンコーダ113a,JPEGエンコーダ113bがメモリ112を介してデータを入出力する構成を示す図2も第1の実施形態と同じである。
(Fifth embodiment)
Next, a camera having an image processing apparatus according to the fifth embodiment will be described. Note that the basic configuration of the camera of the present embodiment is the same as the camera 101a of FIG. 1 of the first embodiment. Also, FIG. 2 showing a configuration in which the interpolation color processing circuit 111a, the JPEG encoder 113a, and the JPEG encoder 113b input and output data via the memory 112 is the same as that of the first embodiment.

本実施形態においても、第4の実施形態と同様に、JPEGエンコーダ113aおよびJPEGエンコーダ113bは、共通の量子化テーブルを用い、固定長圧縮を行う。第4の実施形態と異なるのは、図13では、奇数フレームおよび偶数フレームのそれぞれの最初のフレームで予備圧縮して適切なスケールファクタを求めるようにしたが、本実施形態では、奇数フレームの最初のフレームだけで予備圧縮した時の符号量に基づいて、次の圧縮処理を行った時の符号量が所定範囲内に収まるようなスケールファクタを予測して、スケールファクタSaおよびスケールファクタSbの両方を更新する。以降、第4の実施形態と同様に、奇数フレームの画像圧縮処理にはスケールファクタSaを用い、偶数フレームの画像圧縮処理にはスケールファクタSbを用いる。   Also in the present embodiment, as in the fourth embodiment, the JPEG encoder 113a and the JPEG encoder 113b perform fixed length compression using a common quantization table. Unlike the fourth embodiment, in FIG. 13, the first frame of each of the odd and even frames is pre-compressed to obtain an appropriate scale factor. In this embodiment, the first of the odd frames is obtained. The scale factor Sa and the scale factor Sb are predicted by predicting a scale factor such that the code amount when the next compression processing is performed falls within a predetermined range on the basis of the code amount when the pre-compression is performed with only the frames of Update. Thereafter, as in the fourth embodiment, the scale factor Sa is used for the image compression processing for odd frames, and the scale factor Sb is used for the image compression processing for even frames.

このため、本実施形態では、図14に示すように、2フレーム目(2f)の画像圧縮処理がタイミングt45で終了し、4フレーム目(4f)の画像圧縮処理が待たされることなく、処理することができる。また、2フレーム目(2f)の処理に使用しているバッファYUV2もタイミングt45で解放されるので、5フレーム目(5f)の補間色処理も待たされることなく、タイミングt46から処理することができる。尚、図14において、タイミングt**’のように「’」が付加されているタイミングは、図13の「’」の無い同じ番号のタイミングt**とは少し異なるタイミングであることを示している。例えば、図13のタイミングt47は5フレーム目(5f)の補間色処理の開始時点を示しているが、図14のタイミングt47’は同じ5フレーム目(5f)の補間色処理の開始時点を示しているが、4フレーム目(4f)の補間色処理の終了タイミングt46に連続したタイミングになっている。   For this reason, in this embodiment, as shown in FIG. 14, the second frame (2f) image compression processing ends at timing t45, and the fourth frame (4f) image compression processing is performed without waiting. be able to. Further, since the buffer YUV2 used for the processing of the second frame (2f) is also released at the timing t45, the interpolation color processing of the fifth frame (5f) can be processed from the timing t46 without waiting. . In FIG. 14, the timing with “′” added like the timing t ** ′ is slightly different from the timing t ** of the same number without “′” in FIG. 13. ing. For example, timing t47 in FIG. 13 indicates the start time of interpolation color processing for the fifth frame (5f), while timing t47 ′ in FIG. 14 indicates the start time of interpolation color processing for the same fifth frame (5f). However, the timing is continuous with the end timing t46 of the interpolation color processing of the fourth frame (4f).

このように、本実施形態に係る画像処理装置を有するカメラ101aは、連続して撮影された画像の圧縮処理を行う場合に、奇数フレームの画像圧縮処理をJPEGエンコーダ113aが行い、偶数フレームの画像圧縮処理をJPEGエンコーダ113bが行うので、画像圧縮掛かる処理時間に左右されることなく高速に画像圧縮処理を行うことができる。   As described above, when the camera 101a having the image processing apparatus according to the present embodiment performs compression processing of continuously shot images, the JPEG encoder 113a performs odd-frame image compression processing and the even-frame image compression processing. Since the JPEG encoder 113b performs the compression processing, the image compression processing can be performed at high speed without being affected by the processing time for image compression.

また、JPEGエンコーダ113aおよびJPEGエンコーダ113bのそれぞれに独立したスケールファクタSaおよびスケールファクタSbを設け、奇数フレームの最初のフレームのみで予備圧縮した時の符号量に基づいて、次の圧縮処理を行った時の符号量が所定範囲内に収まるようなスケールファクタを予測して、スケールファクタSaおよびスケールファクタSbの両方を更新するので、2フレーム目(2f)の予備圧縮処理を行う必要がなく、第4の実施形態に比べて、圧縮処理時間を短くすることができる。また、3フレーム目(3f)以降のフレームでは、第4の実施形態と同様に処理されるので、常に更新された適切なスケールファクタで画像圧縮処理を行うことができ、効率的な固定長圧縮処理を実現できる。   In addition, independent scale factor Sa and scale factor Sb are provided for each of JPEG encoder 113a and JPEG encoder 113b, and the following compression processing is performed based on the code amount when preliminary compression is performed only on the first frame of odd frames. Since the scale factor such that the code amount at the time falls within the predetermined range is predicted and both the scale factor Sa and the scale factor Sb are updated, it is not necessary to perform the pre-compression process of the second frame (2f). Compared to the fourth embodiment, the compression processing time can be shortened. Further, since the third and subsequent frames (3f) and subsequent frames are processed in the same manner as in the fourth embodiment, image compression processing can be performed at an always updated appropriate scale factor, and efficient fixed-length compression is performed. Processing can be realized.

尚、本実施形態では、JPEGエンコーダ113aおよびJPEGエンコーダ113bのそれぞれに独立したスケールファクタSaおよびスケールファクタSbを用いるようにしたが、スケールファクタSaとスケールファクタSbを1つにして、JPEGエンコーダ113aとJPEGエンコーダ113bとで、共用するようにしても構わない。   In the present embodiment, independent scale factor Sa and scale factor Sb are used for each of JPEG encoder 113a and JPEG encoder 113b. However, JPEG encoder 113a is combined with scale factor Sa and scale factor Sb. It may be shared by the JPEG encoder 113b.

(第6の実施形態)
次に、第6の実施形態に係る画像処理装置を有するカメラについて説明する。尚、本実施形態のカメラの基本構成は、第1の実施形態の図1のカメラ101aと同じである。また、補間色処理回路111a,JPEGエンコーダ113a,JPEGエンコーダ113bがメモリ112を介してデータを入出力する構成を示す図2も第1の実施形態と同じである。
(Sixth embodiment)
Next, a camera having an image processing apparatus according to the sixth embodiment will be described. Note that the basic configuration of the camera of the present embodiment is the same as the camera 101a of FIG. 1 of the first embodiment. Also, FIG. 2 showing a configuration in which the interpolation color processing circuit 111a, the JPEG encoder 113a, and the JPEG encoder 113b input and output data via the memory 112 is the same as that of the first embodiment.

本実施形態においても、第5の実施形態と同様に、JPEGエンコーダ113aおよびJPEGエンコーダ113bは、共通の量子化テーブルを用い、固定長圧縮を行い、奇数フレームの最初のフレームだけで予備圧縮した時の符号量に基づいて、次の圧縮処理を行った時の符号量が所定範囲内に収まるようなスケールファクタを予測して、スケールファクタSaおよびスケールファクタSbの両方を更新する。   Also in the present embodiment, as in the fifth embodiment, the JPEG encoder 113a and the JPEG encoder 113b use a common quantization table, perform fixed length compression, and perform preliminary compression only on the first frame of odd frames. The scale factor Sa and the scale factor Sb are both updated by predicting a scale factor such that the code amount when the next compression processing is performed falls within a predetermined range based on the code amount.

本実施形態が第5の実施形態と異なる点は、同じフレームの異なるサイズの画像の圧縮処理を行うことである。例えば、一般的な電子カメラは、撮影した画像を保存するための画像(本画像)以外に、図1の液晶モニタ117に表示するためのプレビュ画像や、一覧表示するためのサムネイル画像など複数のサイズの画像を圧縮する必要がある。例えば、本画像は3072×2304画素、プレビュ画像は640×480画素、サムネイル画像は160×120画素などのように画像を構成する画素数が大きく異なり、画素数が多くなるほど圧縮処理に時間を要する。本実施形態では、本画像とプレビュ画像の2つのサイズの画像を圧縮処理する場合について説明する。   This embodiment is different from the fifth embodiment in that compression processing is performed on images of different sizes in the same frame. For example, a general electronic camera has a plurality of preview images for displaying on the liquid crystal monitor 117 of FIG. 1 and thumbnail images for displaying a list in addition to an image (main image) for storing captured images. It is necessary to compress the size image. For example, the number of pixels constituting the image is greatly different, such as 3072 × 2304 pixels for the main image, 640 × 480 pixels for the preview image, and 160 × 120 pixels for the thumbnail image, and the larger the number of pixels, the more time is required for compression processing. . In the present embodiment, a case will be described in which images of two sizes, a main image and a preview image, are compressed.

実際の電子カメラでは、ほとんどプレビュ表示が行われているので、特に説明しなかったが、図14に示す第5の実施形態でも本画像の圧縮処理に含めてプレビュ画像の圧縮処理が行われていると考えることができる。この様子を示したのが図15である。図15は図14と全く同じタイミングで各処理を示しているが、各圧縮処理の斜線で示した部分がプレビュ画像の圧縮処理を行っている期間である。例えば、1フレーム目(1f)の1回目の圧縮処理の後ろの部分に斜線で示した1フレーム目(1f)の1回目のプレビュ画像の圧縮処理を行う期間が示されている。同様に、1フレーム目(1f)の2回目の圧縮処理、2フレーム目(2f)から8フレーム目(8f)までの各圧縮処理の後ろの部分に斜線で示したプレビュ画像の圧縮処理を行う期間が示されている。   In an actual electronic camera, since preview display is almost performed, no particular explanation was given. However, in the fifth embodiment shown in FIG. 14, preview image compression processing is performed in addition to the main image compression processing. Can be considered. This is shown in FIG. FIG. 15 shows each process at exactly the same timing as FIG. 14, but the hatched portion of each compression process is a period during which the preview image is compressed. For example, a period for performing the first preview image compression process of the first frame (1f) indicated by hatching in the portion after the first compression process of the first frame (1f) is shown. Similarly, the second compression process of the first frame (1f) is performed, and the preview image compression process indicated by hatching is performed after the compression process from the second frame (2f) to the eighth frame (8f). The period is shown.

また、プレビュ画像も本画像と同様に、JPEGエンコーダ113aおよびJPEGエンコーダ113bは、共通の量子化テーブルを用いて固定長圧縮を行う。また、JPEGエンコーダ113aおよびJPEGエンコーダ113bは、プレビュ画像の奇数フレーム用のスケールファクタScと、プレビュ画像の偶数フレーム用のスケールファクタSdとを用いる。プレビュ画像の奇数フレーム用のスケールファクタScと、プレビュ画像の偶数フレーム用のスケールファクタSdの記憶領域は、メモリ112に確保されている。また、スケールファクタScおよびスケールファクタSdの更新手順も、本画像のスケールファクタSaおよびスケールファクタSbの更新手順と同じように考えることができ、1フレーム目(1f)のプレビュ画像の1回目の予備画像圧縮処理で得られた符号量に基づいて、次の圧縮処理を行った時の符号量が所定範囲内に収まるようなスケールファクタを予測して、スケールファクタScおよびスケールファクタSdを更新する。さらに、更新されたスケールファクタScを用いて1フレーム目(1f)のプレビュ画像の2回目の圧縮処理を行い、更新されたスケールファクタSdを用いて2フレーム目(2f)のプレビュ画像の圧縮処理を行う。以降、スケールファクタScおよびスケールファクタSdを更新しながら、奇数フレームおよび偶数フレームのプレビュ画像の圧縮処理を繰り返し行う。   Similarly to the main image, the JPEG encoder 113a and the JPEG encoder 113b perform fixed-length compression on the preview image using a common quantization table. Further, the JPEG encoder 113a and the JPEG encoder 113b use a scale factor Sc for odd frames of the preview image and a scale factor Sd for even frames of the preview image. Storage areas of the scale factor Sc for the odd frame of the preview image and the scale factor Sd for the even frame of the preview image are secured in the memory 112. Further, the update procedure of the scale factor Sc and the scale factor Sd can be considered in the same manner as the update procedure of the scale factor Sa and the scale factor Sb of the main image, and the first preliminary image of the preview image of the first frame (1f). Based on the code amount obtained by the image compression process, the scale factor Sc and the scale factor Sd are updated by predicting a scale factor such that the code amount when the next compression process is performed falls within a predetermined range. Further, the second compression processing of the preview image of the first frame (1f) is performed using the updated scale factor Sc, and the compression processing of the preview image of the second frame (2f) is performed using the updated scale factor Sd. I do. Thereafter, while updating the scale factor Sc and the scale factor Sd, the compression processing of the preview images of the odd and even frames is repeatedly performed.

このように、第5の実施形態の処理では、サイズの異なる本画像とプレビュ画像の圧縮処理は、同じフレームの処理として同じJPEGエンコーダがシリーズに行う必要があった。これに対して、本実施形態では、図16に示すように、同じフレームの本画像の圧縮処理と、同じフレームのプレビュ画像の圧縮処理とを別のJPEGエンコーダで並列処理するようになっている。   As described above, in the processing of the fifth embodiment, the compression processing of the main image and the preview image having different sizes needs to be performed in series by the same JPEG encoder as the processing of the same frame. On the other hand, in this embodiment, as shown in FIG. 16, the compression processing of the main image of the same frame and the compression processing of the preview image of the same frame are processed in parallel by different JPEG encoders. .

尚、図16に示した本画像の画像圧縮処理期間は、分かり易いように、図15に示した各フレームの画像圧縮処理期間からプレビュ画像の圧縮処理時間を示した斜線部分だけ短くした図になっている。また、図16において、タイミングt**’’のように「’’」が付加されているタイミングは、図15の「’」が付加された番号または「’」の無い番号のタイミングとは少し異なるタイミングであることを示している。例えば、図15のタイミングt45は4フレーム目(4f)の補間色処理の開始時点を示しているが、図16のタイミングt45’’は同じ4フレーム目(4f)の補間色処理の開始時点を示しているが、プレビュ画像の圧縮処理時間だけタイミングt45よりも早くなっている。   For the sake of easy understanding, the image compression processing period of the main image shown in FIG. 16 is shortened from the image compression processing period of each frame shown in FIG. 15 by the hatched portion indicating the compression processing time of the preview image. It has become. Further, in FIG. 16, the timing at which "" "is added as in timing t **" is slightly different from the timing of the number with "'" added or the number without "'" in FIG. It shows that the timing is different. For example, the timing t45 in FIG. 15 indicates the start time of the interpolation color processing for the fourth frame (4f), but the timing t45 ″ in FIG. 16 indicates the start time of the interpolation color processing for the same fourth frame (4f). As shown, the preview image compression processing time is earlier than the timing t45.

さらに、本実施形態では、図17に示すように、本画像処理用バッファYUV1〜YUV3以外に、プレビュ画像処理用のサブバッファYUV1〜YUV3の領域をメモリ112内に確保している。但し、補間色処理は本画像もプレビュ画像も処理用バッファYUV1〜YUV3を用いて行われる。   Further, in the present embodiment, as shown in FIG. 17, in addition to the main image processing buffers YUV1 to YUV3, areas of sub-buffers YUV1 to YUV3 for preview image processing are secured in the memory 112. However, the interpolation color processing is performed using the processing buffers YUV1 to YUV3 for both the main image and the preview image.

図16において、1フレーム目(1f)の補間色処理は、補間色処理回路111aがタイミングt41〜t42の期間にバッファYUV1を用いて行われる。1フレーム目(1f)の補間色処理が終了すると、JPEGエンコーダ113aはバッファYUV1を用いて、1フレーム目(1f)の本画像の1回目の圧縮処理(予備圧縮処理)を初期値のスケールファクタSaを用いて行う。   In FIG. 16, the interpolation color processing of the first frame (1f) is performed by the interpolation color processing circuit 111a using the buffer YUV1 during the period from timing t41 to t42. When the interpolation color processing of the first frame (1f) is completed, the JPEG encoder 113a uses the buffer YUV1 to perform the first compression processing (preliminary compression processing) of the first image of the first frame (1f) on the initial scale factor. This is performed using Sa.

同時に、JPEGエンコーダ113bはサブバッファYUV1を用いて、1フレーム目(1f)のプレビュ画像の1回目の圧縮処理(予備圧縮処理)を初期値のスケールファクタSdを用いて行い、得られた符号量に基づいて、次の圧縮処理を行った時の符号量が所定範囲内に収まるようなスケールファクタを予測して、スケールファクタSaの更新を行う。さらに、1フレーム目(1f)のプレビュ画像の2回目の圧縮処理を行い、2回目の圧縮処理で得られた符号量に基づいて、次の圧縮処理を行った時の符号量が所定範囲内に収まるようなスケールファクタを予測して、スケールファクタSdの更新を行う。   At the same time, the JPEG encoder 113b uses the sub-buffer YUV1 to perform the first compression process (preliminary compression process) of the preview image of the first frame (1f) using the initial scale factor Sd, and the obtained code amount Based on the above, the scale factor Sa is updated by predicting the scale factor such that the code amount when the next compression processing is performed falls within the predetermined range. Further, the second compression processing of the preview image of the first frame (1f) is performed, and the code amount when the next compression processing is performed is within a predetermined range based on the code amount obtained by the second compression processing. The scale factor Sd is updated by predicting the scale factor that falls within the range.

JPEGエンコーダ113aは、1回目の本画像の圧縮処理で得られた符号量に基づいて、次の圧縮処理を行った時の符号量が所定範囲内に収まるようなスケールファクタを予測して、スケールファクタSaの更新を行う。さらに、タイミングt61’’で1フレーム目(1f)の本画像の2回目の圧縮処理を行い、2回目の圧縮処理で得られた符号量に基づいて、次の圧縮処理を行った時の符号量が所定範囲内に収まるようなスケールファクタを予測して、スケールファクタSaの更新を行う。   The JPEG encoder 113a predicts a scale factor such that the code amount when the next compression processing is performed falls within a predetermined range based on the code amount obtained by the compression processing of the first main image. The factor Sa is updated. Further, at the timing t61 ″, the second compression process of the main image of the first frame (1f) is performed, and the code when the next compression process is performed based on the code amount obtained by the second compression process The scale factor Sa is updated by predicting the scale factor such that the amount falls within the predetermined range.

同様に、2フレーム目(2f)の補間色処理は、補間色処理回路111aがタイミングt42〜t43の期間にバッファYUV2を用いて行われる。2フレーム目(2f)の補間色処理が終了すると、JPEGエンコーダ113bはタイミングt43〜t47の期間にバッファYUV2を用いて2フレーム目(2f)の画像圧縮処理を行う。   Similarly, the interpolation color processing of the second frame (2f) is performed by the interpolation color processing circuit 111a using the buffer YUV2 during the period from timing t42 to t43. When the interpolation color processing for the second frame (2f) is completed, the JPEG encoder 113b performs image compression processing for the second frame (2f) using the buffer YUV2 during the period from timing t43 to t47.

また、1フレーム目(1f)の画像圧縮処理を終えたJPEGエンコーダ113aは、2フレーム目(2fs)のプレビュ画像の圧縮処理をスケールファクタScを用いて行い、得られた符号量に基づいて、次の圧縮処理を行った時の符号量が所定範囲内に収まるようなスケールファクタを予測して、スケールファクタScの更新を行う。   The JPEG encoder 113a that has finished the image compression processing of the first frame (1f) performs the compression processing of the preview image of the second frame (2fs) using the scale factor Sc, and based on the obtained code amount, The scale factor Sc is updated by predicting a scale factor such that the code amount when the next compression processing is performed falls within a predetermined range.

3フレーム目(3f)の補間色処理は、補間色処理回路111aがタイミングt43〜t44の期間にバッファYUV3を用いて行われる。3フレーム目(3f)の補間色処理が終了すると、2フレーム目(2fs)のプレビュ画像の圧縮処理を終えたJPEGエンコーダ113aが、タイミングt45’’〜t47’’の期間にバッファYUV3を用いて3フレーム目(3f)の画像圧縮処理をスケールファクタSaを用いて行う。さらに、得られた符号量に基づいて、次の圧縮処理を行った時の符号量が所定範囲内に収まるようなスケールファクタを予測して、スケールファクタSaの更新を行う。ここで、3フレーム目(3f)の補間色処理はタイミングt44で終了しているが、JPEGエンコーダ113aは2フレーム目(2fs)のプレビュ画像の圧縮処理を実行中なので、この圧縮処理が終了するタイミングt45’’を待って3フレーム目(3f)本画像の圧縮処理を行う。   The interpolation color processing of the third frame (3f) is performed by the interpolation color processing circuit 111a using the buffer YUV3 during the period from timing t43 to t44. When the interpolation color processing for the third frame (3f) is completed, the JPEG encoder 113a that has completed the compression processing of the preview image for the second frame (2fs) uses the buffer YUV3 during the period from timing t45 ″ to t47 ″. The image compression process of the third frame (3f) is performed using the scale factor Sa. Further, based on the obtained code amount, a scale factor is predicted such that the code amount when the next compression processing is performed falls within a predetermined range, and the scale factor Sa is updated. Here, the interpolation color processing for the third frame (3f) ends at timing t44, but the compression processing ends because the JPEG encoder 113a is executing the compression processing for the preview image for the second frame (2fs). After the timing t45 ″, the third frame (3f) main image is compressed.

同時に、JPEGエンコーダ113bは、3フレーム目(3fs)のプレビュ画像の圧縮処理をスケールファクタSdを用いて行い、得られた符号量に基づいて、次の圧縮処理を行った時の符号量が所定範囲内に収まるようなスケールファクタを予測して、スケールファクタSdの更新を行う。   At the same time, the JPEG encoder 113b performs compression processing of the preview image of the third frame (3fs) using the scale factor Sd, and the code amount when the next compression processing is performed is predetermined based on the obtained code amount. A scale factor that falls within the range is predicted, and the scale factor Sd is updated.

4フレーム目(4f)の補間色処理は、補間色処理回路111aがタイミングt45’’〜t46’’の期間にバッファYUV1を用いて行われる。ここで、3フレーム目(3f)の補間色処理が終了するタイミングt44では、1フレーム目(1f)の本画像の圧縮処理でバッファYUV1が使用されているので、バッファYUV1が空くタイミングt45’’を待って4フレーム目(4f)の補間色処理が行われる。タイミングt46’’で4フレーム目(4f)の補間色処理が終了すると、JPEGエンコーダ113bは、4フレーム目(4f)本画像の圧縮処理をスケールファクタSbを用いて行う。さらに、得られた符号量に基づいて、次の圧縮処理を行った時の符号量が所定範囲内に収まるようなスケールファクタを予測して、スケールファクタSbの更新を行う。   The interpolation color processing of the fourth frame (4f) is performed by the interpolation color processing circuit 111a using the buffer YUV1 during the period from timing t45 ″ to t46 ″. Here, at the timing t44 when the interpolation color processing of the third frame (3f) ends, the buffer YUV1 is used in the compression processing of the main image of the first frame (1f), so the timing t45 '' when the buffer YUV1 becomes empty. After that, interpolation color processing for the fourth frame (4f) is performed. When the interpolation color processing for the fourth frame (4f) ends at timing t46 ″, the JPEG encoder 113b performs the compression processing for the fourth frame (4f) main image using the scale factor Sb. Furthermore, based on the obtained code amount, a scale factor is predicted such that the code amount when the next compression processing is performed falls within a predetermined range, and the scale factor Sb is updated.

同時に、JPEGエンコーダ113aは、3フレーム目(3f)の本画像の圧縮処理が終了するタイミングt47’’を待って、4フレーム目(4fs)のプレビュ画像の圧縮処理をスケールファクタScを用いて行い、得られた符号量に基づいて、次の圧縮処理を行った時の符号量が所定範囲内に収まるようなスケールファクタを予測して、スケールファクタScの更新を行う。   At the same time, the JPEG encoder 113a waits for the timing t47 ″ when the compression processing of the third frame (3f) main image is completed, and performs the compression processing of the preview image of the fourth frame (4fs) using the scale factor Sc. Based on the obtained code amount, the scale factor Sc is updated by predicting a scale factor such that the code amount when the next compression processing is performed falls within a predetermined range.

以降、同様に、5フレーム目(5f)から8フレーム目(8f)までの本画像の圧縮処理が行われる間に、5フレーム目(5fs)から8フレーム目(8fs)までのプレビュ画像の圧縮処理が本画像とは異なるJPEGエンコーダで並列して行われる。   Thereafter, similarly, the compression of the preview image from the fifth frame (5fs) to the eighth frame (8fs) is performed while the compression processing of the main image from the fifth frame (5f) to the eighth frame (8f) is performed. Processing is performed in parallel with a JPEG encoder different from the main image.

このように、本実施形態に係る画像処理装置を有するカメラ101aは、連続して撮影された画像をサイズの異なる2種類の圧縮処理を行う場合に、同じフレームの本画像の圧縮処理と、同じフレームのプレビュ画像の圧縮処理とを別のJPEGエンコーダで並列処理することができるので、より高速に画像圧縮処理を行うことができる。   As described above, the camera 101a having the image processing apparatus according to the present embodiment performs the same processing as the compression processing of the main image of the same frame when performing two types of compression processing with different sizes on images that are continuously captured. Since the compression processing of the preview image of the frame can be performed in parallel by another JPEG encoder, the image compression processing can be performed at a higher speed.

尚、本実施形態では、本画像の圧縮処理において、JPEGエンコーダ113aおよびJPEGエンコーダ113bのそれぞれに独立したスケールファクタSaおよびスケールファクタSbを用いるようにしたが、スケールファクタSaとスケールファクタSbを1つにして、JPEGエンコーダ113aとJPEGエンコーダ113bとで、共用するようにしても構わない。同様に、プレビュ画像の圧縮処理において、JPEGエンコーダ113aおよびJPEGエンコーダ113bのそれぞれに独立したスケールファクタScおよびスケールファクタSdを用いるようにしたが、スケールファクタScとスケールファクタSdを1つにして、JPEGエンコーダ113aとJPEGエンコーダ113bとで、共用するようにしても構わない。さらに、本画像とプレビュ画像とのスケールファクタSa,スケールファクタSb,スケールファクタSc,スケールファクタSdを1つにして、JPEGエンコーダ113aとJPEGエンコーダ113bとで、共用するようにしても構わない。   In this embodiment, in the compression processing of the main image, the scale factor Sa and the scale factor Sb that are independent of each of the JPEG encoder 113a and the JPEG encoder 113b are used. However, one scale factor Sa and one scale factor Sb are used. Thus, the JPEG encoder 113a and the JPEG encoder 113b may be shared. Similarly, in the compression processing of the preview image, the independent scale factor Sc and scale factor Sd are used for each of the JPEG encoder 113a and the JPEG encoder 113b. The encoder 113a and the JPEG encoder 113b may be shared. Furthermore, the scale factor Sa, the scale factor Sb, the scale factor Sc, and the scale factor Sd of the main image and the preview image may be made one and shared by the JPEG encoder 113a and the JPEG encoder 113b.

以上、本発明について詳細に説明してきたが、上記の実施形態およびその変形例は発明の一例に過ぎず、本発明はこれに限定されるものではない。本発明を逸脱しない範囲で変形可能であることは明らかである。   As mentioned above, although this invention was demonstrated in detail, said embodiment and its modification are only examples of this invention, and this invention is not limited to this. Obviously, modifications can be made without departing from the scope of the present invention.

第1の実施形態に係る画像処理装置の全体ブロック図である。1 is an overall block diagram of an image processing apparatus according to a first embodiment. 第1の実施形態に係る画像処理装置の画像処理部のブロック図である。2 is a block diagram of an image processing unit of the image processing apparatus according to the first embodiment. FIG. 第1の実施形態に係る画像処理装置の画像処理の順序を示す説明図である。It is explanatory drawing which shows the order of the image processing of the image processing apparatus which concerns on 1st Embodiment. 第2の実施形態に係る画像処理装置の全体ブロック図である。It is a whole block diagram of the image processing apparatus which concerns on 2nd Embodiment. 第2の実施形態に係る画像処理装置の画像処理部のブロック図である。It is a block diagram of the image processing part of the image processing apparatus which concerns on 2nd Embodiment. 第2の実施形態に係る画像処理装置の画像処理の順序を示す説明図である。It is explanatory drawing which shows the order of the image processing of the image processing apparatus which concerns on 2nd Embodiment. 第3の実施形態に係る画像処理装置の全体ブロック図である。It is a whole block diagram of the image processing apparatus which concerns on 3rd Embodiment. 第3の実施形態に係る画像処理装置の画像処理部のブロック図である。It is a block diagram of the image processing part of the image processing apparatus which concerns on 3rd Embodiment. 第3の実施形態に係る画像処理装置の画像処理の順序を示す説明図である。It is explanatory drawing which shows the order of the image processing of the image processing apparatus which concerns on 3rd Embodiment. 従来の画像処理装置の全体ブロック図である。It is a whole block diagram of the conventional image processing apparatus. 従来の画像処理部のブロック図である。It is a block diagram of the conventional image processing part. 従来の画像処理の順序を示す説明図である。It is explanatory drawing which shows the order of the conventional image processing. 第4の実施形態に係る画像処理装置の画像処理の順序を示す説明図である。It is explanatory drawing which shows the order of the image processing of the image processing apparatus which concerns on 4th Embodiment. 第5の実施形態に係る画像処理装置の画像処理の順序を示す説明図である。It is explanatory drawing which shows the order of the image processing of the image processing apparatus which concerns on 5th Embodiment. プレビュ画像の処理の順序を示す説明図である。It is explanatory drawing which shows the order of a process of a preview image. 第6の実施形態に係る画像処理装置の画像処理の順序を示す説明図である。It is explanatory drawing which shows the order of the image processing of the image processing apparatus which concerns on 6th Embodiment. プレビュ画像を含む場合の画像処理部のブロック図である。It is a block diagram of an image processing part in case a preview image is included.

符号の説明Explanation of symbols

101a〜c,151・・・カメラ
102・・・CPU 105・・・レンズ
106・・・撮像素子 110・・・RAWメモリ
111,111a〜c・・・補間色処理回路
112・・・メモリ 115・・・メモリカード
113,113a〜f・・・圧縮回路(JPEGエンコーダ)
118a,118b・・・バッファ
119・・・バッファ
101a to c, 151 ... camera 102 ... CPU 105 ... lens 106 ... imaging device 110 ... RAW memory 111, 111a-c ... interpolation color processing circuit 112 ... memory 115. ..Memory cards 113, 113a to f ... compression circuit (JPEG encoder)
118a, 118b ... buffer 119 ... buffer

Claims (8)

連続したフレームの画像を入力して補間および色処理を行う補間色処理回路と、
前記補間色処理回路で処理中および処理済の複数フレーム分の画像を巡回的に記憶する記憶部と、
前記補間色処理回路で処理済のフレームの画像を前記記憶部から読み出して画像圧縮処理を行い、フレーム毎に巡回的に起動されて並列処理する複数の画像圧縮処理回路と、
前記画像圧縮処理回路で処理した圧縮データを記憶する圧縮データ記憶部とを有し、
前記画像圧縮処理回路の個数は、(前記画像圧縮処理回路の1フレームの処理時間)÷(前記補間色処理回路の1フレームの処理時間)の計算値を切り上げた個数以上としたこと
を特徴とする画像処理装置。
An interpolated color processing circuit that inputs images of successive frames and performs interpolation and color processing;
A storage unit for cyclically storing images for a plurality of frames being processed and processed by the interpolation color processing circuit;
A plurality of image compression processing circuits that read out an image of a frame processed by the interpolation color processing circuit from the storage unit and perform image compression processing, and are cyclically activated for each frame and processed in parallel;
It possesses a compressed data storing unit for storing the compressed data processed by the image compression processing circuit,
The number of the image compression processing circuits is equal to or more than the number obtained by rounding up the calculated value of (processing time of one frame of the image compression processing circuit) / (processing time of one frame of the interpolation color processing circuit). An image processing apparatus.
連続したフレームの画像を入力して補間および色処理を行う補間色処理回路と、An interpolated color processing circuit that inputs images of successive frames and performs interpolation and color processing;
前記補間色処理回路で処理中のフレームから予め設定した所定量のデータをフレーム毎に記憶する複数の記憶バッファと、A plurality of storage buffers for storing, for each frame, a predetermined amount of data set in advance from the frame being processed by the interpolation color processing circuit;
前記記憶バッファに記憶された処理済のデータを画像処理単位毎に読み出して画像圧縮処理を行い、フレームの最初の前記画像処理単位が読み出される毎に巡回的に起動されて並列処理する複数の画像圧縮処理回路と、The processed data stored in the storage buffer is read out for each image processing unit and image compression processing is performed, and each time the first image processing unit of a frame is read, a plurality of images that are cyclically activated and processed in parallel A compression processing circuit;
前記画像圧縮処理回路で処理した圧縮データを記憶する圧縮データ記憶部とを有し、A compressed data storage unit that stores compressed data processed by the image compression processing circuit;
前記画像圧縮処理回路の個数は、(前記画像圧縮処理回路の1フレームの処理時間−前記補間色処理回路の前記処理単位データの処理時間)÷(前記補間色処理回路の1フレームの処理時間)の計算値を切り上げた個数以上としたことThe number of the image compression processing circuits is (processing time of one frame of the image compression processing circuit−processing time of the processing unit data of the interpolation color processing circuit) ÷ (processing time of one frame of the interpolation color processing circuit) The calculated value of the number should be more than the rounded-up number
することを特徴とする画像処理装置。An image processing apparatus.
請求項1または請求項2に記載の画像処理装置において、The image processing apparatus according to claim 1 or 2,
前記複数の画像圧縮処理回路を、前記連続したフレームの画像のうち奇数番目フレームの画像に対して画像圧縮処理を行う第1の画像圧縮処理部と、該連続したフレームの画像のうち偶数番目フレームの画像に対して画像圧縮処理を行う第2の画像圧縮処理部とで構成し、A plurality of image compression processing circuits, a first image compression processing unit that performs image compression processing on an image of an odd-numbered frame among the images of the consecutive frames; and an even-numbered frame of the images of the consecutive frames A second image compression processing unit that performs image compression processing on the image of
前記第1の画像圧縮処理部において画像圧縮処理に使用された第1圧縮条件、または前記第2の画像圧縮処理部において画像圧縮処理に使用された第2圧縮条件のうち少なくとも一方を記憶する圧縮条件記憶部と、Compression that stores at least one of the first compression condition used for image compression processing in the first image compression processing unit or the second compression condition used for image compression processing in the second image compression processing unit A condition storage unit;
前記第1の画像圧縮処理部および前記第2の画像圧縮処理部における画像圧縮処理、および前記圧縮条件記憶部における圧縮条件記憶処理を制御する圧縮制御部を更に有することA compression control unit for controlling the image compression processing in the first image compression processing unit and the second image compression processing unit, and the compression condition storage processing in the compression condition storage unit;
を特徴とする画像処理装置。An image processing apparatus.
請求項3に記載の画像処理装置において、The image processing apparatus according to claim 3.
前記圧縮制御部は、The compression control unit
前記第1圧縮条件および前記第2圧縮条件のうち最新の圧縮条件を前記圧縮条件記憶部に逐次更新記憶し、The latest compression condition of the first compression condition and the second compression condition is sequentially updated and stored in the compression condition storage unit,
前記圧縮条件記憶部に記憶された前記最新の圧縮条件を参照して前記第1の画像圧縮処理部における次フレームの画像圧縮処理に使用する前記第1圧縮条件を設定し、Setting the first compression condition to be used for the image compression processing of the next frame in the first image compression processing unit with reference to the latest compression condition stored in the compression condition storage unit;
前記圧縮条件記憶部に記憶された前記最新の圧縮条件を参照して前記第2の画像圧縮処理部における次フレームの画像圧縮処理に使用する前記第2圧縮条件を設定することSetting the second compression condition to be used for the image compression processing of the next frame in the second image compression processing unit with reference to the latest compression condition stored in the compression condition storage unit;
を特徴とする画像処理装置。An image processing apparatus.
請求項3に記載の画像処理装置において、The image processing apparatus according to claim 3.
前記圧縮制御部は、The compression control unit
前記第1圧縮条件および前記第2圧縮条件を前記圧縮条件記憶部にそれぞれ個別に記憶し、Storing the first compression condition and the second compression condition individually in the compression condition storage unit,
前記圧縮条件記憶部に記憶された前フレームの前記第1圧縮条件を参照して前記第1の画像圧縮処理部における次フレームの画像圧縮処理に使用する前記第1圧縮条件を更新設定し、Updating the first compression condition used for the image compression processing of the next frame in the first image compression processing unit with reference to the first compression condition of the previous frame stored in the compression condition storage unit;
前記圧縮条件記憶部に記憶された前フレームの前記第2圧縮条件を参照して前記第2の画像圧縮処理部における次フレームの画像圧縮処理に使用する前記第2圧縮条件を更新設定することUpdating the second compression condition used for the image compression process of the next frame in the second image compression processing unit with reference to the second compression condition of the previous frame stored in the compression condition storage unit;
を特徴とする画像処理装置。An image processing apparatus.
請求項4または請求項5に記載の画像処理装置において、The image processing apparatus according to claim 4 or 5,
前記圧縮制御部は、The compression control unit
前記連続したフレームの画像の1番目フレーム画像を前記第1の画像圧縮処理部において画像圧縮処理する場合に、所定の初期圧縮条件を用いて前記1番目フレーム画像に対して予備圧縮処理を行わせ、前記予備圧縮処理を行った結果得られた圧縮符号量に基づいて最終的な圧縮符号量が所定範囲内になるように前記第1圧縮条件を設定し、設定した前記第1圧縮条件を用いて前記1番目フレーム画像を圧縮処理するよう前記第1の画像圧縮処理部を制御し、When image compression processing is performed on the first frame image of the continuous frame images in the first image compression processing unit, pre-compression processing is performed on the first frame image using a predetermined initial compression condition. The first compression condition is set based on the compression code amount obtained as a result of the preliminary compression processing so that the final compression code amount is within a predetermined range, and the set first compression condition is used. Controlling the first image compression processing unit to compress the first frame image,
前記連続したフレームの画像の2番目フレーム画像を前記第2の画像圧縮処理部において画像圧縮処理する場合に、所定の初期圧縮条件を用いて前記2番目フレーム画像に対して予備圧縮処理を行わせ、前記予備圧縮処理を行った結果得られた圧縮符号量に基づいて最終的な圧縮符号量が所定範囲内になるように前記第2圧縮条件を設定し、設定した前記第2圧縮条件を用いて前記2番目フレーム画像を圧縮処理するよう前記第2の画像圧縮処理部を制御することWhen the second frame image of the continuous frame image is subjected to image compression processing in the second image compression processing unit, a pre-compression process is performed on the second frame image using a predetermined initial compression condition. The second compression condition is set based on the compression code amount obtained as a result of the preliminary compression processing so that the final compression code amount is within a predetermined range, and the set second compression condition is used. And controlling the second image compression processing unit to compress the second frame image.
を特徴とする画像処理装置。An image processing apparatus.
請求項4または請求項5に記載の画像処理装置において、The image processing apparatus according to claim 4 or 5,
前記圧縮処理部は、The compression processing unit
前記連続したフレームの画像の1番目フレーム画像を前記第1の画像圧縮処理部において画像圧縮処理する場合に、所定の初期圧縮条件を用いて前記1番目フレーム画像に対して予備圧縮処理を行わせ、前記予備圧縮処理を行った結果得られた圧縮符号量に基づいて最終的な圧縮符号量が所定範囲内になるように前記第1圧縮条件を設定し、設定した前記第1圧縮条件を用いて前記1番目フレーム画像を圧縮処理するよう前記第1の画像圧縮処理部を制御し、When image compression processing is performed on the first frame image of the continuous frame images in the first image compression processing unit, pre-compression processing is performed on the first frame image using a predetermined initial compression condition. The first compression condition is set based on the compression code amount obtained as a result of the preliminary compression processing so that the final compression code amount is within a predetermined range, and the set first compression condition is used. Controlling the first image compression processing unit to compress the first frame image,
前記連続したフレームの画像の2番目フレーム画像を前記第2の画像圧縮処理部において画像圧縮処理する場合に、前記1番目フレーム画像に対する予備圧縮処理の結果得られた圧縮符号量に基づいて最終的な圧縮符号量が所定範囲内になるように前記第2圧縮条件を設定し、設定した前記第2圧縮条件を用いて前記2番目フレーム画像を圧縮処理するよう前記第2の画像圧縮処理部を制御することWhen the second image compression processing unit performs image compression processing on the second frame image of the continuous frame images, the final image is finally determined based on the compression code amount obtained as a result of the preliminary compression processing on the first frame image. The second compression condition is set so that the compression code amount is within a predetermined range, and the second image compression processing unit is configured to compress the second frame image using the set second compression condition. To control
を特徴とする画像処理装置。An image processing apparatus.
被写体像を撮像して連続したフレームの画像を出力する撮像部と、An imaging unit that captures a subject image and outputs a continuous frame image;
請求項1から請求項7のいずれか一項に記載の画像処理装置とを備えることAn image processing apparatus according to any one of claims 1 to 7.
を特徴とする電子カメラ。An electronic camera characterized by
JP2007192284A 2006-08-01 2007-07-24 Image processing apparatus and electronic camera Expired - Fee Related JP4831006B2 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2007192284A JP4831006B2 (en) 2006-08-01 2007-07-24 Image processing apparatus and electronic camera
PCT/JP2007/000808 WO2008015781A1 (en) 2006-08-01 2007-07-30 Image processing device and electronic camera
US12/309,741 US8249339B2 (en) 2006-08-01 2007-07-30 Image processing device and electronic camera
EP07790302.9A EP2053841B1 (en) 2006-08-01 2007-07-30 Image processing device and electronic camera

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2006209476 2006-08-01
JP2006209476 2006-08-01
JP2007192284A JP4831006B2 (en) 2006-08-01 2007-07-24 Image processing apparatus and electronic camera

Publications (2)

Publication Number Publication Date
JP2008061228A JP2008061228A (en) 2008-03-13
JP4831006B2 true JP4831006B2 (en) 2011-12-07

Family

ID=39243410

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007192284A Expired - Fee Related JP4831006B2 (en) 2006-08-01 2007-07-24 Image processing apparatus and electronic camera

Country Status (1)

Country Link
JP (1) JP4831006B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101011987B1 (en) * 2009-09-09 2011-01-31 윤대일 Linux server system literacy json-rpc firewall fixing complement method
JP5665309B2 (en) * 2009-12-10 2015-02-04 キヤノン株式会社 Imaging device
CN113365101B (en) * 2020-03-05 2023-06-30 腾讯科技(深圳)有限公司 Method for multitasking video and related equipment

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2871139B2 (en) * 1991-03-19 1999-03-17 オリンパス光学工業株式会社 Image data encoding device and decoding device
JP4560180B2 (en) * 2000-06-28 2010-10-13 キヤノン株式会社 Imaging device
JP2004186978A (en) * 2002-12-03 2004-07-02 Sanyo Electric Co Ltd Method and device for data write and digital camera
JP4494866B2 (en) * 2004-05-21 2010-06-30 株式会社リコー Information processing apparatus, information processing method, information processing program, and recording medium

Also Published As

Publication number Publication date
JP2008061228A (en) 2008-03-13

Similar Documents

Publication Publication Date Title
EP2053841B1 (en) Image processing device and electronic camera
US9082206B2 (en) Image processing apparatus having a buffer memory for image data storage
JP3096618B2 (en) Imaging device
US8009337B2 (en) Image display apparatus, method, and program
JP2001275116A (en) Image processor
EP1596328A1 (en) Resolution-conversion of image data
US20060044420A1 (en) Image pickup apparatus
JP4831006B2 (en) Image processing apparatus and electronic camera
JP2008017405A (en) Two-dimensional orthogonal transforming apparatus, two-dimensional orthogonal transforming method, and imaging system
JP2007329903A (en) Variable length decoding device, variable length decoding method and imaging system
US20100135644A1 (en) Photographing apparatus and method of controlling the same
WO2012111825A1 (en) Image processor, image processing method, and program
JP2947389B2 (en) Image processing memory integrated circuit
US8238676B2 (en) Image data compressor and image data decompressor
US20100254618A1 (en) Method for Accessing Image Data and Related Apparatus
JP2002101310A (en) Filter processing unit and method
JP7451131B2 (en) Image encoding device, image encoding method, and program
JP2006024993A (en) Image pickup signal processing apparatus
JP2006197548A (en) Imaging apparatus
JP4449694B2 (en) Video predictive coding apparatus
JP5347706B2 (en) Recording apparatus, recording method, and program
JP2005159995A (en) Imaging apparatus and imaging method
JP2020195038A (en) Image processing apparatus, image processing method, and program
JP3352346B2 (en) Image signal processing device
JP2009135836A (en) Digital image radio transmitter and its image data processing method, digital image radio receiver, and digital image radio transmitting and receiving system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100610

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110607

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110808

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110823

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110905

R150 Certificate of patent or registration of utility model

Ref document number: 4831006

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140930

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140930

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees