JPH0951458A - Image input device - Google Patents

Image input device

Info

Publication number
JPH0951458A
JPH0951458A JP7198327A JP19832795A JPH0951458A JP H0951458 A JPH0951458 A JP H0951458A JP 7198327 A JP7198327 A JP 7198327A JP 19832795 A JP19832795 A JP 19832795A JP H0951458 A JPH0951458 A JP H0951458A
Authority
JP
Japan
Prior art keywords
image
area
resolution
video
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP7198327A
Other languages
Japanese (ja)
Other versions
JP3658049B2 (en
Inventor
Makoto Senda
誠 千田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP19832795A priority Critical patent/JP3658049B2/en
Publication of JPH0951458A publication Critical patent/JPH0951458A/en
Application granted granted Critical
Publication of JP3658049B2 publication Critical patent/JP3658049B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To generate efficiently a still image high in image quality at a part of the screen. SOLUTION: A video signal from a camera section 1 is processed by a video signal processing section 3, displayed on a monitor 16 together with data of a reception frame from a graphic memory section 14 and stored in a storage section 6. The user designates a reception frame and a drive section 2 controls an image pickup position of the camera section 1. Furthermore, a resolution is set and a lens control section 12 magnifies the lens section 11 in response to the setting to move an image pickup area. Then video data picked up by the image pickup area are extracted and stored in the storage section 6 to obtain a still image in which only the designated area has high image quality.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、映像を入力して静
止画を取り込み処理する映像入力装置に関するものであ
る。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a video input device for inputting a video image and processing a still image.

【0002】[0002]

【従来の技術】従来の映像入力装置は高精細画像の静止
画を扱うことが可能なほどカメラの解像度は高くない。
現在のカメラの入力の有効画素は40万画素程度であ
り、また、このカメラで映像された画像は、標準の映像
信号(例えば、NTSC、PAL、SECAMなど)に
よる出力が一般的である。そのため、従来のカメラで高
画質な静止画像を得るには、取込む画面全体を複数画面
に分割して取込んだ後に、各分割画面を合成して高画質
な静止画像にする手法を使用している。
2. Description of the Related Art Conventional video input devices are not high in camera resolution so as to be able to handle high-definition still images.
Currently, the effective pixel of the input of the camera is about 400,000 pixels, and the image formed by this camera is generally output by a standard image signal (for example, NTSC, PAL, SECAM, etc.). Therefore, to obtain a high-quality still image with a conventional camera, use the method of dividing the entire captured screen into multiple screens and capturing them, and then combining the divided screens into a high-quality still image. ing.

【0003】以下に従来の映像入力装置について図14
を用いて構成及び動作を説明する。1は人物や書画を撮
像するカメラ部、2はカメラ部1の撮像範囲を移動させ
るための駆動部、3はカラ部1から入力された映像信号
をあらゆる用途で使用するために映像データに変換する
処理を行う映像入力処理部、4は映像入力処理部3から
の映像データを記憶する映像メモリ部、5は映像を入力
して処理し出力するまでのすべての制御を行う全体制御
部、6は映像データを格納する蓄積部、7は操作部であ
る。
A conventional video input device will be described below with reference to FIG.
The configuration and operation will be described using. Reference numeral 1 is a camera unit for capturing a person or a document, 2 is a drive unit for moving the image capturing range of the camera unit 1, and 3 is a video signal input from the color unit 1 and converted into video data for use in all purposes. A video input processing unit 4 for performing the processing for storing the video data, a video memory unit 4 for storing the video data from the video input processing unit 3, and a general control unit 5 for performing all controls from inputting, processing and outputting the video, Is a storage unit for storing video data, and 7 is an operation unit.

【0004】次に、高画質映像入力をする場合につい
て、撮像対象となる全画面領域を複数画面に分割し、分
割された各画面を順次取込み、その取込んだ各画面を合
成して高画質な静止画を得る動作を図14を用いて説明
する。まず、全体制御部5からの指示により駆動部2を
駆動し、カメラ部1からの映像領域を所定の位置に合わ
せる。次に、カメラ部1から入力された映像信号が映像
入力処理部3で処理されて映像データとなる。この映像
入力処理部3では、NTSCやPALなどのコンポジッ
ト信号であれば、Y信号(輝度信号)とC信号(色差信
号)とにYC分離し、更に、C信号をCr、Cb信号の
色差信号に分離して、Y信号、Cr信号、Cb信号と
し、その後、A/D変換する。更に、色空間変換が必要
であれば、R信号、G信号、B信号に色空間変換する処
理が施され、また、フォーマット変換や解像度変換や拡
大/縮小などが必要であれば、画素密度変換処理やそれ
に伴うフィルタ等による補間処理等が施される。このよ
うにして映像処理された映像データを映像メモリ部4の
指定された領域に記憶する。
Next, in the case of inputting a high-quality image, the entire screen area to be imaged is divided into a plurality of screens, the divided screens are sequentially captured, and the captured screens are combined to obtain a high image quality. The operation of obtaining a still image will be described with reference to FIG. First, the drive unit 2 is driven according to an instruction from the overall control unit 5, and the image area from the camera unit 1 is adjusted to a predetermined position. Next, the video signal input from the camera unit 1 is processed by the video input processing unit 3 to become video data. In the video input processing unit 3, if it is a composite signal such as NTSC or PAL, it is YC separated into a Y signal (luminance signal) and a C signal (color difference signal), and the C signal is a color difference signal of Cr and Cb signals. To a Y signal, a Cr signal, and a Cb signal, and then A / D converted. Further, if color space conversion is necessary, color signal conversion processing is performed on the R signal, G signal, and B signal. If format conversion, resolution conversion, enlargement / reduction, or the like is necessary, pixel density conversion is performed. Interpolation processing and the like by processing and filters associated therewith are performed. The image data thus image-processed is stored in a designated area of the image memory unit 4.

【0005】上記動作を分割された画面毎に繰返し行う
ことにより、映像メモリ部4には映像対象である全画面
領域の映像データが記憶される。この各画面の画像デー
タを張り合わせて合成することで一つの高画質な静止画
データが得られ、その高画質静止画像データを全体制御
部5が蓄積したい場合は蓄積部6へ転送し格納する。
By repeating the above operation for each of the divided screens, the video memory unit 4 stores the video data of the entire screen area which is the video object. One piece of high-quality still image data is obtained by pasting and synthesizing the image data of each screen, and when the overall control section 5 wants to store the high-quality still image data, it is transferred to and stored in the storage section 6.

【0006】図15は上記動作を示すフローチャートで
ある。まず、ステップS51で最初に静止画入力か否か
を調べ、静止画入力でない場合には、ステップS52で
カメラ部1から動画像入力を行い、ステップS53でそ
の入力した動画像を表示部へ転送し表示する。これをス
テップS54で終了と判断されるまで行う。ステップS
51で静止画像入力の場合には、ステップS55で取り
込む静止画の解像度を設定する。通常のカメラ撮像可能
領域の撮像能力は、NTSCの場合は水平768画素×
垂直494ラインであり、PALの場合は水平752画
素×垂直582ラインである。この撮像能力を撮像対象
物の寸法で割ったものが解像度となる。ここで、解像度
を向上させる方法として、その撮像対象物を分割して入
力する方法があるのて、上述の撮像能力を越えるような
高画質の静止画を入力するためにステップS56で画面
分割数を設定する。
FIG. 15 is a flow chart showing the above operation. First, in step S51, it is first checked whether a still image is input. If not, a moving image is input from the camera unit 1 in step S52, and the input moving image is transferred to the display unit in step S53. And display it. This is repeated until it is determined to end in step S54. Step S
When a still image is input at 51, the resolution of the still image to be captured is set at step S55. In the case of NTSC, the normal imaging capability of the camera image area is 768 horizontal pixels x
It is 494 vertical lines, and in the case of PAL, it is 752 horizontal pixels × 582 vertical lines. The resolution is obtained by dividing the imaging capability by the size of the imaging target. Here, as a method of improving the resolution, there is a method of dividing and inputting the image pickup object. Therefore, in order to input a high-quality still image that exceeds the above-mentioned image pickup capability, the number of screen divisions is increased in step S56. To set.

【0007】次に、映像入力手順に入る。まず、ステッ
プS57でm=0とした後、ステップS58でm=m+
1とする。次にステップS59で上記画面分割数に合わ
せて、カメラ部1の駆動部2を可動し、最初の撮像領域
位置に合わせる。その後、ステップS60でカメラ部1
からその撮像領域の映像を入力し、映像入力処理部3で
処理した後、ステップS61でメモリ部4の指定領域に
処理した映像を記憶する。このステップS58〜S61
の処理は画面分割数分繰り返し行われ、各映像入力手順
ごとに撮像領域とメモリ部4のメモリ空間を変更してい
く。そしてステップS62でm=nとなったとき、指定
された全画面の分割入力が終了することで静止画入力を
完了する。次にステップS63で映像データ蓄積部6に
転送され、蓄積される。その後、更に、静止画入力ある
いは動画入力が必要な場合はステップS51〜S63の
処理を継続し、ステップS64で入力を終了すると判断
した場合はすべての処理を終了する。
Next, a video input procedure is started. First, after setting m = 0 in step S57, m = m + in step S58.
Let it be 1. Next, in step S59, the drive unit 2 of the camera unit 1 is moved according to the number of screen divisions, and is aligned with the position of the first imaging area. Then, in step S60, the camera unit 1
Then, the video of the image pickup area is input, and after being processed by the video input processing unit 3, the processed video is stored in the designated area of the memory unit 4 in step S61. These steps S58 to S61
The above process is repeated for the number of screen divisions, and the imaging area and the memory space of the memory unit 4 are changed for each image input procedure. Then, when m = n in step S62, the still image input is completed by completing the split input of the designated full screen. Next, in step S63, the image data is transferred to and stored in the video data storage unit 6. After that, if still image input or moving image input is required, the processes of steps S51 to S63 are continued, and if it is determined that the input is ended in step S64, all the processes are ended.

【0008】[0008]

【発明が解決しようとする課題】しかしながら、上述の
従来例によれば、高画質静止画像を取り込む場合は必ず
全画面を高画質静止画像で取込む必要があった。そのた
め、全画面のうちの一部のみ高画質な画像が必要な場
合、例えば、自然画像や細かい文字などにはめ込まれて
いるような場合は、その部分以外は高画質な画像を必要
としないので、その分の画像データは無駄になるという
問題があった。また、データ容量が多いと表示や転送や
処理などに無駄な時間がかかるという問題があった。
However, according to the above-mentioned conventional example, when capturing a high-quality still image, it is necessary to capture the entire screen with the high-quality still image. Therefore, if only a part of the entire screen is required to have a high quality image, for example, if it is embedded in a natural image or small characters, then a high quality image is not required except for that part. However, there is a problem that the image data for that amount is wasted. In addition, there is a problem that a large amount of data requires unnecessary time for displaying, transferring, and processing.

【0009】そこで、本発明は全画面の一部を高画質と
する場合に、無駄な高画質データを取込む必要のない映
像入力装置を得ることを目的とする。
Therefore, it is an object of the present invention to provide a video input device which does not need to take in useless high quality image data when a part of the entire screen has high image quality.

【0010】[0010]

【課題を解決するための手段】本発明においては、カメ
ラ部から映像入力して静止画像を取込む映像入力処理装
置において、上記カメラ部から入力した画像を記憶する
第1の記憶手段と、上記第1の記憶手段により記憶した
画像データを蓄積する第1の蓄積手段と、高解像度画像
の領域を指定する高解像領域指定手段と、上記高解像領
域指定手段により指定された領域を示すグラフィックデ
ータを上記第1の記憶手段により記憶された画像データ
と合成して表示する合成表示手段と、上記高解像領域指
定手段により指定された領域情報に基づいて撮像領域を
移動する撮像領域移動手段と、上記高解像領域指定手段
により指定された領域情報に基づいて、撮像領域を変倍
する撮像領域変倍手段と、上記撮像領域移動手段と撮像
領域変倍手段により指定された画像データを蓄積する第
2の蓄積手段と、上記第1の蓄積手段により蓄積された
画像データと上記第2の蓄積手段で蓄積された画像デー
タとを領域情報と共に管理する管理手段とを設けてい
る。
According to the present invention, in a video input processing apparatus for inputting a video from a camera unit and taking in a still image, first storage means for storing the image input from the camera unit, and The first storage means for storing the image data stored by the first storage means, the high resolution area designating means for designating the area of the high resolution image, and the area designated by the high resolution area designating means are shown. A combination display unit for combining the graphic data with the image data stored by the first storage unit and displaying the combined image data, and an image pickup region movement for moving the image pickup region based on the region information designated by the high resolution region designation unit. Means, an imaging area scaling means for scaling the imaging area based on the area information designated by the high resolution area designating means, the imaging area moving means and the imaging area scaling means. Second accumulating means for accumulating the designated image data, and managing means for managing the image data accumulated by the first accumulating means and the image data accumulated by the second accumulating means together with the area information. Is provided.

【0011】また、上記の構成にさらに高解像度画像の
解像度を指定する解像指定手段と、上記高解像領域指定
手段により指定された領域が該解像度指定手段により指
定された解像度で一括取込ができないときに、画面分割
により取り込む画面分割取込手段とを設けるようにして
よい。
In addition to the above structure, a resolution designating means for designating the resolution of a higher resolution image and a region designated by the high resolution area designating means are collectively fetched at the resolution designated by the resolution designating means. When it is not possible, a screen division capturing means for capturing by screen division may be provided.

【0012】[0012]

【作用】本発明によれば、映像を入力して静止画像を取
り込んだ後に、表示画面を見ながらその取り込んだ静止
画像のある領域を指定し、その指定した領域のみを高画
質画像で取込むことが可能になる。また、解像度を指定
しておくようにすることにより、その解像度で自動的に
取り込むことが可能になる。
According to the present invention, after inputting an image and capturing a still image, a certain area of the captured still image is designated while watching the display screen, and only the designated area is captured as a high quality image. It will be possible. Also, by specifying the resolution in advance, it is possible to automatically capture at that resolution.

【0013】[0013]

【発明の実施の形態】以下、本発明の実施例を図面と共
に説明する。図1は第1の実施例を示すブロック図、図
2は第2の実施例を示すブロック図である。第1の実施
例は画面分割により高画質静止画像を得る場合であり、
第2の実施例は後述する画素ずらしにより高画質静止画
像を得る場合である。尚、図1、図2においては、図1
4の従来例と同一部分には同一符号を付して説明を省略
し、新たに追加された部分について説明する。
Embodiments of the present invention will be described below with reference to the drawings. FIG. 1 is a block diagram showing a first embodiment, and FIG. 2 is a block diagram showing a second embodiment. The first embodiment is a case of obtaining a high-quality still image by dividing a screen,
The second embodiment is a case where a high-quality still image is obtained by pixel shift described later. In addition, in FIG. 1 and FIG.
The same parts as those of the conventional example of No. 4 are designated by the same reference numerals, and the description thereof will be omitted.

【0014】図1、図2において、11はズーム機能に
より倍率を上げて撮像サイズを小さくすることで解像度
を向上させる機能と、レンズを用いた光軸可変機能によ
りCCDの各素子の撮像範囲より微小に光軸をずらすこ
とで解像度を向上させる機能(本機能は、図1の第1の
実施例ではなくてもよいが、図2の第2の実施例では必
須である)を有するレンズ部、12は全体制御部5から
の指示によりレンズ部11に対して倍率や光軸のズレ量
を制御するレンズ制御部、13は映像メモリ部4から出
力された画像データとグラフィックメモリ部14からの
グラフィックデータとを合成するグラフィック合成部、
14は全体制御部5からのグラフィックデータを格納す
るグラフィックメモリ部、15はグラフィック合成部1
3からの映像信号をモニタに表示させるための信号に変
換処理する映像出力処理部、16はモニタである。
In FIGS. 1 and 2, reference numeral 11 indicates a function of increasing resolution by increasing a magnification by a zoom function to reduce an image pickup size, and an image pickup range of each element of the CCD by an optical axis variable function using a lens. A lens unit having a function of improving the resolution by slightly shifting the optical axis (this function is not required in the first embodiment of FIG. 1, but is essential in the second embodiment of FIG. 2). , 12 is a lens control unit that controls the magnification and the amount of deviation of the optical axis with respect to the lens unit 11 according to an instruction from the overall control unit 5, and 13 is the image data output from the video memory unit 4 and the graphic memory unit 14. A graphic synthesis unit that synthesizes with graphic data,
Reference numeral 14 is a graphic memory unit for storing graphic data from the overall control unit 5, and 15 is a graphic composition unit
A video output processing unit for converting the video signal from 3 into a signal for displaying on a monitor, and 16 is a monitor.

【0015】図1において、17は映像入力処理部3で
処理された画像データを映像合成メモリ部18に記憶さ
せる映像合成処理部である。
In FIG. 1, reference numeral 17 is a video composition processing section for storing the image data processed by the video input processing section 3 in the video composition memory section 18.

【0016】図2において、20は後述する平行平板に
よる画素ずらしされた色フィルタデータをカメラからの
入力して、画素ずらしデータメモリ部21に記憶させる
画素ずらしデータ合成処理部、22は画素ずらしデータ
メモリ部21の色フィルタデータを画像データに変換処
理する静止画像処理部である。
In FIG. 2, reference numeral 20 denotes a pixel shift data synthesizing processing unit for inputting color filter data, which will be described later, which is shifted by a parallel plate from a camera, and stored in a pixel shift data memory unit 21, and 22 denotes pixel shift data. It is a still image processing unit that converts the color filter data of the memory unit 21 into image data.

【0017】図3はカメラ部1の内部ブロックである。
201は絞りシャッタ、202は光学的ローパスフィル
タ、203は同期信号発生部(図示せず)からの同期信
号に同期して光電変換素子204を駆動するCCDドラ
イブ、204は撮像された対象物の光信号を受光して電
気信号に変換して出力する光電変換素子、205は光電
変換素子204から出力された信号を増幅する自動ゲイ
ンコントロール部(AGC)、206は光電変換素子2
04からの信号により絞り量を測定するための絞り測光
回路、207は絞り測光回路206により絞りシャッタ
を駆動して絞りを調整するアイリス駆動部、208は光
軸を微小移動して画素ずらしを行う平行平板(ただし、
画素ずらしによる画像データ取込みの場合には、この平
行平板208は必要であるが、映像合成による画像デー
タ取込みの場合には、平行平板板208はなくてもよ
い)、209は光電変換素子204から出力される信号
の出力方法を制御するフレーム/フィールド読みだし制
御部(画素ずらしによるデータ取込みのときのみフレー
ム読み出しをする)、210はローパスフィルタ202
を抜き差しするためのローパスフィルタ駆動部(ただ
し、平行平板208を使用しない場合は、フィルタ20
2は付けたままとなる)、211は平行平板208の光
軸ずらしを制御する平行平板駆動部(平行平板208を
使用する際に必要)である。
FIG. 3 shows an internal block of the camera section 1.
Reference numeral 201 is a diaphragm shutter, 202 is an optical low-pass filter, 203 is a CCD drive that drives a photoelectric conversion element 204 in synchronization with a synchronization signal from a synchronization signal generation unit (not shown), and 204 is light of an imaged object. A photoelectric conversion element that receives a signal, converts the signal into an electric signal and outputs the electric signal, 205 is an automatic gain control unit (AGC) that amplifies the signal output from the photoelectric conversion element 204, and 206 is the photoelectric conversion element 2
A diaphragm metering circuit for measuring the diaphragm amount by the signal from 04, 207 is an iris driving section that drives the diaphragm shutter by the diaphragm metering circuit 206 to adjust the diaphragm, and 208 is a minute movement of the optical axis to perform pixel shifting. Parallel plate (however,
The parallel flat plate 208 is necessary in the case of capturing image data by shifting pixels, but the parallel flat plate 208 may not be required in the case of capturing image data by image synthesis), and 209 from the photoelectric conversion element 204. A frame / field read-out control unit (which reads out a frame only when data is taken in by pixel shifting) for controlling an output method of an output signal, and a low-pass filter 202.
A low-pass filter drive unit for inserting and removing (when the parallel plate 208 is not used, the filter 20
2 is left attached), and 211 is a parallel plate drive unit (necessary when using the parallel plate 208) for controlling the optical axis shift of the parallel plate 208.

【0018】このカメラ部1から撮像された光情報は電
気信号に変換されて出力され、絞り調整やゲイン調整に
より、その出力レベルが適正な範囲に入るように自動調
整される。またこのカメラ部1は、動画像と静止画像の
各々に適した信号を出力可能に構成されており、要求に
応じてモード切り替えが可能に構成されている。
The optical information picked up by the camera unit 1 is converted into an electric signal and outputted, and the aperture level and the gain adjustment automatically adjust the output level so that it falls within an appropriate range. Further, the camera unit 1 is configured to be able to output a signal suitable for each of a moving image and a still image, and is configured to be capable of mode switching in response to a request.

【0019】次にカメラ部1の出力信号のモードについ
て、図5、図6を用いて説明する。図5は光電変換素子
204の素子上のフィルタ配列の図である。この配列は
補色市松配列と呼ばれ、Cy(シアン)、Ye(イエロ
ー)、G(グリーン)、Mg(マゼンダ)の各フィルタ
が、図のような配列で配置されている。(ただし、Gは
補色ではなく原色である) この配列の利点は、原色であるR(レッド)、G(グリ
ーン)、B(ブルー)のフィルタを通して受光するより
も、補色であるCy、Ye、Mgのフィルタを通して受
光するほうが、各補色に対して、原色が2色混合されて
受光されるので、それだけ多くの情報が得られ感度が良
くなることにある。また、GとMgの配列は、ラインご
とに交互に配列されており、更に、フィルタ配列の上下
のフィルタ信号を加算して出力されるため、カメラ部か
ら出力される信号は図6(a)のフィールド読みだしモ
ードに示すように、奇数ラインはCy+G、Ye+Mg
を繰り返し、偶数ラインはCy+Mg、Ye+Gを繰り
返す。
Next, the mode of the output signal of the camera section 1 will be described with reference to FIGS. FIG. 5 is a diagram of a filter array on the elements of the photoelectric conversion element 204. This array is called a complementary color checkerboard array, and Cy (cyan), Ye (yellow), G (green), and Mg (magenta) filters are arranged in an array as shown. (However, G is a primary color, not a complementary color.) The advantage of this arrangement is that complementary colors Cy, Ye, and R are more preferable than light received through primary color R (red), G (green), and B (blue) filters. When the light is received through the Mg filter, the two primary colors are mixed and received for each complementary color, so that more information is obtained and the sensitivity is improved. Further, since the G and Mg arrays are alternately arranged for each line, and the filter signals above and below the filter array are added and output, the signal output from the camera unit is as shown in FIG. As shown in the field reading mode of No., the odd lines are Cy + G, Ye + Mg.
And Cy + Mg, Ye + G are repeated for even lines.

【0020】ここで、Y信号とC信号は、下式により容
易に得られるようにフィルタ特性が設定されている。 Y={Cy+G)+(Ye+Mg)}×1/2 R−Y={(Ye+Mg)−(Cy+G)} −(B−Y)={(Ye+G)−(Cy+Mg)} 従って、映像入力処理部3では、上記のような加減算を
行うことにより、Y信号とC信号とが生成される。つま
り、動画像処理あるいは画面を空間的に分割して静止画
像処理する場合には、上記のようなフィールド読みだし
のモードが使用される。
Here, the filter characteristics of the Y signal and the C signal are set so that they can be easily obtained by the following equation. Y = {Cy + G) + (Ye + Mg)} × 1/2 R−Y = {(Ye + Mg) − (Cy + G)} − (B−Y) = {(Ye + G) − (Cy + Mg)} Therefore, the video input processing unit 3 Then, the Y signal and the C signal are generated by performing the addition and subtraction as described above. That is, in the case of moving image processing or still image processing by spatially dividing the screen, the above field reading mode is used.

【0021】次に、静止画像モードの場合は、上記のモ
ード以外に半画素ずらし、または、1画素分ずらして各
フィルタごとに撮像することによって、解像度を向上さ
せたり、光軸が同一のフィルタ情報(Cy、Ye、M
g、Gr)が得られ色再現性の非常に優れた静止画像を
生成するモードがある。この場合は、フィールド読み出
しモードとは異なり上下のフィルタイメージを加算せず
にフィルタイメージのまま読み出すフレーム読み出しモ
ードを使用する。このフレーム読み出しモードを、図6
(b)(c)に示す。(b)については、フィルタ配列
のそのままを順次読み出す順次読み出しである。(c)
については、フィルタ配列の奇数列のみを最初に読み出
し、偶数列のみを次に読み出すことによるフィルタ種別
ごとの読み出しである。このフレーム読み出しの場合に
は、フィールド読み出しとは信号内容が異なるため、そ
の後の映像信号処理手順も異なる処理を行う必要があ
る。
Next, in the case of the still image mode, the resolution is improved or the filters having the same optical axis are provided by shifting the image by each pixel by shifting by half a pixel or by shifting by one pixel in a mode other than the above modes. Information (Cy, Ye, M
g, Gr) is obtained, and there is a mode for generating a still image with excellent color reproducibility. In this case, unlike the field read mode, the frame read mode is used in which the upper and lower filter images are not added and the filter images are read as they are. This frame read mode is shown in FIG.
(B) and (c). As for (b), sequential reading is performed by sequentially reading the filter array as it is. (C)
With regard to (3), only the odd-numbered columns of the filter array are read out first, and only the even-numbered columns are read out next. In the case of this frame reading, since the signal content is different from that of the field reading, it is necessary to perform a different process in the subsequent video signal processing procedure.

【0022】図4は、映像入力処理部3の内部構成であ
る。301は水平ライン2ライン分の遅延回路で、カメ
ラ部1からの信号に対して、遅延無し(0H)1ライン
遅延(1H)2ライン遅延(2H)の信号を出力する。
出力信号は図6と同じである。302は遅延回路301
からの出力信号の奇数番目と偶数番目とを加算すること
によりY信号を生成し、遅延回路301により生成した
3ライン分の信号を利用して、水平/垂直のアパーチャ
補正の処理を施す水平/垂直アパーチャ補正部、303
は水平/垂直アパーチャ補正部302から出力されたY
信号にガンマ補正処理を施すガンマ補正部、304は遅
延回路301からの3ライン分の信号を利用して、各信
号の奇数番目と偶数番目とを加減算することによりY信
号、Cr(R−Y)信号、Cb(B−Y)信号を生成す
る同期検波部である。
FIG. 4 shows the internal structure of the video input processing section 3. Reference numeral 301 denotes a delay circuit for two horizontal lines, which outputs a signal without delay (0H), one line delay (1H), and two line delay (2H) with respect to the signal from the camera unit 1.
The output signal is the same as in FIG. 302 is a delay circuit 301
Y signal is generated by adding the odd-numbered and even-numbered output signals from the horizontal line / vertical aperture correction process using the signals of three lines generated by the delay circuit 301. Vertical aperture correction unit, 303
Is the Y output from the horizontal / vertical aperture correction unit 302.
A gamma correction unit 304 that performs gamma correction processing on the signal uses the signals of three lines from the delay circuit 301 to add and subtract the odd-numbered and even-numbered signals of each signal to obtain a Y signal, Cr (RY). ) Signal and a Cb (BY) signal.

【0023】305はYCrCb信号をRGB信号に色
変換するマトリクス変換を施すRGBマトリクス変換
部、306は撮像時の光源の色温度の変化に対してRG
Bの色再現性を一定に保つためにRGB信号を合成して
得られる白レベルが基準となる白レベルとなるようにR
GB信号に調整を施すホワイトバランス調整部、307
はRGB信号にガンマ補正処理を施すガンマ補正処理
部、308は、RGB信号をCr(R−Y)信号とCb
(B−Y)信号とに色変換する色差マトリクス変換部で
ある。この映像入力処理部3は、カメラ部1から受信し
た光情報の電気信号をY、U、V信号の映像情報に変換
して出力し、アパーチャ補正やガンマ補正、色信号に対
してはホワイトバランス調整を施し、その映像情報を適
正なレベルに自動調整する。
Reference numeral 305 denotes an RGB matrix conversion unit for performing matrix conversion for color-converting the YCrCb signal into an RGB signal, and 306 denotes RG with respect to a change in color temperature of the light source during image pickup.
In order to keep the color reproducibility of B constant, the white level obtained by combining the RGB signals becomes the reference white level R
307, a white balance adjustment unit that adjusts the GB signal
Is a gamma correction processing unit that performs gamma correction processing on the RGB signal, and 308 is an RGB signal that is a Cr (RY) signal and a Cb signal.
This is a color difference matrix conversion unit that performs color conversion into a (BY) signal. The image input processing unit 3 converts the electric signal of the optical information received from the camera unit 1 into image information of Y, U, and V signals and outputs the image information. Aperture correction, gamma correction, and white balance for color signals. Adjustment is performed and the image information is automatically adjusted to an appropriate level.

【0024】次に、図2の静止画像処理部22について
説明する。内部構成は映像入力処理部3とほぼ同じで、
画素ずらしデータメモリ部21から、フィルタ情報(C
y、Ye、Mg、Gr)を読み出し、Cy+G、Ye+
Mg、Cy+Mg、Ye+Gの加算処理をした後、映像
入力処理部3と同じ処理を行う。
Next, the still image processing unit 22 of FIG. 2 will be described. The internal configuration is almost the same as the video input processing unit 3,
From the pixel shift data memory unit 21, the filter information (C
y, Ye, Mg, Gr) are read out, and Cy + G, Ye +
After the addition processing of Mg, Cy + Mg, and Ye + G, the same processing as the video input processing unit 3 is performed.

【0025】次に、高画質入力する際の映像入力方法に
ついて、図7を用いて説明する。図7(a)は、画面分
割により方法であり、駆動部2を駆動することでカメラ
部1の撮像領域を上下左右に矢印のように移動させて画
面を分割し、分割された画面ごとに映像を取込んでいく
方式である。図の例では、○印の画像領域を映像データ
として取込まれた状態を示している。この方法は、撮像
領域の制御においても現在の駆動モータの精度は高いの
で実現は容易である。しかし、画面合成においては、合
成画面間の境界が不連続であり、また取込む時間もずれ
ているので、そのまま合成すると不自然な画像になる。
そこで、時間的ずれによる環境の変化の影響を極力押さ
えるようにその間は一定の環境にするか、あるいは複数
画面の境界付近の映像信号の状態を記憶しておき、境界
付近がお互い同一のレベルになるように映像信号を調整
する、あるいは、複数画面の境界付近をダブらせて映像
入力しパターンマッチングさせる、あるいは、映像を取
り込む際の画面ゆがみを補正するなどの処理を施して合
成することにより、境界の不連続さを解決し、良好な静
止画像を得ることが可能となる。
Next, a video input method for inputting high image quality will be described with reference to FIG. FIG. 7A shows a method of dividing the screen. By driving the driving unit 2, the imaging area of the camera unit 1 is moved vertically and horizontally as indicated by arrows to divide the screen, and each divided screen is divided. It is a method of capturing images. In the example of the figure, a state where the image area marked with a circle is taken in as video data is shown. This method is easy to implement because the current drive motor has high accuracy even in the control of the imaging region. However, in the screen combination, the boundaries between the combined screens are discontinuous and the capturing times are different, so if the images are combined as they are, an unnatural image is obtained.
Therefore, in order to suppress the influence of environmental changes due to time lag as much as possible, keep the environment constant during that time, or memorize the state of the video signal near the borders of multiple screens and keep the borders at the same level. By adjusting the video signal so that it becomes, or by duplicating the vicinity of the multiple screens and inputting the image for pattern matching, or by correcting the screen distortion when capturing the image and combining it. , It is possible to solve the discontinuity of the boundary and obtain a good still image.

【0026】図7(b)は、画素ずらしによる方式(V
AP方式)で、レンズ部11において光軸bから光軸a
に光軸を微小にずらすことにより、カメラで撮像される
撮像領域が微小にズレるので、光軸を微小にずらしなが
らその都度、映像を取込むことで、カメラの撮像素子の
画素数が少なくても、あたかも撮像素子の画素数が増し
て解像度が向上したのと同等の効果が得られる。図の例
では、○印の画像を間引くようにして取込んだ場合を示
している。
FIG. 7B shows a method (V
AP system), in the lens unit 11 from the optical axis b to the optical axis a
By slightly shifting the optical axis, the imaging area captured by the camera will shift slightly, so by capturing the image each time while shifting the optical axis slightly, the number of pixels of the image sensor of the camera can be reduced. In addition, it is possible to obtain the same effect as if the number of pixels of the image sensor is increased and the resolution is improved. In the example of the figure, the case where the images marked with a circle are captured while being thinned out is shown.

【0027】上記の光軸を微小に変化させるための機構
は、プリズムレンズ500の頂角を可変にする機構であ
る。このプリズムレンズ500は互いに平行に配された
ガラス板間501、502をシリコン系の液体503で
満たし、その周囲をシールしたものであり、レンズ制御
部12のアクチュエータによって両ガラス板501、5
02間の傾きを変化させ頂角を可変にするようになされ
ている。
The mechanism for minutely changing the optical axis is a mechanism for changing the apex angle of the prism lens 500. This prism lens 500 is one in which the glass plates 501 and 502 arranged in parallel to each other are filled with a silicon-based liquid 503 and the periphery thereof is sealed, and both glass plates 501 and 5 are driven by an actuator of the lens control unit 12.
It is designed to change the inclination between 02 and to make the apex angle variable.

【0028】ここで、レンズを微小移動させるために、
駆動部2の制御には、かなりの精度が要求される。画面
合成においては、合成画面間の境界の不連続性が解消さ
れるので、合成後の不自然さはなくなる。特に、解像度
が変化しても連続性が失われないので、高画質の静止画
像を入力するには、最適な方法である。ただし、複数画
面の取り込みには時間的なずれが生じているため、時間
的ずれによる環境による影響を極力押さえるようにその
間は一定の環境にするか、あるいは複数画面の画面全体
の平均的な映像信号の状態を記憶しておき、画面全体の
平均レベルが互いに同一のレベルになるように映像信号
を調整することで時間的なずれ問題を解決し、良好な静
止画像を得ることが可能となる。
Here, in order to slightly move the lens,
Control of the drive unit 2 requires a considerable degree of accuracy. In the screen combination, the discontinuity of the boundary between the combined screens is eliminated, so that the unnaturalness after the combination is eliminated. In particular, since continuity is not lost even when the resolution changes, it is an optimal method for inputting a high-quality still image. However, since there is a time lag in capturing multiple screens, keep the environment constant during that time to minimize the effect of the environment due to the time lag, or an average image of the entire multi-screen screen. By storing the signal state and adjusting the video signal so that the average level of the entire screen becomes the same level, it is possible to solve the problem of time lag and obtain a good still image. .

【0029】図7(c)は、画素ずらしによる他の方式
(PP方式)で、平行平板(Pallarel Pla
te)208を利用する方法である。平行平板208を
斜めに傾けることによって、光が物質を通過する際の屈
折率で生じる入射光の角度のずれを利用して光軸を微小
にずらしながら映像を取り込むことで、解像度や色再現
性を向上させることができる。
FIG. 7C shows another method (PP method) based on pixel shifting, which is a parallel plate (Plarel Pla) method.
te) 208 is used. By inclining the parallel plate 208 at an angle, the image is captured while slightly shifting the optical axis by using the deviation of the angle of the incident light caused by the refractive index when the light passes through the substance, thereby obtaining the resolution and the color reproducibility. Can be improved.

【0030】図8は平行平板208による光軸のずれに
ついての説明である。平行平板は、光軸と垂直であれば
光軸のずれは発生しないが、図に示すように、光が平行
平板208の斜め方向から入射されると、物体固有の屈
折率により入射角に対して屈折が生じる。この屈折自体
は物質が均一で変化がなければ常に一定であるが、物体
の厚みが増すとずれ分が大きく変化する。更に、光が物
体を通過すると、逆の屈折が生じて物体に入射した時の
光軸と平行な光となる。
FIG. 8 is an illustration of the deviation of the optical axis due to the parallel plate 208. If the parallel plate is perpendicular to the optical axis, the optical axis does not shift, but as shown in the figure, when light is incident from the oblique direction of the parallel plate 208, the refractive index peculiar to the object causes the incident angle with respect to the incident angle. Refraction occurs. This refraction itself is always constant if the substance is uniform and does not change, but if the thickness of the object increases, the amount of deviation greatly changes. Further, when the light passes through the object, the opposite refraction occurs and becomes light parallel to the optical axis when the light enters the object.

【0031】従って、図で示した長さdが光軸のずれと
なる。この長さdは下記の式より求めることができる。 n=sin/sinθ (n:屈折率) x=1・(tani−tanθ) d=cosi・x より、 d=cosi・l・(sini/cosi−tanθ) =1・[sini−cosi・tan{sin−1 (sin/n)} で求められる。この長さdが、撮像素子の画素間の長さ
と同じであれば1画素ずらし、1/2であれば半画素ず
らしでの撮像が可能になる。
Therefore, the length d shown in the figure is the deviation of the optical axis. This length d can be obtained from the following formula. n = sin / sin θ (n: refractive index) x = 1 · (tani-tan θ) From d = cosi · x, d = cosi · l · (sini / cosi-tan θ) = 1 · [sini-cosi · tan { sin- 1 (sin / n)}. If the length d is the same as the length between the pixels of the image sensor, the pixel can be shifted by one pixel, and if it is ½, the image can be shifted by half the pixel.

【0032】図9はその画素ずらしによる撮像をイメー
ジした図である。ここで、a11は、ホームポジション
で、b11、c11、d11は、a11のホームポジションから
平行平板の画素ずらしにより1画素ずらした場合であ
る。つまり撮像している対象物は同一で、a11はCy、
11はYe、c11はMg、d11はGrの各フィルタイメ
ージで撮像している。
FIG. 9 is a view imagining the image pickup by the pixel shift. Here, a 11 is the home position, and b 11 , c 11 , and d 11 are the cases where the pixel is shifted from the home position of a 11 by the pixel shift of the parallel plate. In other words, the object being imaged is the same, a 11 is Cy,
b 11 is Ye, c 11 is Mg, and d 11 is Gr.

【0033】半画素ずらしは、ホームポジションから垂
直方向はそのままで水平右方向の半画素ずらしした位置
を新たなホームポジションとして1画素ずらししたの
が、a 12はホームポジションでb121212である。同
様に、a21がホームポジションで、b21、c21、d21
順次撮像し、a22がホームポジションでb22、c22、d
22と順次撮像することで高画質な静止画像を生成するこ
とが可能となる。
The half pixel shift is from the home position.
A position shifted by half a pixel in the horizontal right direction while keeping the direct direction
I moved it by 1 pixel as a new home position
But a 12Is at home position b12c12d12It is. same
Like atwenty oneIs the home position, btwenty one, Ctwenty one, Dtwenty oneWhen
Image sequentially, atwenty twoIs at home position btwenty two, Ctwenty two, D
twenty twoA high-quality still image can be generated by sequentially capturing
It becomes possible.

【0034】次に、上記構成による本発明の動作につい
て説明する。まず、高画質静止画像入力の動作方法につ
いて図10〜12のフローチャートと共に説明する。ま
ず、ステップS1で静止画像入力でないと判断された場
合は、ステップS2でカメラ部1から動画像を入力し、
ステップS3で表示部に転送して表示する。これをステ
ップS4で終了するまで繰り返す。ステップS1で静止
画像入力と判断された場合は、まず、カメラ部1から入
力した映像を映像信号処理部3で処理して映像合成メモ
リ部18、グラフィック合成部13、映像出力部15を
介してモニタ16に出力する。
Next, the operation of the present invention having the above configuration will be described. First, an operation method for inputting a high-quality still image will be described with reference to the flowcharts of FIGS. First, when it is determined in step S1 that a still image is not input, a moving image is input from the camera unit 1 in step S2,
In step S3, it is transferred to the display unit and displayed. This is repeated until the end in step S4. When it is determined in step S1 that the still image is input, first, the video input from the camera unit 1 is processed by the video signal processing unit 3 and is processed via the video synthesis memory unit 18, the graphic synthesis unit 13, and the video output unit 15. Output to the monitor 16.

【0035】次に、操作部7より静止画像入力の指示が
あった場合は、全体制御部5で静止画像取込みの領域を
示すグラフィックデータ(例えば、領域を囲むワクな
ど)と撮像範囲を制御する操作方法を示すグラフィック
データをグラフィックメモリ部14(例えば、ズームや
パン、チルト等の操作画面)に書き込み、撮影中の画像
と合成してモニタ16に表示する。次に、表示されてい
るグラフィック画面により、操作部7からの制御により
レンズ制御部12、カメラ部1を制御して静止画像の撮
像領域を設定し、静止画像の取込を開始する。
Next, when an instruction to input a still image is given from the operation unit 7, the overall control unit 5 controls the graphic data (for example, a frame surrounding the region) indicating the region for capturing the still image and the imaging range. The graphic data indicating the operation method is written in the graphic memory unit 14 (for example, an operation screen for zooming, panning, tilting, etc.), combined with the image being photographed, and displayed on the monitor 16. Next, on the displayed graphic screen, the lens control unit 12 and the camera unit 1 are controlled under the control of the operation unit 7 to set the image pickup area of the still image, and the capturing of the still image is started.

【0036】次に、ステップS5で全領域高画質画像入
力するか否かを判断し、全領域高画質入力を行う場合
は、ステップS6で高画質入力の解像度を設定した後、
ステップS7で画面分割数nを設定する。次にステップ
S8でm=0とし、ステップS9でm=m+1とした
後、ステップS10で最初の撮像領域に駆動部21を制
御して位置を合わせる。そしてステップS11で映像を
入力し、映像信号処理された画像データはステップS1
2で映像合成処理部17により映像合成メモリ部18に
記憶される。映像合成メモリ部18に画像データを記憶
する際には取込む複数画面が重ならないように映像合成
処理部17によりメモリの範囲が指定されている。こう
して、最初の画像データが映像合成メモリ部18の所定
領域に記憶される。
Next, in step S5, it is determined whether or not the entire area high quality image is to be input. If the entire area high quality image is to be input, after setting the resolution of the high quality image input in step S6,
In step S7, the screen division number n is set. Next, m = 0 is set in step S8, and m = m + 1 is set in step S9. Then, in step S10, the drive unit 21 is controlled to align the position with the first imaging region. Then, in step S11, the video is input, and the image data subjected to the video signal processing is processed in step S1.
In step 2, the image composition processing unit 17 stores the image composition in the image composition memory unit 18. When storing the image data in the video composition memory unit 18, the range of the memory is designated by the video composition processing unit 17 so that the plurality of screens to be captured do not overlap. In this way, the first image data is stored in the predetermined area of the video synthesis memory unit 18.

【0037】ステップS9〜S12の動作を画面の分割
数n回まで繰返し、ステップS13でn=mとなり、最
初に指定した画面分割数分を取込み完了すると、ステッ
プS14でその取込まれた全ての画像データを全体制御
5が蓄積部6に蓄積する。その後は、ステップS1の動
画像モードと静止画像モードとの選択に戻る。
The operations of steps S9 to S12 are repeated until the number of screen divisions n times, and n = m in step S13. When the first designated number of screen divisions have been captured, all of the captured screens are retrieved in step S14. The overall control 5 stores the image data in the storage unit 6. After that, the process returns to the selection of the moving image mode and the still image mode in step S1.

【0038】次に、ステップS5で静止画像入力の全領
域高画質入力しない場合は、まず、映像合成メモリ部1
8に記憶された画像データが全体制御部5に転送され、
さらにステップS16〜S20により映像データと取込
み枠のデータとが蓄積部6に蓄積される。次に、ステッ
プS21で部分的高画質入力をするか否かを判断し、し
ない場合は、そのままステップS15からステップS1
の動画像モードと静止画像モードとの選択に戻る。
Next, in step S5, if the high image quality of the entire area of the still image input is not performed, first, the video composition memory unit 1
The image data stored in 8 is transferred to the overall control unit 5,
Further, in steps S16 to S20, the video data and the data of the capture frame are stored in the storage unit 6. Next, in step S21, it is determined whether or not partial high image quality input is performed. If not, step S15 to step S1
Return to the selection of the moving image mode and the still image mode.

【0039】部分的高画質入力をする場合には、ステッ
プS22でグラフィックデータにより指定領域を示すワ
クを映像データに合成して表示する。次に、ステップS
23〜S27による各処理が行われる。まず、操作部7
からその領域ワクを指定領域に設定し、高画質入力の解
像度を設定した後、高画質静止画像入力を開始する。ま
ず、指定された領域が表示画面の中心になるように駆動
部2を制御して撮像位置を移動して合わせる。次に、設
定された解像度に合わせるために、レンズ制御部12を
制御して、撮像領域を望遠側に変倍し撮像範囲内に合わ
せる。
In the case of inputting a partial high image quality, in step S22, a frame indicating a designated area is combined with video data by graphic data and displayed. Next, step S
Each processing in 23 to S27 is performed. First, the operation unit 7
After that, the area frame is set to the designated area, the resolution of the high image quality input is set, and then the high image quality still image input is started. First, the drive unit 2 is controlled so that the designated area becomes the center of the display screen, and the imaging position is moved and adjusted. Next, in order to match the set resolution, the lens control unit 12 is controlled to change the magnification of the image pickup area to the telephoto side and adjust the image pickup area within the image pickup range.

【0040】図13に上記の撮像領域の自動制御方法を
示すもので、ステップS27〜S31により行われる。
最初に取り込み蓄積された静止画像の領域は(X0 ,Y
0 )、(X1 ,Y1 )、(X2 ,Y2 )、(X3
3 )で示されており、その領域内での高画質入力の指
定領域が、(x0 ,y0 )、(x1 ,y1 )、(x2
2 )、(x3 ,y 3 )で示されている。ここで、ま
ず、高画質入力に指定された領域を映像領域の中央にす
るために、(X0 ,Y0 )、(X1 ,Y1 )、(X2
2 )、(X3 ,Y3 )から(X′ 0 ,Y′0 )、
(X′1 ,Y′1 )、(X′2 ,Y′2 )、(X′3
Y′3 )になるように撮像領域を移動させる。この移動
量は、(X0 ,Y0 )、(X1 ,Y1 )、(X2
2 )、(X3 ,Y3 )の中心位置と(x0 ,y0 )、
(x1 ,y1 )、(x2 ,y2 )、(x3,y3 )の中
心位置のずれ分で算出される。
FIG. 13 shows an automatic control method of the above-mentioned image pickup area.
This is shown, and is performed by steps S27 to S31.
The area of the still image that is first captured and stored is (X0, Y
0), (X1, Y1), (X2, Y2), (XThree,
YThree), And the high-quality input finger within that area.
The constant area is (x0, Y0), (X1, Y1), (X2,
y2), (XThree, Y Three). Where
The area specified for high-quality input in the center of the video area.
In order to0, Y0), (X1, Y1), (X2,
Y2), (XThree, YThree) To (X ′ 0, Y '0),
(X '1, Y '1), (X '2, Y '2), (X 'Three,
Y 'Three), The image pickup area is moved. This move
The amount is (X0, Y0), (X1, Y1), (X2,
Y2), (XThree, YThree) Center position and (x0, Y0),
(X1, Y1), (X2, Y2), (XThree, YThree)in
It is calculated by the deviation of the heart position.

【0041】次に、解像度に合わせて指定領域を変倍す
るためには、(X′0 ,Y′0 )、(X′1
Y′1 )、(X′2 ,Y′2 )、(X′3 ,Y′3 )か
ら(X′′0,Y′′0 )、(X′′1 ,Y′′1 )、
(X′′2 ,Y′′2 )、(X′′3,Y′′3 )に撮
像領域を変倍させる。その変倍量は、指定された解像度
と最初に取込み蓄積された静止画像の解像度との倍率に
より変倍率が算出される。次に、指定された撮像領域が
一度で取り込めるか否かを判断し、一度で取り込める場
合には、映像メモリ部4に(X′′0 ,Y′′0 )、
(X′′1 ,Y′′ 1 )、(X′′2 ,Y′′2 )、
(X′′3 ,Y′′3 )の領域の画像データを記憶す
る。
Next, the designated area is resized according to the resolution.
In order to0, Y '0), (X '1,
Y '1), (X '2, Y '2), (X 'Three, Y 'Three)
Et al (X ″0, Y ″0), (X ″1, Y ″1),
(X ″2, Y ″2), (X ″Three, Y ″Three) Taken to
Scale the image area. The scaling factor is the specified resolution
And the resolution of the first captured and accumulated still image
The scaling factor is calculated from this. Next, if the specified imaging area
A place where you can import at once by judging whether it can be imported at once
If it is (X ″ ′),0, Y ″0),
(X ″1, Y ″ 1), (X ″2, Y ″2),
(X ″Three, Y ″Three) Area image data
You.

【0042】全体制御部5は、記憶された画像データの
中から更に指定された領域である(x0 ,y0 )、(x
1 ,y1 )、(x2 ,y2 )、(x3 ,y3 )の画像デ
ータのみを抽出して、ステップS32で蓄積部6に蓄積
する。その蓄積時には、最初に蓄積した画像データに追
加登録される、あるいは関連づけて蓄積される。また、
画像データに関連する情報(位置情報、解像度情報、デ
ータ種別など)も共に蓄積される。
The overall control unit 5 is an area (x 0 , y 0 ), (x 0 ) which is further specified from the stored image data.
Only the image data of 1 , y 1 ), (x 2 , y 2 ) and (x 3 , y 3 ) are extracted and stored in the storage unit 6 in step S32. At the time of the storage, the image data that is initially stored is additionally registered or is stored in association with it. Also,
Information related to the image data (position information, resolution information, data type, etc.) is also stored together.

【0043】次に、指定された撮像領域が一度で取り込
めるか否かを判断して、一度で取り込めない場合は、ス
テップS33で指定された解像度から画面分割数nを算
出する。次にステップS34〜S39が行われる。最初
の撮像領域に駆動部2およびレンズ制御部12を制御し
て位置を合わせ、映像を入力し映像信号処理された画像
データは映像合成処理部17により映像合成メモリ部1
8に記憶される。映像合成メモリ部18に画像データを
記録する際には取込む複数画面が重ならないよう映像合
成処理部3によりメモリの範囲が指定されている。こう
して、最初の画像データが映像合成メモリ部18の所定
領域に記憶される。この動作を画面の分割数分まで繰返
し、最初に指定した画面分割数分を取込み完了する。そ
の際に映像合成メモリ部18には、(X′′0 ,Y′′
0 )、(X′′1 ,Y′′1 )、(X′′2
Y′′2 )、(X′′3 ,Y′′3 )の領域画像データ
が記憶されている。
Next, it is judged whether or not the designated image pickup area can be captured at once, and if it cannot be captured at once, the screen division number n is calculated from the resolution designated in step S33. Next, steps S34 to S39 are performed. The image data obtained by controlling the drive unit 2 and the lens control unit 12 to align the position with the first imaging area, inputting the image, and performing the image signal processing is performed by the image composition processing unit 17 on the image composition memory unit 1.
8 is stored. When recording image data in the video composition memory unit 18, the range of the memory is specified by the video composition processing unit 3 so that a plurality of screens to be captured do not overlap. In this way, the first image data is stored in the predetermined area of the video synthesis memory unit 18. This operation is repeated up to the number of screen divisions, and the first specified number of screen divisions is acquired and completed. At this time, the video composition memory unit 18 stores (X ″ 0 , Y ″)
0 ), (X ″ 1 , Y ″ 1 ), (X ″ 2 ,
Area image data of Y ″ ″ 2 ) and (X ″ 3 , Y ″ 3 ) are stored.

【0044】次にステップS40〜43が行われ、上記
記憶されている画像データの中から(x0 ,y0 )、
(x1 ,y1 )、(x2 ,y2 )、(x3 ,y3 )のみ
を抽出して、蓄積部6に蓄積する。その後は、動画像モ
ードと静止画像モードの選択に戻る。このようにして指
定した領域を自動的に高画質入力することが可能にな
る。
Next, steps S40 to S43 are performed, and (x 0 , y 0 ) among the stored image data is
Only (x 1 , y 1 ), (x 2 , y 2 ), (x 3 , y 3 ) are extracted and stored in the storage unit 6. After that, the process returns to the selection of the moving image mode and the still image mode. In this way, it becomes possible to automatically input high image quality in the designated area.

【0045】[0045]

【発明の効果】以上説明したように、本発明によれば、
映像入力装置によりモニタを見ながらリアルタイムに静
止画像の取込領域を制御して所望の位置に合わせて取込
むことが可能になる。また取込んだ静止画像の中で高画
質に取込みたい領域をモニタを見ながら位置指定し、解
像度を指定することにより、自動的にその領域を高画質
な静止画像で取り込むことが可能になる。従って、高画
質静止画像を取り込む場合に、従来のように必ず全画面
を高画質静止画像で取込む必要がないので、全画面のう
ちの一部のみ高画質な画像が必要な場合、例えば、自然
画像や細かい文字などにはめ込まれているような場合に
は、その部分のみ高画質に取込むことにより、無駄な高
画質データを取り込まなくて済み、経済的であるという
効果がある。また、表示や転送や処理などによる処理時
間も従来よりも短い時間で処理できるという効果があ
る。また、領域指定することによりその後は自動的に高
画質静止画像を取込むことができるので、便利性が向上
するという効果もある。
As described above, according to the present invention,
With the video input device, it is possible to control the capture area of a still image in real time while observing the monitor and capture it at a desired position. Further, by designating the position of the region of the captured still image that is desired to be captured with high image quality while looking at the monitor and designating the resolution, it is possible to automatically capture the region as a high quality still image. Therefore, when capturing a high-quality still image, it is not necessary to capture the entire screen as a high-quality still image as in the conventional case. Therefore, when only a part of the entire screen is required to have a high-quality image, for example, In the case where the image is embedded in a natural image or fine characters, only that part is captured with high image quality, so that it is unnecessary to capture useless high image quality data, which is economical. Further, there is an effect that the processing time for display, transfer, processing, etc. can be processed in a shorter time than before. Further, by designating an area, a high-quality still image can be automatically captured thereafter, which has the effect of improving convenience.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の第1の実施例を示すブロック図であ
る。
FIG. 1 is a block diagram showing a first embodiment of the present invention.

【図2】本発明の第2の実施例を示すブロック図であ
る。
FIG. 2 is a block diagram showing a second embodiment of the present invention.

【図3】カメラ部の内部を示すブロック図である。FIG. 3 is a block diagram showing the inside of a camera unit.

【図4】映像入力処理部の内部構成を示すブロック図で
ある。
FIG. 4 is a block diagram showing an internal configuration of a video input processing unit.

【図5】光電変換素子上のフィルタ配列を示すブロック
図である。
FIG. 5 is a block diagram showing a filter array on a photoelectric conversion element.

【図6】撮像素子からのデータ読みだしモードを示す構
成図である。
FIG. 6 is a configuration diagram showing a data reading mode from the image sensor.

【図7】高画質の映像入力方法を示す構成図である。FIG. 7 is a configuration diagram showing a high-quality image input method.

【図8】平行平板による光軸のずれの説明図である。FIG. 8 is an explanatory diagram of an optical axis shift caused by a parallel plate.

【図9】画素ずらしによる撮像イメージを示す構成図で
ある。
FIG. 9 is a configuration diagram showing an imaged image by pixel shifting.

【図10】高画質静止画像入力の動作方法を示すフロー
チャートである。
FIG. 10 is a flowchart showing an operation method for inputting a high-quality still image.

【図11】高画質静止画像入力の動作方法を示すフロー
チャートである。
FIG. 11 is a flowchart showing an operation method for inputting a high-quality still image.

【図12】高画質静止画像入力の動作方法を示すフロー
チャートである。
FIG. 12 is a flowchart showing an operation method for inputting a high-quality still image.

【図13】映像領域の自動制御方法を示す構成図であ
る。
FIG. 13 is a configuration diagram showing an automatic control method of a video area.

【図14】従来の映像入力装置を示すブロック図であ
る。
FIG. 14 is a block diagram showing a conventional video input device.

【図15】従来の映像入力装置の動作を示すフローチャ
ートである。
FIG. 15 is a flowchart showing the operation of a conventional video input device.

【符号の説明】[Explanation of symbols]

1 カメラ部 2 駆動部 3 映像入力処理部 4 映像メモリ部 5 全体制御部 6 蓄積部 11 レンズ部 12 レンズ制御部 13 グラフィック合成部 14 グラフィックメモリ部 15 映像出力処理部 16 モニタ 17 映像合成処理部 18 映像合成メモリ部 20 画素ずらしデータ合成処理部 21 画像ずらしデータメモリ部 22 静止画処理部 1 Camera Section 2 Driving Section 3 Video Input Processing Section 4 Video Memory Section 5 Overall Control Section 6 Storage Section 11 Lens Section 12 Lens Control Section 13 Graphic Synthesis Section 14 Graphic Memory Section 15 Video Output Processing Section 16 Monitor 17 Video Synthesis Processing Section 18 Video synthesis memory unit 20 Pixel shift data synthesis processing unit 21 Image shift data memory unit 22 Still image processing unit

Claims (2)

【特許請求の範囲】[Claims] 【請求項1】 カメラ部から映像入力して静止画像を取
込む映像入力処理装置において、 上記カメラ部から入力した画像を記憶する第1の記憶手
段と、 上記第1の記憶手段に記憶した画像データを蓄積する第
1の蓄積手段と、 高解像度画像の領域を指定する高解像領域指定手段と、 上記高解像領域指定手段により指定された領域を示すグ
ラフィックデータを上記第1の記憶手段により記憶され
た画像データと合成して表示する合成表示手段と、 上記高解像領域指定手段により指定された領域情報に基
づいて撮像領域を移動する撮像領域移動手段と、 上記高解像領域指定手段により指定された領域情報に基
づいて撮像領域を変倍する撮像領域変倍手段と、 上記撮像領域移動手段と撮像領域変倍手段により上記指
定された画像データを蓄積する第2の蓄積手段と、 上記第1の蓄積手段により蓄積された画像データと上記
第2の蓄積手段で蓄積された画像データとを領域情報と
共に管理する管理手段とを設けたことを特徴とする映像
入力装置。
1. A video input processing apparatus for inputting a video from a camera unit to capture a still image, comprising: first storage means for storing an image input from the camera unit; and an image stored in the first storage means. First storage means for storing data, high-resolution area designating means for designating a high-resolution image area, and graphic data showing the area designated by the high-resolution area designating means are stored in the first storage means. Combining display means for combining with the image data stored by the display means, an image pickup area moving means for moving the image pickup area based on the area information designated by the high resolution area designating means, and the high resolution area designation Image pickup area scaling means for scaling the image pickup area based on the area information designated by the means, and storing the designated image data by the image pickup area moving means and the image pickup area scaling means. A second storage means and a management means for managing the image data stored by the first storage means and the image data stored by the second storage means together with the area information are provided. Video input device.
【請求項2】 高解像度画像の解像度を指定する解像度
指定手段と、 上記高解像領域指定手段により指定された領域が上記解
像度指定手段により指定された解像度で一括取込ができ
ないときに、画面分割により取り込む画面分割取込手段
とを設けたことを特徴とする請求項1記載の映像入力装
置。
2. A screen designating a resolution designating means for designating the resolution of the high resolution image and a screen designated when the area designated by the high resolution area designating means cannot be collectively fetched at the resolution designated by the resolution designating means. The image input device according to claim 1, further comprising: a screen division capturing means for capturing by dividing.
JP19832795A 1995-08-03 1995-08-03 Video input device Expired - Fee Related JP3658049B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP19832795A JP3658049B2 (en) 1995-08-03 1995-08-03 Video input device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP19832795A JP3658049B2 (en) 1995-08-03 1995-08-03 Video input device

Publications (2)

Publication Number Publication Date
JPH0951458A true JPH0951458A (en) 1997-02-18
JP3658049B2 JP3658049B2 (en) 2005-06-08

Family

ID=16389271

Family Applications (1)

Application Number Title Priority Date Filing Date
JP19832795A Expired - Fee Related JP3658049B2 (en) 1995-08-03 1995-08-03 Video input device

Country Status (1)

Country Link
JP (1) JP3658049B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000032337A (en) * 1998-07-14 2000-01-28 Sony Corp Image synthesizing device

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0396081A (en) * 1989-09-07 1991-04-22 Victor Co Of Japan Ltd Input device and recording and reproducing system for still picture
JPH04249292A (en) * 1991-02-05 1992-09-04 Minolta Camera Co Ltd System and device for image display
JPH06178292A (en) * 1992-12-01 1994-06-24 Nippon Telegr & Teleph Corp <Ntt> Picture revision device
JPH0721342A (en) * 1993-06-16 1995-01-24 Ricoh Co Ltd Electronic file device
JPH07170442A (en) * 1994-11-16 1995-07-04 Olympus Optical Co Ltd Camera
JPH07181954A (en) * 1993-12-22 1995-07-21 Nippon Telegr & Teleph Corp <Ntt> Variable magnification video display method
JPH08214201A (en) * 1994-11-28 1996-08-20 Canon Inc Image pickup device

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0396081A (en) * 1989-09-07 1991-04-22 Victor Co Of Japan Ltd Input device and recording and reproducing system for still picture
JPH04249292A (en) * 1991-02-05 1992-09-04 Minolta Camera Co Ltd System and device for image display
JPH06178292A (en) * 1992-12-01 1994-06-24 Nippon Telegr & Teleph Corp <Ntt> Picture revision device
JPH0721342A (en) * 1993-06-16 1995-01-24 Ricoh Co Ltd Electronic file device
JPH07181954A (en) * 1993-12-22 1995-07-21 Nippon Telegr & Teleph Corp <Ntt> Variable magnification video display method
JPH07170442A (en) * 1994-11-16 1995-07-04 Olympus Optical Co Ltd Camera
JPH08214201A (en) * 1994-11-28 1996-08-20 Canon Inc Image pickup device

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000032337A (en) * 1998-07-14 2000-01-28 Sony Corp Image synthesizing device

Also Published As

Publication number Publication date
JP3658049B2 (en) 2005-06-08

Similar Documents

Publication Publication Date Title
JP4503878B2 (en) Imaging apparatus and imaging method
EP0840503B1 (en) Electronic imaging apparatus
US6778216B1 (en) Method and apparatus for digital camera real-time image correction in preview mode
JP4596988B2 (en) Imaging device
US8964094B2 (en) Imaging device, imaging method and imaging program for producing image data on the basis of a plurality of signals transmitted from an image element
JP5108802B2 (en) Imaging apparatus and through image display method thereof
JP3298545B2 (en) Digital camera, image processing method, and storage medium
JP4616429B2 (en) Image processing device
JP3738652B2 (en) Digital camera
JP4596987B2 (en) Imaging device
EP1045594A2 (en) Programmable real-time image processing
JP3444281B2 (en) IMAGE PROCESSING SYSTEM, IMAGING DEVICE, IMAGE PROCESSING METHOD, AND RECORDING MEDIUM CONTAINING PROCESSING PROGRAM OF THE METHOD
US6677998B1 (en) Solid-state electronic image sensing device and method of controlling operation of same
JP3658049B2 (en) Video input device
JP3397397B2 (en) Imaging device
JP5790808B2 (en) Imaging device
JP3738654B2 (en) Digital camera
JPH07322149A (en) Image pickup device
JPH09181951A (en) Video input device
JPH09181960A (en) Video input device
JP2001197348A (en) Electronic camera
JP4022682B2 (en) Imaging apparatus and image output method
JP4077247B2 (en) Imaging method, imaging apparatus, and image information processing apparatus
JPH09116805A (en) Automatic focus adjustment device
JP4139432B1 (en) Imaging method, imaging apparatus, and image information processing apparatus

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20040616

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20050301

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20050311

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080318

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090318

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100318

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100318

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110318

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120318

Year of fee payment: 7

LAPS Cancellation because of no payment of annual fees