JP2005286452A - Video image generating system - Google Patents

Video image generating system Download PDF

Info

Publication number
JP2005286452A
JP2005286452A JP2004094145A JP2004094145A JP2005286452A JP 2005286452 A JP2005286452 A JP 2005286452A JP 2004094145 A JP2004094145 A JP 2004094145A JP 2004094145 A JP2004094145 A JP 2004094145A JP 2005286452 A JP2005286452 A JP 2005286452A
Authority
JP
Japan
Prior art keywords
camera
zoom
video
zoom value
correction parameter
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2004094145A
Other languages
Japanese (ja)
Other versions
JP4211653B2 (en
Inventor
Michio Oikawa
道雄 及川
Takeshi Minagawa
剛 皆川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2004094145A priority Critical patent/JP4211653B2/en
Publication of JP2005286452A publication Critical patent/JP2005286452A/en
Application granted granted Critical
Publication of JP4211653B2 publication Critical patent/JP4211653B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Studio Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To solve a problem of a conventional apparatus for generating and displaying a high resolution video image with a wide visual field by a multi-camera that has difficulty of realizing a zoom function with distortion correction. <P>SOLUTION: A video image generating system includes: a means for utilizing distortion correction parameters stored in response to a plurality of zoom values so as to calculate a distortion correction parameter corresponding to a present zoom value; and a means for applying distortion correction in response to the zoom value to each of camera images and synthesizes and displays a video image with high resolution and natural wide visual field resulting from the video images and the distortion of which is corrected. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、ズーミング機能を有する複数のカメラ(マルチカメラ)により広視野かつ高解像度の映像を撮影し、歪み補正を行い映像を生成、表示する方法及び装置に関する。   The present invention relates to a method and apparatus for capturing a wide-field and high-resolution video by using a plurality of cameras (multi-cameras) having a zooming function, generating distortion, and generating and displaying the video.

大画面ディスプレイの発展により、大画面の映像コンテンツが必要とされてきている。そのようなコンテンツを撮影するために、マルチカメラを利用した手法が提案されている。   With the development of large screen displays, video content on a large screen has been required. In order to capture such content, a technique using a multi-camera has been proposed.

従来のマルチカメラを用いた広視野の映像を撮影する方法としては、下記特許文献1,2に記載のように、広視野をカバーするように、立体的にかつ放射状に配置して撮影し、各カメラで撮影された映像をつなぎあわせることにより、広視野の映像を生成するものである。これらでは、全周映像を撮影するためのカメラ配置方法や撮影した映像から一部を切り出した映像を生成する方法などについて開示されている。   As a method of shooting a wide-field image using a conventional multi-camera, as described in Patent Documents 1 and 2 below, in order to cover a wide field of view, shoot three-dimensionally and radially, Wide field of view images are generated by connecting the images taken by each camera. In these, a camera arrangement method for capturing an all-round video, a method for generating a video cut out from a captured video, and the like are disclosed.

また,ズームつきカメラの歪曲収差を補正するシステムについては、下記特許文献3に記載のように、あるズーム値以上の場合に事前に設定した歪み補正曲線により補正する方法,または,下記特許文献4に記載のように、複数のズーム位置に対して、無限遠と最至近に対する歪曲収差補正データを記憶することにより、少ないデータで補正を可能とする方法が知られている。   As for a system for correcting distortion aberration of a camera with a zoom, as described in Patent Document 3 below, a method of correcting with a distortion correction curve set in advance when a zoom value exceeds a certain zoom value, or Patent Document 4 below. As described in (1), a method is known that enables correction with a small amount of data by storing distortion correction data for infinity and the closest distance for a plurality of zoom positions.

米国特許6141034号US Patent 6141034 特開2001−94857号公報JP 2001-94857 A 特開平11−252431号公報Japanese Patent Application Laid-Open No. 11-252431 特開2002−125175号公報JP 2002-125175 A

しかしながら、上記の従来技術では、マルチカメラで撮影する際に、通常1台のカメラであれば可能であるズーミング機能について、マルチカメラにより実現する方法については示されていない。   However, the above-described prior art does not show a method for realizing a zooming function that can be normally performed by one camera when shooting with a multi-camera.

また、マルチカメラにより撮影された映像をつなげる際には、各カメラ映像の歪みを補正することが重要となるが、上記特許文献3の従来技術では、ある範囲のズームを行った場合にのみ歪み補正を行うため、マルチカメラのカメラ間の映像のつなぎあわせについて考慮されていない。   In addition, when connecting images shot by a multi-camera, it is important to correct the distortion of each camera image. However, in the prior art disclosed in Patent Document 3, the distortion only occurs when a certain range of zooming is performed. Since correction is performed, the stitching of images between cameras of the multi-camera is not considered.

さらに,上記特許文献4の従来技術では、記憶する歪み補正パラメータについて、被写体までの距離に応じた歪曲収差を補正するデータ量は削減しているが、カメラがとりうるすべてのズーム値に対して補正データを記憶するため、カメラのズーム値は離散的にならざるを得ず、ズーム値のステップを細かくする毎にデータが多くなる。   Furthermore, in the conventional technique of Patent Document 4, the amount of data for correcting distortion aberration according to the distance to the subject is reduced for the distortion correction parameters stored, but for all zoom values that the camera can take. Since the correction data is stored, the zoom value of the camera must be discrete, and the data increases each time the zoom value step is made finer.

本発明は、撮影対象を複数の撮影手段に分けて撮影する映像生成/表示システムであって、複数の撮影手段によるズーム撮影を可能とすることを目的とする。   The present invention is a video generation / display system that shoots an object to be imaged by dividing it into a plurality of imaging means, and an object thereof is to enable zoom imaging with a plurality of imaging means.

他の目的として、少ないデータ量により、カメラの歪みを補正し、自然な、広視野の、高解像度な映像を生成し、表示することを目的とする。   Another object is to generate and display a natural, wide-field, high-resolution video by correcting camera distortion with a small amount of data.

上記目的を達成するために、複数のズーム値に対応した歪み補正パラメータを記憶する手段と、前記記憶された歪み補正パラメータから現在のズーム値に応じた歪み補正パラメータを算出する手段と、マルチカメラを歪み補正後の各カメラの映像が重なりを持つように配置する手段と、各マルチカメラ映像から歪みのない一つの映像を生成する手段または、表示する手段を有するものである。また、ユーザからの要求によりズーミングを行うために、各カメラのズーム値を制御する手段を用いるものである。   In order to achieve the above object, means for storing distortion correction parameters corresponding to a plurality of zoom values, means for calculating distortion correction parameters according to the current zoom value from the stored distortion correction parameters, and a multi-camera Are arranged so that the images of the cameras after distortion correction overlap each other, and means for generating or displaying one image without distortion from each multi-camera image. In addition, means for controlling the zoom value of each camera is used in order to perform zooming according to a request from the user.

本発明によれば、マルチカメラにより自然な広視野、高解像度の映像を生成、表示できるだけでなく、ズーム値に応じた歪み補正パラメータ算出とカメラ位置姿勢制御を利用することにより、少ない記憶容量により歪み補正されたズーム映像を生成、表示することが可能となる。   According to the present invention, it is possible not only to generate and display a natural wide field of view and high resolution video by a multi-camera, but also by using distortion correction parameter calculation according to the zoom value and camera position and orientation control, with a small storage capacity. A distortion-corrected zoom image can be generated and displayed.

以下、実施例を用いて説明する。   Hereinafter, description will be made using examples.

以下、実施例の概要について、図2を用いて説明する。   Hereinafter, the outline of the embodiment will be described with reference to FIG.

本実施例では、N台のカメラから構成されるマルチカメラで、カメラ1(図中20)〜カメラN(図中21)で、撮影対象の一部又は全部をそれぞれ撮影する。   In the present embodiment, a multi-camera composed of N cameras is used to shoot a part or all of a shooting target with the camera 1 (20 in the figure) to the camera N (21 in the figure).

ユーザは希望のズームになるように、映像表示手段39を見ながらズーム値をズーム値協調制御手段24に入力し、ズーム操作を行う。ズーム値協調制御手段24は、あらかじめ設定しておいた、ユーザの入力に応じた各カメラのズーム値をカメラ1〜カメラNに設定する。同時に、ズーム値協調制御手段24はカメラ位置姿勢協調制御手段25にズーム値情報を伝達し、カメラ位置姿勢協調制御手段25は、事前に視野角記憶手段26に記憶しておいた各カメラの映像の歪み補正後の視野角を用い、ズーム値に応じて各カメラの映像が重なりを持つように求めたカメラの位置と向きになるよう、各カメラを制御する。   The user inputs a zoom value to the zoom value cooperative control unit 24 while viewing the video display unit 39 so as to achieve a desired zoom, and performs a zoom operation. The zoom value cooperative control unit 24 sets the zoom value of each camera corresponding to the user input, which is set in advance, in the cameras 1 to N. At the same time, the zoom value cooperative control unit 24 transmits the zoom value information to the camera position / orientation cooperative control unit 25, and the camera position / orientation cooperative control unit 25 stores the video of each camera stored in the viewing angle storage unit 26 in advance. Each camera is controlled so as to be in the position and orientation of the camera determined so that the images of the cameras overlap with each other according to the zoom value.

続いて、カメラ1の映像についての歪み補正について説明する。図中28のズーム値対応補正パラメータ算出手段1は、カメラ1の複数のズーム値に対応した補正パラメータ記憶手段1(図中30)に記憶されたデータを用い、ズーム値協調制御手段24により設定されたズーム値に対応した補正パラメータを算出し、ズーム値対応補正パラメータ記憶手段1(図中32)へ記憶する。カメラ映像補正手段1(図中36)はズーム値対応補正パラメータ記憶手段1に記憶された補正パラメータを利用し、カメラ1で撮影された映像の歪みをリアルタイムに補正する。   Next, distortion correction for the video of the camera 1 will be described. The zoom value corresponding correction parameter calculation means 1 28 in the figure is set by the zoom value cooperative control means 24 using data stored in the correction parameter storage means 1 (30 in the figure) corresponding to a plurality of zoom values of the camera 1. The correction parameter corresponding to the zoom value thus calculated is calculated and stored in the zoom value corresponding correction parameter storage means 1 (32 in the figure). The camera video correction means 1 (36 in the figure) corrects distortion of the video taken by the camera 1 in real time using the correction parameters stored in the zoom value corresponding correction parameter storage means 1.

同様に、各カメラでも歪み補正を行う。カメラNにおいては、補正パラメータ記憶手段N(図中31)に記憶された複数のズーム値に対応した歪み補正パラメータを利用し、ズーム値対応補正パラメータ算出手段(図中29)により、現在のカメラNのズーム値に対応した補正パラメータを算出し、ズーム値対応補正パラメータ記憶手段N(図中33)に記憶する。そして、ズーム値対応補正パラメータ記憶手段Nに記憶されたデータを用い、カメラ映像補正手段N(図中37)は、カメラNの映像をリアルタイムに補正する。   Similarly, each camera performs distortion correction. In the camera N, distortion correction parameters corresponding to a plurality of zoom values stored in the correction parameter storage means N (31 in the figure) are used, and the current camera is selected by the zoom value corresponding correction parameter calculation means (29 in the figure). A correction parameter corresponding to the zoom value of N is calculated and stored in the zoom value correction parameter storage means N (33 in the figure). Then, using the data stored in the zoom value corresponding correction parameter storage means N, the camera video correction means N (37 in the figure) corrects the video of the camera N in real time.

映像合成手段38は各カメラの歪み補正された映像を入力とし、各映像の重なりを利用して1つの映像を生成する。映像表示手段39は、映像合成手段にて生成された映像、あるいは、カメラ映像補正手段1〜Nにより出力された各カメラの歪み補正された映像を入力とし、ディスプレイ装置(複数のプロジェクタを用いた高解像度ディスプレイなど)に表示する。   The video synthesizing means 38 receives the video whose distortion has been corrected by each camera and generates one video by using the overlap of the videos. The video display means 39 receives the video generated by the video synthesizing means or the distortion-corrected video of each camera output from the camera video correction means 1 to N, and uses a display device (using a plurality of projectors). On a high-resolution display).

以上のような手段を実現する装置構成例を図3、及び、図4に示す。ユーザはズーム設定部61を用いて、映像表示部72に表示されたマルチカメラで撮影された高精細広視野映像の視野角を設定する(ステップ201)。ズーム設定部61にて設定されたズーム値は、例えば、最も広角側を0、狭角側を1とし、その間の値を比率に応じて小数点で表したズーム比率を用いるものとする。ズーム値協調制御部62では、各カメラ固有のズーム範囲において、最も広角側を0、狭角側を1として、ユーザが設定したズーム比率を用い、各カメラのズーム値を設定する(ステップ202)。ここで、各カメラのズーム値は、注視方向を含むカメラの解像度が高くなるように設定するなどの方法を用いても良い。   3 and 4 show examples of the device configuration that realizes the above means. The user uses the zoom setting unit 61 to set the viewing angle of the high-definition wide-field image captured by the multi-camera displayed on the video display unit 72 (step 201). The zoom value set by the zoom setting unit 61 is, for example, a zoom ratio in which the wide angle side is 0 and the narrow angle side is 1, and a value between them is represented by a decimal point according to the ratio. The zoom value cooperative control unit 62 sets the zoom value of each camera using the zoom ratio set by the user, with the wide angle side set to 0 and the narrow angle side set to 1 in the zoom range unique to each camera (step 202). . Here, a method of setting the zoom value of each camera so as to increase the resolution of the camera including the gaze direction may be used.

カメラ位置姿勢制御部64では、事前に求めておいた、各カメラ毎のズーム値と視野角の関係を示すデータをズーム設定用パラメータ記憶部63より取得し、ステップ202にて設定されたズーム値に対応する視野角を求める(ステップ203)。ステップ203にて求められた各カメラの視野が、事前に設定し、ズーム設定用パラメータ記憶部63に記憶しておいた理想視点からの距離(以下指定交差距離とする)において重なるように、各カメラの位置姿勢を求める(ステップ204)。   The camera position / orientation control unit 64 obtains data indicating the relationship between the zoom value and the viewing angle for each camera, which has been obtained in advance, from the zoom setting parameter storage unit 63, and the zoom value set in step 202. Is obtained (step 203). Each camera field of view determined in step 203 is set in advance and overlaps at a distance from the ideal viewpoint stored in the zoom setting parameter storage unit 63 (hereinafter, designated intersection distance). The position and orientation of the camera are obtained (step 204).

例えば図1のような場合、理想視点1から各カメラは一定の距離に配置するとし、理想視点1を中心とした極座標で、カメラ3の主軸6を0度として、カメラの姿勢を求めるものとする。カメラ2の姿勢は、時計回り方向の正の値をもつ角度16(図1(b)では、角度18)により、カメラ4の姿勢は負の値を持つ角度17(図1(b)では、角度19)により制御する。なお極座標は1方向の回転角度を用い、360度の範囲で制御してもよい。   For example, in the case of FIG. 1, each camera is arranged at a certain distance from the ideal viewpoint 1, and the camera's posture is obtained with polar coordinates centered on the ideal viewpoint 1 and the main axis 6 of the camera 3 being 0 degrees. To do. The posture of the camera 2 is an angle 16 having a positive value in the clockwise direction (angle 18 in FIG. 1B), and the posture of the camera 4 is an angle 17 having a negative value (in FIG. 1B, Control by angle 19). The polar coordinates may be controlled within a range of 360 degrees using a rotation angle in one direction.

カメラの可動範囲についての設計情報を元に、カメラがステップ204で求めた位置姿勢を取れるかをチェックし(ステップ205)、可動範囲内であれば、カメラ位置姿勢協調制御部64により、ステップ204で求めた位置姿勢へ各カメラを移動する(ステップ206)。可動範囲外の場合には、設定できないというエラー情報を出すなどのエラー処理を行う(ステップ207)。ここで、ズーム値協調制御部62とカメラ位置姿勢制御部64はマルチカメラシステム一つにつき、1つ存在すればよく、全てをハードウェアで実現しても良いし、演算部をソフトウェアで実現してもよい。   Based on the design information about the movable range of the camera, it is checked whether the camera can take the position and orientation determined in step 204 (step 205). Each camera is moved to the position and orientation obtained in step (step 206). If it is out of the movable range, error processing such as issuing error information indicating that setting is not possible is performed (step 207). Here, one zoom value cooperative control unit 62 and one camera position / orientation control unit 64 may be provided for each multi-camera system, all of which may be realized by hardware, and the calculation unit is realized by software. May be.

各カメラについては、それぞれカメラ映像歪み補正部(図中73,74)が存在するものとする。各カメラ映像歪み補正部には、事前に複数のズーム値に対応した補正パラメータを記憶する補正パラメータ記憶部(図中66、68)、補正パラメータ記憶部に記憶されたデータとズーム値協調制御部62により設定された各カメラにおけるズーム値から、ズーム値に対応した補正パラメータを求めるズーム値対応補正パラメータ算出部(図中65,69)、および、ズーム値対応補正パラメータによるカメラ映像の補正部(図中67,70)が存在する。カメラ映像歪み補正部73,74から出力された歪み補正後の画像は映像合成部71の入力となり、映像合成部71で1枚の映像として接続処理された映像を映像表示部72にて表示する。   Assume that each camera has a camera image distortion correction unit (73 and 74 in the figure). Each camera image distortion correction unit includes a correction parameter storage unit (66 and 68 in the figure) that stores correction parameters corresponding to a plurality of zoom values in advance, and data stored in the correction parameter storage unit and a zoom value cooperative control unit. A zoom value corresponding correction parameter calculating unit (65, 69 in the figure) for obtaining a correction parameter corresponding to the zoom value from the zoom value in each camera set by 62, and a camera image correcting unit (65, 69 in the figure). There are 67, 70) in the figure. The distortion-corrected images output from the camera image distortion correction units 73 and 74 are input to the image composition unit 71, and the image displayed as a single image by the image composition unit 71 is displayed on the image display unit 72. .

続いて、図1と図5を用いて、ズーム値協調制御手段24とカメラ位置姿勢協調制御手段25について、よりユーザの直感に近くズームを制御する例について説明する。   Next, an example in which the zoom value cooperative control unit 24 and the camera position / orientation cooperative control unit 25 control zoom closer to the user's intuition will be described with reference to FIGS. 1 and 5.

図1は、3台のカメラ2〜4からなるマルチカメラシステムの構成例を示す。各カメラの種類は同じとし、カメラ2の主軸が5、歪み補正後の視野(以下、視野)が9、カメラ3の主軸が6、視野が10、カメラ4の主軸が7、視野が11としたとき、各カメラの主軸が理想視点1にて交わるように配置することにより、広視野角の自然な映像を撮影することが可能となる。   FIG. 1 shows a configuration example of a multi-camera system including three cameras 2 to 4. The type of each camera is the same, the main axis of the camera 2 is 5, the visual field after distortion correction (hereinafter referred to as the visual field) is 9, the main axis of the camera 3 is 6, the visual field is 10, the main axis of the camera 4 is 7, and the visual field is 11. Then, by arranging the main axes of the cameras so that they intersect at the ideal viewpoint 1, it is possible to shoot a natural image with a wide viewing angle.

このマルチカメラシステムにおいて、ユーザがステップ221において、図2のズーム値協調制御手段24により、各カメラをズームアップし、視野角を狭くする場合について説明する。このとき、ユーザが指定するズームは、1つに接続されたマルチカメラ映像の最も広角な視野角を基準としたときの、ズーム後の視野角の比率を用いる。   In this multi-camera system, a case will be described in which the user zooms in on each camera and narrows the viewing angle in step 221 by the zoom value cooperative control means 24 of FIG. At this time, the zoom designated by the user uses the ratio of the viewing angle after zooming with respect to the widest viewing angle of the multi-camera images connected to one.

まず、ユーザが指定した視野角比率に応じて、両端のカメラ2,4について、ズーム値を決定する(ステップ222)。即ち、視野角比率が80%であれば、カメラ2,4の視野角も80%になるように、図3のズーム設定用パラメータ記憶部63に記憶されたデータを用いることでズーム値を求める。つぎに、両端のカメラ2,4の視野角変更に合わせて、ユーザが指定した視野角に応じた視野範囲をカバーするように、図1(a)から(b)のように、カメラ2、カメラ4の位置姿勢を変更する(ステップ223)。   First, zoom values are determined for the cameras 2 and 4 at both ends in accordance with the viewing angle ratio designated by the user (step 222). That is, if the viewing angle ratio is 80%, the zoom value is obtained by using the data stored in the zoom setting parameter storage unit 63 of FIG. 3 so that the viewing angles of the cameras 2 and 4 are also 80%. . Next, as shown in FIGS. 1 (a) to 1 (b), in order to cover the viewing range according to the viewing angle specified by the user in accordance with the viewing angle change of the cameras 2 and 4 at both ends, The position and orientation of the camera 4 is changed (step 223).

ここでズーム値と位置姿勢が未計算のカメラの台数をチェックし(ステップ224)、この実施例では1つしか残っていないので、ステップ227へと進む。ここでは、残るカメラ3について、既に位置が決まったカメラ2,4の視野12,14に合せて、指定交差距離15でカメラ3の視野が重なるようにカメラ1の視野角と姿勢を求め、ズーム値を求める(ステップ227)。そして最後に、全カメラのズーム値と位置姿勢を変更する(ステップ228)。   Here, the number of cameras whose zoom values and positions and orientations have not been calculated is checked (step 224). Since only one camera remains in this embodiment, the process proceeds to step 227. Here, with respect to the remaining camera 3, the viewing angle and orientation of the camera 1 are determined so that the fields of view of the camera 3 overlap at the designated intersection distance 15 in accordance with the fields of view 12 and 14 of the cameras 2 and 4 whose positions have already been determined. A value is obtained (step 227). Finally, the zoom values and the positions and orientations of all cameras are changed (step 228).

ここで、ステップ224にて、未計算のカメラが3台以上残っていた場合、未計算のカメラのうち、両端のカメラの視野角を、ユーザが設定した視野角比率に応じて算出し、ズーム値を決定する(ステップ225)。次に、既に位置姿勢が求まっている両端のカメラの視野と指定交差距離にて視野が重なるようにカメラ位置を求める(ステップ226)。   Here, in step 224, when three or more uncalculated cameras remain, the viewing angles of both ends of the uncalculated cameras are calculated according to the viewing angle ratio set by the user, and zoomed. The value is determined (step 225). Next, the camera position is obtained so that the field of view overlaps the field of view of the cameras at both ends whose positions and orientations have already been obtained at the specified intersection distance (step 226).

以上のように、カメラ位置姿勢協調制御手段25は、事前に記憶された各カメラの複数のズーム値に応じた視野角の情報を利用し、視野角に応じたカメラのズーム値を算出し、各カメラの視野が、指定交差距離において重なるように、カメラ位置姿勢を移動するものとする。なお、視野角記憶手段26に記憶されたズーム値に応じた視野角の情報は、歪み補正後の画像における視野角の情報であるとする。   As described above, the camera position / orientation cooperative control unit 25 calculates the zoom value of the camera according to the viewing angle by using the information of the viewing angle corresponding to the plurality of zoom values of each camera stored in advance. Assume that the camera position and orientation are moved so that the fields of view of the cameras overlap at the designated intersection distance. Note that the information on the viewing angle corresponding to the zoom value stored in the viewing angle storage unit 26 is information on the viewing angle in the image after distortion correction.

次に、図3に示したズーム設定用パラメータ記憶部63と補正パラメータ記憶部66、69に記憶するデータ例を図7に示す。図7(a)に示すズーム設定用パラメータ記憶部63に記憶される視野角データ81は、各カメラについてのズーム値に応じた歪み補正後の視野角の情報を持つ。図7の例ではカメラNについて、ズーム値a、bに対応して視野角がA、Bである。一方、図7(b)に示す補正パラメータ記憶部に記憶する補正パラメータデータはズーム値に応じた補正パラメータを、各カメラ毎に記憶する。図7ではカメラNに対する補正パラメータデータ82は、ズーム値αとβに対し、補正パラメータ1と2を記憶している。ここで、補正パラメータのデータは、補正後のピクセル位置が対応する補正前画像におけるピクセル位置を記憶するものとすると、データ量がズーム値と比べて大きいため、図7のような形で、リンクの形で記憶する方法をとれば効率的である。また、視野角データ81で記憶したズーム値a、bと補正パラメータデータ82に記憶したズーム値α、βは一致しなくてもよいが、ズーム値に応じた視野角を求めるためには、一度歪み補正した映像を求めることにより、視野角を得る必要がある。   Next, FIG. 7 shows an example of data stored in the zoom setting parameter storage unit 63 and the correction parameter storage units 66 and 69 shown in FIG. The viewing angle data 81 stored in the zoom setting parameter storage unit 63 shown in FIG. 7A has information on the viewing angle after distortion correction corresponding to the zoom value for each camera. In the example of FIG. 7, for the camera N, the viewing angles are A and B corresponding to the zoom values a and b. On the other hand, the correction parameter data stored in the correction parameter storage unit shown in FIG. 7B stores a correction parameter corresponding to the zoom value for each camera. In FIG. 7, the correction parameter data 82 for the camera N stores correction parameters 1 and 2 for the zoom values α and β. Here, if the correction parameter data stores the pixel position in the pre-correction image corresponding to the corrected pixel position, the amount of data is larger than the zoom value. It is efficient to take a method of storing in the form of Further, the zoom values a and b stored in the viewing angle data 81 and the zoom values α and β stored in the correction parameter data 82 do not have to coincide with each other. It is necessary to obtain a viewing angle by obtaining a distortion-corrected image.

ここで、カメラ位置姿勢協調制御手段25は、視野角記憶手段26の代わりに、複数のズーム値に応じたカメラ位置姿勢記憶手段に記憶されたデータから、現在のズーム値に応じたカメラ位置姿勢を求めて、制御するようにしてもよい。カメラ位置姿勢協調制御手段における各カメラの位置姿勢の計算を単純化することが可能となる。   Here, the camera position and orientation cooperative control means 25 uses the camera position and orientation corresponding to the current zoom value from the data stored in the camera position and orientation storage means corresponding to a plurality of zoom values instead of the viewing angle storage means 26. May be obtained and controlled. It is possible to simplify the calculation of the position and orientation of each camera in the camera position and orientation cooperative control means.

次に、ズーム値対応補正パラメータ算出手段28、29に関して、カメラNに対応する場合を用いて説明する。   Next, the zoom value corresponding correction parameter calculating means 28 and 29 will be described using a case corresponding to the camera N.

ズーム値を変更することにより、映像の歪み方が変わるため、補正パラメータ記憶手段30,31はズーム値に対応した歪み補正パラメータを記憶する必要がある。歪み補正パラメータは特表2002−535938などのパターン映像を用いた手法を利用することにより求めることが可能である。   By changing the zoom value, the image distortion method changes, so that the correction parameter storage means 30 and 31 need to store a distortion correction parameter corresponding to the zoom value. The distortion correction parameter can be obtained by using a technique using a pattern image such as the special table 2002-535938.

図8は、カメラN21に対する補正パラメータ記憶手段N31に記憶された、ズーム値aに対応した補正パラメータのデータの例を示す。歪み補正後の映像の画素数が横W,縦Hであるとする。ズーム値aの場合に、歪み補正後の映像におけるピクセル位置(1,1)に対応する、カメラNにより撮影された補正前映像のピクセル位置を(xa1,ya1)として41に記憶している。ここで、xa1,ya1は小数であってもよい。同様に、補正後映像のピクセル位置(2,1)に対応する補正前映像のピクセル位置を42に、補正後映像のピクセル位置(1,2)に対応する補正前映像のピクセル位置を43に、補正後映像のピクセル位置(W,H)に対応するピクセル位置を44に記憶している。 FIG. 8 shows an example of correction parameter data corresponding to the zoom value a stored in the correction parameter storage means N31 for the camera N21. It is assumed that the number of pixels of the image after distortion correction is horizontal W and vertical H. In the case of the zoom value a, the pixel position of the uncorrected image taken by the camera N corresponding to the pixel position (1,1) in the image after distortion correction is stored in (41) as (x a1 , y a1 ). Yes. Here, x a1 and y a1 may be decimal numbers. Similarly, the pixel position of the uncorrected image corresponding to the pixel position (2,1) of the corrected image is set to 42, and the pixel position of the uncorrected image corresponding to the pixel position (1,2) of the corrected image is set to 43. The pixel position corresponding to the pixel position (W, H) of the corrected image is stored in 44.

しかしながら、前述のように、歪み補正パラメータはズーム値によって異なる。カメラNがとりうるすべてのズーム値に対する歪み補正パラメータを記憶すると、大量の容量が必要となるため、いくつかのズーム値に対する歪み補正パラメータから、現在のカメラのズーム値に応じた補正パラメータを、ズーム値対応補正パラメータ算出手段N29により求める必要がある。そこで、ズーム値b(a<b)に対応する補正パラメータが補正パラメータ記憶手段N31にあらかじめ記憶されており、補正後映像のピクセル位置(m,n)について、ズーム値k(a<k<b)に対応する補正パラメータの値、すなわち補正前の映像ピクセル位置(x,y)を、例えば以下の式のように、線形補間により求める。   However, as described above, the distortion correction parameter varies depending on the zoom value. Since storing a distortion correction parameter for all zoom values that can be taken by the camera N requires a large amount of capacity, a correction parameter corresponding to the zoom value of the current camera is selected from the distortion correction parameters for several zoom values. It is necessary to obtain the zoom value corresponding correction parameter calculation means N29. Therefore, a correction parameter corresponding to the zoom value b (a <b) is stored in advance in the correction parameter storage unit N31, and the zoom value k (a <k <b) for the pixel position (m, n) of the corrected image. ), That is, the video pixel position (x, y) before correction is obtained by linear interpolation, for example, as in the following equation.

Figure 2005286452
Figure 2005286452

この手法を用いることにより、少なくとも、もっとも広角のズーム値と、もっとも狭角のズーム値に対する歪み補正パラメータを補正パラメータ記憶手段N31に記憶しておくことにより、カメラNがとりうるズーム値に対応した歪み補正パラメータを算出することが可能となる。算出したズーム値に対応した歪み補正パラメータは、ズーム値対応補正パラメータ記憶手段N33に記憶する。以上の方法を各カメラについても行えばよい。   By using this method, at least the widest zoom value and the distortion correction parameter for the narrowest zoom value are stored in the correction parameter storage means N31, thereby corresponding to the zoom values that the camera N can take. It is possible to calculate distortion correction parameters. The distortion correction parameter corresponding to the calculated zoom value is stored in the zoom value corresponding correction parameter storage means N33. The above method may be performed for each camera.

ただし、上記のように、2つのズーム値に対する補正パラメータだけを記憶する場合には、ズーム値対応補正パラメータ算出手段により算出された補正パラメータの精度が悪くなるため、歪み補正の精度を上げるためには、補正パラメータ記憶手段の容量との関係において、できるだけ多くのズーム値に対応した補正パラメータを記憶しておくものとする。
ここで、補正パラメータ記憶手段に記憶する補正パラメータは、色によらず1つのテーブルにより補正を行ってもよいが、RGBの色別に補正パラメータを記憶しても良い。後者の実施例によれば、ズームレンズによる色収差の補正も可能となる。
However, as described above, when only the correction parameters for the two zoom values are stored, the accuracy of the correction parameters calculated by the zoom value-corresponding correction parameter calculation means deteriorates, so that the accuracy of distortion correction is increased. Is assumed to store correction parameters corresponding to as many zoom values as possible in relation to the capacity of the correction parameter storage means.
Here, the correction parameters stored in the correction parameter storage means may be corrected by one table regardless of the color, but may be stored for each RGB color. According to the latter embodiment, chromatic aberration can be corrected by the zoom lens.

次に、カメラ映像を補正して一つの映像として表示する例を、図2、図6を用いて説明する。   Next, an example in which the camera video is corrected and displayed as one video will be described with reference to FIGS.

まず、前述のように、ズーム値対応補正パラメータ算出手段28,29は、各カメラのズーム値kを入手する(ステップ241)。次に、ズーム値対応補正パラメータ記憶手段32,33に記憶されたズーム値の中から、ステップ241で入手したズーム値kに最も近く、ズーム値kを間に含むようなズーム値α、β(α<k<β)を選択する(ステップ242)。次に、ズーム値対応補正パラメータ記憶手段32,33より、ステップ242で選択した2つのズーム値に対応する補正パラメータを読み込む(ステップ243)。ステップ244にて、全ピクセルの補正パラメータを求めたかどうかのチェックを行い、各ピクセル毎の補正パラメータを求める(ステップ245)。全ピクセルについての計算が終了したら、全ピクセル分の補正パラメータをズーム値対応補正パラメータ記憶手段32,33に値を設定し、カメラ映像補正手段36,37へ転送する(ステップ246)。   First, as described above, the zoom value corresponding correction parameter calculation means 28 and 29 obtain the zoom value k of each camera (step 241). Next, among the zoom values stored in the zoom value corresponding correction parameter storage means 32, 33, zoom values α, β (closest to the zoom value k obtained in step 241 and including the zoom value k in between. α <k <β) is selected (step 242). Next, correction parameters corresponding to the two zoom values selected in step 242 are read from the zoom value corresponding correction parameter storage means 32 and 33 (step 243). In step 244, it is checked whether or not correction parameters for all pixels have been obtained, and correction parameters for each pixel are obtained (step 245). When the calculation for all the pixels is completed, the correction parameters for all the pixels are set in the zoom value corresponding correction parameter storage means 32 and 33 and transferred to the camera image correction means 36 and 37 (step 246).

カメラ映像補正手段36、37では、例えば、特開2003−052057などの技術をに利用することにより、リアルタイムに歪みを補正した映像を生成する。   In the camera image correction means 36 and 37, for example, by using a technique such as Japanese Patent Application Laid-Open No. 2003-052057, an image in which distortion is corrected is generated in real time.

次に、映像合成手段38については、この時点において、各カメラの映像は理想視点を通る光軸を中心とする映像となっており、従来の技術に示したような方法を用いることにより、シームレスの自然な広視野、高解像度の映像を生成することが可能となる。また、図9に示したような、解像度の違う映像が入力された場合には特開2001−136466に示された技術などを用いることにより、つながった映像を生成することが可能となる。   Next, with respect to the video composition means 38, at this time, the video of each camera is a video centered on the optical axis passing through the ideal viewpoint. By using a method as shown in the prior art, seamlessly It is possible to generate a natural wide field of view and high resolution video. In addition, when a video having a different resolution as shown in FIG. 9 is input, it is possible to generate a connected video by using the technique disclosed in Japanese Patent Laid-Open No. 2001-136466.

最後に、映像表示手段39により、マルチカメラで撮影された映像が歪みなく補正された状態で表示される。映像表示手段39に入力される映像が映像合成手段38により、1つの映像として合成されている場合には、特開2000−241876などに示された技術などを用いることにより、表示環境に応じたシームレスの映像を表示することが可能である。撮影するカメラの台数に無関係に、表示装置(ディスプレイやプロジェクタ)の数を決定することが可能となり、構成の自由度が高いシステムとなる。   Finally, the video displayed by the video display means 39 is displayed in a corrected state without distortion. When the video input to the video display means 39 is synthesized as a single video by the video synthesis means 38, the technique shown in Japanese Patent Application Laid-Open No. 2000-241876 is used, so that it is suitable for the display environment. Seamless video can be displayed. Regardless of the number of cameras to be photographed, the number of display devices (displays and projectors) can be determined, resulting in a system with a high degree of freedom in configuration.

一方、映像表示手段39に対し、映像合成手段38を介さずに映像が入力される場合、カメラの台数と同じ数の表示装置を利用し、理想視点からの歪みのない視野の重なった映像が入力されたときに、重なり部分の輝度を調整し、シームレスな表示ができるような映像表示手段を用意する。本実施例によれば、映像合成する処理が省けるため、撮影から表示までのリアルタイム性が向上するので、遠隔会議などのリアルタイム性が要求される用途に有効である。   On the other hand, when the video is input to the video display means 39 without passing through the video synthesis means 38, the same number of display devices as the number of cameras are used, and the video with overlapping visual fields without distortion from the ideal viewpoint is displayed. A video display means is prepared that, when input, adjusts the brightness of the overlapped portion and enables seamless display. According to the present embodiment, since the process of synthesizing the video can be omitted, the real-time property from shooting to display is improved, which is effective for applications requiring real-time property such as a remote conference.

また、他の実施例2について図9を用いて説明する。   Another embodiment 2 will be described with reference to FIG.

カメラ50は主軸53に対し、視野54が広視野で、画素数の多いカメラであるとする。一方、カメラ51、52は、カメラ50に比べて視野が狭く、画素数が少ないものとし、カメラ51の主軸が55、視野が56、カメラ52の主軸が57、視野が58であるとする。このように、異なる種類のカメラから構成されるシステムの場合、ズーム値協調制御手段では、各カメラのズーム値を一律に制御するのではなく、各カメラの視野と解像度に応じたズームの制御を行うものとする。   Assume that the camera 50 is a camera having a wide field of view 54 and a large number of pixels with respect to the main axis 53. On the other hand, it is assumed that the cameras 51 and 52 have a narrow field of view and a smaller number of pixels than the camera 50, and the main axis of the camera 51 is 55, the field of view is 56, the main axis of the camera 52 is 57, and the field of view is 58. In this way, in the case of a system composed of different types of cameras, the zoom value cooperative control means does not control the zoom values of each camera uniformly, but controls the zoom according to the field of view and resolution of each camera. Assumed to be performed.

同様に、カメラ位置姿勢協調制御手段25では、各カメラの視野角に応じ、カメラの位置姿勢を制御するものとする。   Similarly, the camera position and orientation cooperative control means 25 controls the position and orientation of the camera according to the viewing angle of each camera.

本実施例によれば、関心のある中心領域を高解像度で、周辺領域を低解像度で撮影するようなことも可能となり、映像をネットワークを介して映像合成手段38や、映像表示手段39に送る際に、情報量を削減することも可能となる。   According to the present embodiment, it is possible to photograph the central area of interest at a high resolution and the peripheral area at a low resolution, and send the video to the video composition means 38 and the video display means 39 via the network. In this case, the amount of information can be reduced.

3台のカメラによる本発明の一実施例となる撮影配置例。An example of the arrangement of shooting by one camera according to an embodiment of the present invention. N台のカメラを用いた本発明の全体構成についての例。An example of the overall configuration of the present invention using N cameras. N台のカメラを用いた本発明の装置構成例。An apparatus configuration example of the present invention using N cameras. 各カメラのズーム値と位置姿勢を求めるフローの例。The example of the flow which calculates | requires the zoom value and position / orientation of each camera. ユーザが直感的にズームを操作するための、各カメラのズーム値と位置姿勢を求めるフローの例。The example of the flow which calculates | requires the zoom value and position / orientation of each camera for a user to operate zoom intuitively. 歪み補正パラメータ算出手段におけるフローの例。The example of the flow in a distortion correction parameter calculation means. ズーム設定用パラメータ記憶部と補正パラメータ記憶部に記憶するデータの例。An example of data stored in a zoom setting parameter storage unit and a correction parameter storage unit. カメラNのズーム値aに対する補正パラメータの例。An example of a correction parameter for the zoom value a of the camera N. 視野角などの異なるカメラを用いたマルチカメラの構成例。Multi-camera configuration example using cameras with different viewing angles.

符号の説明Explanation of symbols

1.理想視点
2〜4、20、21、50〜52.マルチカメラ
24.ズーム値協調制御手段
25.カメラ位置姿勢協調制御手段
28、29.ズーム値対応補正パラメータ算出手段
36、37.カメラ映像補正手段
38.映像合成手段
39.映像表示手段
40.歪み補正パラメータデータ
1. Ideal viewpoints 2-4, 20, 21, 50-52. Multi camera 24. Zoom value cooperative control means 25. Camera position and orientation cooperative control means 28, 29. Zoom value corresponding correction parameter calculation means 36, 37. Camera image correction means 38. Video composition means 39. Video display means 40. Distortion correction parameter data

Claims (2)

撮影対象の一部を撮影するズーム機能を備える撮影手段を有する前記撮影対象の映像を生成する映像生成システムであって、
前記各撮影手段により撮影された映像の歪みを補正するための歪み補正パラメータを、複数のズーム値に対応して記憶する手段と、
前記ズーム値に対応して記憶された歪み補正パラメータから、現在のズーム値に対応する前記各撮影手段の歪み補正パラメータを算出する手段と、
前記現在のズーム値に対応して算出された歪み補正パラメータにより、前記各撮影手段において撮影された映像を補正する手段とを有し、
現在のズーム値に対応して補正された各撮影手段において撮影された映像それぞれは、少なくとも一部が別の撮影手段の補正された映像と重なりが存在するように、前記撮影手段を配置する手段と、
現在のズーム値に対応して補正された各撮影手段において撮影された映像をひとまとまりの映像として映像データを生成する手段とを有することを特徴とする映像生成システム。
A video generation system for generating a video of the shooting target having a shooting unit having a zoom function of shooting a part of the shooting target,
Means for storing distortion correction parameters for correcting distortion of the video imaged by each of the imaging means in correspondence with a plurality of zoom values;
Means for calculating a distortion correction parameter of each photographing means corresponding to a current zoom value from a distortion correction parameter stored corresponding to the zoom value;
Means for correcting the video imaged by each of the imaging means by using a distortion correction parameter calculated corresponding to the current zoom value;
Means for arranging the photographing means so that each of the images photographed by each photographing means corrected in accordance with the current zoom value overlaps at least partly with the corrected image of another photographing means. When,
A video generation system comprising: means for generating video data as a group of videos shot by each shooting unit corrected in accordance with a current zoom value.
前記配置する手段は、各カメラの視野が、あらかじめ設定されている理想視点からの距離において重なるように配置することを特徴とする請求項1記載の映像生成システム。
The video generation system according to claim 1, wherein the arranging unit arranges the fields of view of the cameras so as to overlap each other at a predetermined distance from the ideal viewpoint.
JP2004094145A 2004-03-29 2004-03-29 Video generation system Expired - Fee Related JP4211653B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004094145A JP4211653B2 (en) 2004-03-29 2004-03-29 Video generation system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004094145A JP4211653B2 (en) 2004-03-29 2004-03-29 Video generation system

Publications (2)

Publication Number Publication Date
JP2005286452A true JP2005286452A (en) 2005-10-13
JP4211653B2 JP4211653B2 (en) 2009-01-21

Family

ID=35184404

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004094145A Expired - Fee Related JP4211653B2 (en) 2004-03-29 2004-03-29 Video generation system

Country Status (1)

Country Link
JP (1) JP4211653B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11627258B2 (en) 2020-02-25 2023-04-11 Canon Kabushiki Kaisha Imaging device, imaging system, control method, program, and storage medium
JP7473449B2 (en) 2020-10-28 2024-04-23 Kddi株式会社 Distortion correction device, method, and program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11627258B2 (en) 2020-02-25 2023-04-11 Canon Kabushiki Kaisha Imaging device, imaging system, control method, program, and storage medium
JP7473449B2 (en) 2020-10-28 2024-04-23 Kddi株式会社 Distortion correction device, method, and program

Also Published As

Publication number Publication date
JP4211653B2 (en) 2009-01-21

Similar Documents

Publication Publication Date Title
TWI524306B (en) Image transformation and multi-view output systems and methods
JP3792901B2 (en) Camera control system and control method thereof
US9667864B2 (en) Image conversion apparatus, camera, image conversion method, and storage medium with program stored therein
US9313411B2 (en) Camera, distortion correction device and distortion correction method
JP2005347813A (en) Video conversion method and image converter, and multi-projection system
JP2000278602A (en) Image input method, image input device and recording medium
WO2012060269A1 (en) Image processing method, image processing device, and imaging device
JP2006245793A (en) Imaging system
KR101465112B1 (en) camera system
JP2004015205A (en) Multi-projection system and correction data acquisition method in multi-projection system
JP2012222669A (en) Image processing system and method therefor
JP2004056779A (en) Image inputting device
JP2007096588A (en) Imaging device and method for displaying image
TWI693828B (en) Image-capturing device and method for operating the same
JP2004135209A (en) Generation device and method for wide-angle view high-resolution video image
JP2006285482A (en) Device for correcting image geometry
JP2000341574A (en) Camera device and camera control system
JP4211653B2 (en) Video generation system
KR102009988B1 (en) Method for compensating image camera system for compensating distortion of lens using super wide angle camera and Transport Video Interface Apparatus used in it
JPWO2012056982A1 (en) Image processing method, image processing apparatus, and imaging apparatus
KR20230171943A (en) How to control the camera
KR100736565B1 (en) Method of taking a panorama image and mobile communication terminal thereof
WO2011161746A1 (en) Image processing method, program, image processing device and image capturing device
WO2011158344A1 (en) Image processing method, program, image processing device, and imaging device
CN112634142A (en) Distortion correction method for ultra-wide viewing angle image

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20060424

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060911

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080710

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080715

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080912

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20081007

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20081020

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111107

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111107

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111107

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121107

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121107

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131107

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees