JP2000308090A - Video displaying and processing device, video photographing and processing device, and camera controller - Google Patents

Video displaying and processing device, video photographing and processing device, and camera controller

Info

Publication number
JP2000308090A
JP2000308090A JP11110666A JP11066699A JP2000308090A JP 2000308090 A JP2000308090 A JP 2000308090A JP 11110666 A JP11110666 A JP 11110666A JP 11066699 A JP11066699 A JP 11066699A JP 2000308090 A JP2000308090 A JP 2000308090A
Authority
JP
Japan
Prior art keywords
camera
data
image
display
distance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP11110666A
Other languages
Japanese (ja)
Inventor
Tetsuya Yoshimura
哲也 吉村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Telecommunications Advancement Organization
Panasonic Holdings Corp
Original Assignee
Telecommunications Advancement Organization
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Telecommunications Advancement Organization, Matsushita Electric Industrial Co Ltd filed Critical Telecommunications Advancement Organization
Priority to JP11110666A priority Critical patent/JP2000308090A/en
Publication of JP2000308090A publication Critical patent/JP2000308090A/en
Pending legal-status Critical Current

Links

Landscapes

  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide less-distorted stereoscopic videos by correcting stereoscopic videos in accordance with the photographing conditions and viewing conditions of the videos. SOLUTION: Transmitted signals from a stereoscopic video photographing system are separated into right and left videos and camera parameter data by means of a video data/camera parameter separating section 502 after the signals are decoded by means of a receiving section 501. On the other hand, the observational condition data of a display, etc., are inputted through an observational condition inputting section 503. A correcting amount deciding section 504 decides the correcting amounts of the received right and left videos from the camera parameter data and observational condition data. A video correcting section 505 corrects the right and left videos in accordance with the correcting amounts and sends the corrected videos to a display 107.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、右目用画像及び左
目用画像を用いる両眼立体視の原理を利用して立体像を
表示するための立体視映像撮影表示処理装置に関するも
のである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a stereoscopic image photographing and displaying apparatus for displaying a stereoscopic image using the principle of binocular stereoscopic vision using a right-eye image and a left-eye image.

【0002】[0002]

【従来の技術】図16に、2台のカメラを用いて立体視
映像を提供する撮影・表示システムの従来例の概略を示
す。右目用映像と左目用映像を撮影する2台のカメラ1
601の映像を立体視映像撮影表示処理装置1602で
処理し、ディスプレイ1605に表示する。
2. Description of the Related Art FIG. 16 schematically shows a conventional example of a photographing / display system for providing a stereoscopic image using two cameras. Two cameras 1 for shooting right-eye video and left-eye video
The image 601 is processed by the stereoscopic image photographing display processing device 1602 and displayed on the display 1605.

【0003】再生映像データには、両眼の映像データだ
けでなく、現時点の映像データが右目用映像であるか左
目用映像であるかを識別するための識別信号も含まれ
る。液晶シャッター同期信号発生器1603は、識別信
号を用いて同期信号を液晶シャッターメガネ1604に
送信する。液晶シャッターメガネ1604は、この同期
信号に従い、右目用映像がディスプレイ1605に表示
されているときには左目用のシャッターを閉じると共に
右目用を開いて右目のみ映像を観察できるようにし、同
様に左目用映像がディスプレイ1605に表示されてい
るときは左目のみに映像が観察できるようにする。人間
が液晶シャッターメガネ1604を使ってディスプレイ
1605を観察することで、人の視覚系の立体視の能力
を用いて、立体感のある映像を観察できる。
The reproduced video data includes not only the binocular video data but also an identification signal for identifying whether the current video data is a right-eye video or a left-eye video. The liquid crystal shutter synchronization signal generator 1603 transmits a synchronization signal to the liquid crystal shutter glasses 1604 using the identification signal. In accordance with the synchronization signal, the liquid crystal shutter glasses 1604 close the shutter for the left eye and open the right eye so that only the right eye can be observed when the image for the right eye is displayed on the display 1605. When displayed on the display 1605, the image can be observed only by the left eye. When a human observes the display 1605 using the liquid crystal shutter glasses 1604, a three-dimensional image can be observed using the ability of the human visual system to perform stereoscopic vision.

【0004】他に、めがねの要らない立体視システムと
してレンチキュラーレンズをディスプレイ前面に付けた
ものなどがある。
Another stereoscopic system that does not require glasses is a system in which a lenticular lens is attached to the front of a display.

【0005】また、特開平10−155104号公報に
は、動画に対する立体視を容易にすることを目的にした
複数眼撮像方法及び装置が開示されている。これは、ユ
ーザインタフェースを介して、着目する被写体をユーザ
に指示させ、その被写体の左右映像の視差量を減少させ
るように、撮像系の輻輳角を制御し、また映像を単純に
平行移動させるものである。
Japanese Patent Application Laid-Open No. H10-155104 discloses a multi-eye imaging method and apparatus for the purpose of facilitating stereoscopic viewing of moving images. This allows the user to indicate the subject of interest via the user interface, controls the convergence angle of the imaging system so as to reduce the amount of parallax between the left and right images of the subject, and simply translates the image. It is.

【0006】図17に、上記特開平10−155104
号公報に記載された複眼撮像装置の一部の構成を示す。
この複眼撮像装置は、左右2つの撮像光学系1701
a、1701b、信号処理部1704、被写***置検出
部1705、ファインダー1706、インターフェース
1707、撮像光学系駆動装置1708a、1708
b、輻輳角/平行移動量制御用ユーザーインターフェー
ス1709、CCD駆動装置1710a,1710bを
有している。
FIG. 17 shows the structure of the above-mentioned JP-A-10-155104.
1 shows a partial configuration of a compound-eye imaging device described in Japanese Patent Application Laid-Open Publication No. H10-26095.
This compound eye imaging apparatus has two imaging optical systems 1701
a, 1701b, a signal processing unit 1704, a subject position detection unit 1705, a viewfinder 1706, an interface 1707, an imaging optical system driving device 1708a, 1708
b, a convergence angle / parallel movement amount control user interface 1709, and CCD driving devices 1710a and 1710b.

【0007】撮像光学系1701a、1701bは、そ
れぞれレンズ1702a、1702b、撮像素子である
CCD1703a、1703bを備えている。2つの撮
像光学系1701a,1701bによって撮像された画
像は信号処理部1704に送られ、ここで立体視画像の
合成や画像補正、画像出力等の画像処理が行われる。信
号処理部1704は、被写***置検出部1705、ファ
インダー1706、インターフェース1707に接続さ
れている。ファインダー1706は画像補正や合成を行
った画像を出力するものである。このファインダー17
06を覗くことにより、立体視される画像を見ることが
できる。
[0007] The imaging optical systems 1701a and 1701b include lenses 1702a and 1702b, and CCDs 1703a and 1703b as imaging elements, respectively. Images captured by the two imaging optical systems 1701a and 1701b are sent to a signal processing unit 1704, where image processing such as synthesis of stereoscopic images, image correction, and image output is performed. The signal processing unit 1704 is connected to the subject position detection unit 1705, the finder 1706, and the interface 1707. The finder 1706 outputs an image after image correction and synthesis. This finder 17
By looking at 06, it is possible to see an image which is stereoscopically viewed.

【0008】上記従来例では、ファインダー1706に
写った映像から、輻輳角/平行移動量制御用ユーザイン
タフェース1709を用いて指示した注目対象物(主被
写体)の視差量を、少なくできるように工夫している。
すなわち、カメラレンズ光軸を交差するように撮像光学
系1701a、1701bの輻輳角を変化させたり、撮
像光学系1701a、1701b内の撮像素子(CCD
1703a,1703b)の位置を平行移動させたり、
撮影画像を平行移動させることによって、立体視撮像表
示画像中の主被写体の視差を0にしてユーザの主被写体
の融像を容易にしている。
In the above-described conventional example, the parallax amount of the target object (main subject) designated by using the convergence angle / parallel movement amount control user interface 1709 from the image shown in the viewfinder 1706 is reduced. ing.
That is, the convergence angles of the imaging optical systems 1701a and 1701b are changed so as to intersect with the optical axis of the camera lens, and the imaging device (CCD) in the imaging optical systems 1701a and 1701b is changed.
1703a, 1703b),
By translating the captured image, the parallax of the main subject in the stereoscopically displayed image is reduced to 0, thereby facilitating the fusion of the main subject by the user.

【0009】[0009]

【発明が解決しようとする課題】しかしながら、上記従
来例は、主被写体の視差量を少なくするために、カメラ
レンズ光軸を回転させたり、撮像素子を平行移動した
り、画像をシフトさせるだけであり、正確な空間の歪み
については考慮されていない。
However, in the above-mentioned conventional example, in order to reduce the amount of parallax of the main subject, it is only necessary to rotate the optical axis of the camera lens, translate the image sensor, or shift the image. Yes, the exact spatial distortion is not taken into account.

【0010】また、視差量の調節は、ユーザインタフェ
ースを介して、撮像光学系の輻輳角等を変化させること
によって行なわれるため、1人のユーザだけしか行えな
い。テレビジョン放送のような、多くの人がそれぞれ大
きさ等が異なるのディスプレレイで映像を見る場合への
対処方法は考慮されていない。
The adjustment of the amount of parallax is performed by changing the convergence angle of the imaging optical system via the user interface, so that only one user can adjust the amount of parallax. No consideration is given to a method of coping with a case where many people view video on a display having different sizes and the like, such as a television broadcast.

【0011】本発明は、以上のような実情に鑑みてなさ
れたものであり、1つの立体視映像からでも、複数の人
がそれぞれ異なる条件で立体視映像を表示観察しても、
歪みの少ない立体視映像を観察できるようにした映像表
示処理装置及び映像撮影処理装置並びにカメラ制御装置
を提供することを目的とする。
[0011] The present invention has been made in view of the above-described circumstances, and it is possible to display and observe a stereoscopic image under different conditions from a single stereoscopic image.
It is an object of the present invention to provide a video display processing device, a video shooting processing device, and a camera control device which enable observation of a stereoscopic video with little distortion.

【0012】[0012]

【課題を解決するための手段】上記目的を達成するため
に本発明は、映像を表示するディスプレイや映像表示を
見る人の状態などの観察条件データと、映像撮影時のカ
メラの状態に対応するカメラパラメータと、から映像信
号の補正量を求め、求めた補正量にしたがって映像を補
正するようにしたので、歪みのない立体視映像を提供で
きる。補正処理は、映像表示処理装置で行われるので複
数の人がそれぞれ異なるディスプレイで立体視映像を鑑
賞する場合でも、それぞれに合わせた補正が可能にな
る。
SUMMARY OF THE INVENTION In order to achieve the above object, the present invention relates to observation condition data such as a display for displaying an image and a state of a person viewing the image display, and a state of a camera at the time of image pickup. Since the correction amount of the video signal is obtained from the camera parameters and the image is corrected according to the obtained correction amount, a stereoscopic video image without distortion can be provided. Since the correction processing is performed by the video display processing device, even when a plurality of people view the stereoscopic video on different displays, it is possible to perform the correction according to each.

【0013】[0013]

【発明の実施の形態】本発明の第1の態様は、映像撮影
時のカメラの状態に対応するカメラパラメータと1つま
たは複数の映像に対応する映像信号とを含んだ伝送信号
を受信する受信部と、受信した伝送信号から映像信号と
カメラパラメータとを分離するデータ分離部と、ディス
プレイに表示された映像を見る人の観察条件となる観察
条件データを入力する観察条件入力部と、前記カメラパ
ラメータと前記観察条件データとから前記映像信号の補
正量を決定する補正量決定部と、前記補正量に従い前記
映像信号を補正し、前記ディスプレイに補正後の映像デ
ータを送出する補正部とを具備する構成を採る。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS A first aspect of the present invention is a method for receiving a transmission signal including a camera parameter corresponding to a state of a camera at the time of capturing an image and a video signal corresponding to one or more images. Unit, a data separation unit that separates a video signal and a camera parameter from a received transmission signal, an observation condition input unit that inputs observation condition data that is an observation condition of a person who views an image displayed on a display, and the camera A correction amount determining unit that determines a correction amount of the video signal from the parameter and the observation condition data; and a correction unit that corrects the video signal according to the correction amount and sends the corrected video data to the display. It adopts the configuration to do.

【0014】この構成によれば、撮影された立体視映像
を、ディスプレイ等の観察条件に合わせて補正している
ので、歪みの無い立体映像を提供することができる。ま
た、映像表示処理装置上で補正処理を行うため、複数の
人がそれぞれ異なるディスプレイで立体視映像を鑑賞す
る場合でも、それぞれに合わせた補正が可能になる。
According to this configuration, the captured stereoscopic video is corrected according to the viewing conditions of the display or the like, so that a stereoscopic video without distortion can be provided. Further, since the correction processing is performed on the video display processing device, even when a plurality of people appreciate the stereoscopic video on different displays, it is possible to perform the correction corresponding to each.

【0015】本発明の第4の態様は、第1の態様の映像
表示処理装置において、前記カメラパラメータは、カメ
ラの撮像面に投影された映像の幅である撮像幅データと
前記カメラのレンズ中心から前記撮像面までの距離であ
るレンズ撮像面間距離データとを含むものとし、前記観
察条件データは、映像表示を見る人の左右の眼間距離で
ある眼間距離データと前記人から前記ディスプレイまで
の距離であるディスプレイ距離データとを含むものとし
た。
According to a fourth aspect of the present invention, in the video display processing apparatus according to the first aspect, the camera parameters include imaging width data representing a width of an image projected on an imaging surface of the camera and a lens center of the camera. From the lens imaging surface distance data which is the distance from the imaging surface to the imaging surface, the observation condition data is interocular distance data which is the distance between the left and right eyes of the person viewing the video display and from the person to the display And display distance data, which is the distance of

【0016】この構成によれば、カメラパラメータに含
まれる撮像幅データ及びレンズ撮像面間距離データと、
観察条件データに含まれる眼間距離データ及びディスプ
レイ距離データとを考慮して補正量が決められるので、
ディスプレイに向かい合った観察者に対して歪みのない
立体視映像像を提供できる。
According to this structure, the imaging width data and the distance data between the lens imaging surfaces included in the camera parameters are obtained by:
Since the correction amount is determined in consideration of the interocular distance data and the display distance data included in the observation condition data,
A stereoscopic video image without distortion can be provided to an observer facing the display.

【0017】本発明の第7の態様は、第1の態様の映像
表示処理装置において、前記カメラパラメータは、カメ
ラの撮像面に投影された映像の幅である撮像幅データ
と、前記カメラのレンズ中心から前記撮像面までの距離
であるレンズ撮像面間距離データと、前記カメラの方向
である光軸回転角を示す光軸回転角データとを含み、前
記観察条件データは、映像表示を見る人の左右の眼間距
離である眼間距離データと、前記人から前記ディスプレ
イまでの距離であるディスプレイ距離データと、前記補
正部での補正映像の光軸方向である光軸方向データとを
含む。
According to a seventh aspect of the present invention, in the video display processing apparatus according to the first aspect, the camera parameters include imaging width data representing a width of an image projected on an imaging surface of the camera, and a lens of the camera. A lens-to-lens imaging plane distance data indicating a distance from a center to the imaging plane; and an optical axis rotation angle data indicating an optical axis rotation angle which is a direction of the camera. Between the eye and the display, display distance data as a distance from the person to the display, and optical axis direction data as an optical axis direction of the image corrected by the correction unit.

【0018】この構成により、カメラパラメータに光軸
回転角データをさらに含み、観察条件データに光軸方向
データをさらに付加したので、さらに歪みのない立体視
映像を提供できる。
According to this configuration, since the camera parameters further include the optical axis rotation angle data and the observation condition data further include the optical axis direction data, a stereoscopic image without further distortion can be provided.

【0019】本発明の第10の態様は、第1の態様の映
像表示処理装置において、前記データ分離部は、映像信
号を分離する1つ又は複数の映像抽出部と、カメラの撮
像面に投影された映像の幅である撮像幅データを分離す
る撮像幅データ抽出部と、前記カメラのレンズ中心から
前記撮像面までの距離であるレンズ撮像面間距離データ
を分離するレンズ撮像面間距離抽出部とを備える。ま
た、観察条件入力部は、映像表示を見る人の左右の眼間
距離を決定する眼間距離決定部と、前記人から前記ディ
スプレイまでの距離であるディスプレイ距離を決定する
ディスプレイ距離決定部とを備える。さらに、補正量決
定部は、前記ディスプレイ距離及び前記撮像幅及び前記
レンズ撮像面間距離から映像の表示幅を計算する表示域
幅計算部と、前記眼間距離から映像の移動量である表示
シフト距離を計算する表示シフト距離計算部とを備え
る。
According to a tenth aspect of the present invention, in the video display processing apparatus according to the first aspect, the data separation section includes one or more video extraction sections for separating a video signal, and projects the video signal onto an imaging surface of a camera. An imaging width data extraction unit that separates imaging width data that is the width of a captured image; and a lens imaging surface distance extraction unit that separates lens imaging surface distance data that is the distance from the lens center of the camera to the imaging surface. And Further, the observation condition input unit includes an interocular distance determining unit that determines a distance between the left and right eyes of a person who views a video display, and a display distance determining unit that determines a display distance that is a distance from the person to the display. Prepare. Further, the correction amount determination unit includes a display area width calculation unit that calculates a display width of an image from the display distance, the imaging width, and the distance between the lens imaging surfaces, and a display shift that is a moving amount of the image from the interocular distance. A display shift distance calculation unit for calculating the distance.

【0020】この構成によれば、データ分離部において
映像信号、撮像幅データ、レンズ撮像面間距離データを
分離でき、観察条件入力部からは眼間距離データとディ
スプレイ距離データとが入力される。そして、補正量決
定部においてディスプレイ距離及び撮像幅及びレンズ撮
像面間距離から映像の表示幅が計算され、さらに眼間距
離から映像の移動量である表示シフト距離が計算され
る。
According to this configuration, the data separation unit can separate the video signal, the imaging width data, and the distance data between the lens imaging planes, and the inter-eye distance data and the display distance data are input from the observation condition input unit. Then, the correction amount determination unit calculates the display width of the video from the display distance, the imaging width, and the distance between the lens imaging surfaces, and further calculates the display shift distance, which is the moving amount of the video, from the interocular distance.

【0021】本発明の第11の態様は、第10の態様の
映像表示処理装置において、前記データ分離部は、前記
カメラの方向である光軸回転角である光軸回転角データ
を抽出する光軸回転角抽出部を備える。また、前記補正
量決定部は、前記光軸回転角データから光軸補正用の変
換行列を計算する光軸補正変換行列計算部を備える。
According to an eleventh aspect of the present invention, in the video display processing apparatus according to the tenth aspect, the data separation section extracts optical axis rotation angle data which is an optical axis rotation angle which is the direction of the camera. A shaft rotation angle extraction unit is provided. Further, the correction amount determining unit includes an optical axis correction conversion matrix calculation unit that calculates a conversion matrix for optical axis correction from the optical axis rotation angle data.

【0022】この構成によれば、データ分離部において
光軸回転角データが抽出され、補正量決定部が光軸回転
角データから光軸補正用の変換行列を計算するので、カ
メラの方向を考慮した補正が可能となり、より歪みの少
ない立体視映像を提供できるようになる。
According to this configuration, the optical axis rotation angle data is extracted in the data separation section, and the correction amount determination section calculates a conversion matrix for optical axis correction from the optical axis rotation angle data, so that the direction of the camera is taken into consideration. This makes it possible to provide a stereoscopic image with less distortion.

【0023】本発明の第12の態様は、第10の態様の
映像表示処理装置において、前記データ分離部は、前記
カメラの方向である光軸回転角である光軸回転角データ
を抽出する光軸回転角抽出部を備え、前記観察条件入力
部は、前記補正部での補正映像の光軸方向である光軸方
向データを決定する光軸方向決定部を備える。また、前
記補正量決定部は、前記光軸回転角データ及び前記光軸
方向データから光軸補正用の変換行列を計算する光軸補
正変換行列計算部を備える。
According to a twelfth aspect of the present invention, in the video display processing apparatus according to the tenth aspect, the data separation section extracts light axis rotation angle data that is an optical axis rotation angle that is the direction of the camera. The correction unit includes an axis rotation angle extraction unit, and the observation condition input unit includes an optical axis direction determination unit that determines optical axis direction data that is an optical axis direction of the corrected image in the correction unit. Further, the correction amount determining unit includes an optical axis correction conversion matrix calculation unit that calculates a conversion matrix for optical axis correction from the optical axis rotation angle data and the optical axis direction data.

【0024】この構成によれば、光軸補正変換行列計算
部が観察条件入力部から入力された補正映像の光軸方向
である光軸方向データを使って光軸補正用の変換行列を
計算するので、光軸回転角データだけの場合に比べてよ
り歪みのない立体視映像を提供できる。
According to this configuration, the optical axis correction conversion matrix calculation unit calculates an optical axis correction conversion matrix using the optical axis direction data that is the optical axis direction of the corrected image input from the observation condition input unit. Therefore, it is possible to provide a stereoscopic image without distortion as compared with the case where only the optical axis rotation angle data is used.

【0025】本発明の第2の態様は、映像を撮影する1
つ又は複数のカメラと、前記カメラの撮影状態を制御す
るカメラ制御量を入力するためのカメラ制御I/Fと、
入力されたカメラ制御量にしたがって前記カメラを制御
する制御部と、前記カメラ制御量及び前記カメラの状態
からカメラ状態データを決定するカメラ状態データ入力
部と、前記カメラで撮影した映像信号及び前記カメラ状
態データを外部装置に送出する外部I/F部とを具備す
る構成を採る。
A second aspect of the present invention is a method for capturing a video 1
One or more cameras, a camera control I / F for inputting a camera control amount for controlling a shooting state of the camera,
A control unit that controls the camera according to the input camera control amount, a camera state data input unit that determines camera state data from the camera control amount and the camera state, a video signal captured by the camera, and the camera An external I / F unit for sending status data to an external device is provided.

【0026】この構成によれば、カメラ制御量及びカメ
ラの状態からカメラ状態データが決められ、映像信号と
共に外部装置に送出できるので、上記第1の態様の映像
表示処理装置に供給されるカメラパラメータのもとにな
るデータを収集できる。
According to this configuration, the camera state data is determined from the camera control amount and the state of the camera, and can be transmitted to an external device together with the video signal. Therefore, the camera parameters supplied to the video display processing device of the first aspect described above. Data that can be the basis for

【0027】本発明の第5の態様は、第2の態様のカメ
ラ制御装置において、前記カメラ状態データは、カメラ
の撮像面に投影された映像の幅である撮像幅データと前
記カメラのレンズ中心から前記撮像面までの距離とに相
関があるデータであるものとした。
According to a fifth aspect of the present invention, in the camera control device according to the second aspect, the camera state data includes imaging width data representing a width of an image projected on an imaging surface of the camera, and a lens center of the camera. It is assumed that the data is correlated with the distance from to the imaging surface.

【0028】これにより、カメラの撮像面に投影された
映像の幅である撮像幅データと前記カメラのレンズ中心
から前記撮像面までの距離とに相関があるデータをカメ
ラ状態データにしたので、上記映像表示処理装置に伝送
するカメラパラメータに撮像幅データ、レンズ撮像面距
離データを含ませることができる。
As a result, data having a correlation between the imaging width data, which is the width of the image projected on the imaging surface of the camera, and the distance from the lens center of the camera to the imaging surface is used as the camera state data. Camera parameters transmitted to the video display processing device can include imaging width data and lens imaging surface distance data.

【0029】本発明の第8の態様は、第2の態様のカメ
ラ制御装置において、カメラ状態データは、カメラの撮
像面に投影された映像の幅である撮像幅データと、前記
カメラのレンズ中心から前記撮像面までの距離と、前記
カメラの方向である光軸回転角とに、相関があるデータ
であるものとした。
According to an eighth aspect of the present invention, in the camera control device according to the second aspect, the camera state data includes imaging width data representing a width of an image projected on an imaging surface of the camera, and a lens center of the camera. It is assumed that the data is correlated with the distance from to the imaging surface and the rotation angle of the optical axis which is the direction of the camera.

【0030】これにより、上記映像表示処理装置に伝送
するカメラパラメータに撮像幅データ、レンズ撮像面距
離データに加えて光軸回転角データを含ませることがで
きる。
Thus, the camera parameters transmitted to the video display processing device can include the optical axis rotation angle data in addition to the imaging width data and the lens imaging surface distance data.

【0031】本発明の第3の態様は、映像を撮影する1
つ又は複数のカメラの状態データからカメラパラメータ
を算出するカメラパラメータ算出部と、前記カメラから
の1つ又は複数の映像信号と前記カメラパラメータとを
混合信号に変換する信号混合部と、前記混合信号を記録
または映像を表示するシステムに送出する送出部とを具
備する構成を採る。
A third aspect of the present invention is a method for capturing a video 1
A camera parameter calculator for calculating camera parameters from state data of one or more cameras, a signal mixer for converting one or more video signals from the camera and the camera parameters into a mixed signal, and the mixed signal And a transmitting unit for transmitting the recorded data to a system for recording or displaying a video.

【0032】この構成によれば、カメラ状態データを反
映させたカメラパラメータと映像信号とを上記映像表示
処理装置に伝送することができる。
According to this configuration, the camera parameters and the video signal reflecting the camera state data can be transmitted to the video display processing device.

【0033】本発明の第6の態様は、第3の態様の映像
撮影処理装置において、前記カメラパラメータは、カメ
ラの撮像面に投影された映像の幅である撮像幅データ
と、前記カメラのレンズ中心から前記撮像面までのレン
ズ撮像面間距離とを含むものとする。
According to a sixth aspect of the present invention, in the video photographing processing apparatus according to the third aspect, the camera parameters are imaging width data representing a width of an image projected on an imaging surface of the camera, and a lens of the camera. The distance between the lens imaging surface from the center to the imaging surface is included.

【0034】これにより、撮像幅データとレンズ撮像面
間距離とを含むカメラパラメータを上記映像表示処理装
置に伝送することができる。
Thus, the camera parameters including the imaging width data and the distance between the lens imaging planes can be transmitted to the video display processing device.

【0035】本発明の第9の態様は、第3の態様の映像
撮影処理装置において、前記カメラパラメータは、カメ
ラの撮像面に投影された映像の幅である撮像幅データ
と、前記カメラのレンズ中心から前記撮像面までの距離
と、前記カメラの方向である光軸回転角とを含むものと
する。
According to a ninth aspect of the present invention, in the video photographing processing apparatus according to the third aspect, the camera parameters are imaging width data representing a width of an image projected on an imaging surface of the camera, and a lens of the camera. The distance from the center to the imaging surface and the rotation angle of the optical axis that is the direction of the camera are included.

【0036】これにより、撮像幅データとレンズ撮像面
間距離と光軸回転角とを含むカメラパラメータを上記映
像表示処理装置に伝送することができる。
Thus, the camera parameters including the imaging width data, the distance between the lens imaging planes, and the optical axis rotation angle can be transmitted to the video display processing device.

【0037】以下、本発明の実施の形態について図を用
いて説明する。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.

【0038】(第1の実施の形態)図1は、第1の実施
の形態にかかる立体視映像撮影表示システムの全体概略
図である。本実施の形態の立体視映像撮影表示システム
は、撮影システムと表示システムとに大きく分けられ
る。
(First Embodiment) FIG. 1 is an overall schematic diagram of a stereoscopic video imaging and displaying system according to a first embodiment. The stereoscopic video imaging and displaying system according to the present embodiment is roughly divided into an imaging system and a display system.

【0039】撮影システムでは、カメラ制御装置101
が左右2眼のカメラ102のズームなどを制御して被写
体を撮影する。撮影によって得られた左右1対の映像は
カメラ制御装置101から立体視映像撮影処理装置10
3へ入力される。立体視映像撮影処理装置103が左右
1対の映像を個別に処理して得られた左右の映像に対応
した2つの映像信号は送信アンテナ104を通して、1
ないし複数の立体視を表示観察する表示システムに無線
送信される。
In the photographing system, the camera control device 101
Controls the zoom and the like of the left and right cameras 102 to photograph the subject. A pair of left and right images obtained by shooting are sent from the camera control device 101 to the stereoscopic image shooting processing device 10.
3 is input. The two video signals corresponding to the left and right images obtained by processing the pair of left and right images individually by the stereoscopic video imaging processing device 103 are transmitted through the transmission antenna 104 to 1
Or, it is wirelessly transmitted to a display system for displaying and observing a plurality of stereoscopic views.

【0040】表示システムでは、受信アンテナ105で
受信した2つの映像信号が立体視映像表示処理装置10
6へ入力される。立体視映像表示処理装置106は、各
ディスプレイ107や立体視映像を観察する各人の条件
に合わせ、表示画像を補正する。ディスプレイ107
は、立体視映像表示処理装置106から供給される2つ
の映像信号を可視化することにより、歪みが少ない立体
視映像を表示することができる。
In the display system, the two video signals received by the receiving antenna 105 are transmitted by the stereoscopic video display processor 10.
6 is input. The stereoscopic video display processing device 106 corrects the display image according to the conditions of each display 107 and each person who observes the stereoscopic video. Display 107
By visualizing two video signals supplied from the stereoscopic video display processing device 106, a stereoscopic video with little distortion can be displayed.

【0041】図2は、図1に示した表示システムの概略
図である。同図には、液晶シャッターメガネ201を用
いる例が示されている。ディスプレイ107は、右目用
映像202と左目用映像203を交互に表示する。ユー
ザは、右目左目のシャッターが排他的に開く同期回路付
き液晶シャッターメガネ201をかけてディスプレイ1
07の映像を見る。液晶シャッター同期信号発生器20
4は、見る人の右目には、右目用映像202が、左目に
は左目用映像203だけが見えるように、液晶シャッタ
ー開閉の同期信号を液晶シャッターメガネ201に赤外
線などを用いて送信する。
FIG. 2 is a schematic diagram of the display system shown in FIG. FIG. 2 shows an example in which the liquid crystal shutter glasses 201 are used. The display 107 displays the right-eye image 202 and the left-eye image 203 alternately. The user wears the liquid crystal shutter glasses 201 with the synchronization circuit that the shutters of the right and left eyes open exclusively, and wears the display 1.
Watch the 07 video. LCD shutter synchronization signal generator 20
4 transmits a liquid crystal shutter opening / closing synchronization signal to the liquid crystal shutter glasses 201 using infrared rays or the like so that the viewer's right eye sees the right eye image 202 and the left eye sees only the left eye image 203.

【0042】なお、液晶シャッターメガネ201を用い
た方式だけでなく、レンチキュラーレンズを用いた立体
視映像表示のディスプレイでも構わない。
It is to be noted that not only the system using the liquid crystal shutter glasses 201 but also a display for displaying a stereoscopic image using a lenticular lens may be used.

【0043】図3は、カメラ制御装置101の内部構成
図である。カメラマンは、カメラを被写体に向けるとと
もに、左右のカメラ301、302のズーム量等をカメ
ラ制御I/F303を介して入力する。制御部304
は、その入力に従い、左右カメラを制御するとともに、
カメラ状態データ入力部305にも、入力内容を送る。
カメラ状態データ入力部305では、左右カメラ30
1、302の状態を計測するとともに、この計測データ
と制御部304からのデータからカメラ状態データを決
定する。カメラ状態データは、左右のカメラ映像信号と
ともに、立体視映像撮影処理装置I/F306を介し
て、立体視映像撮影処理装置103へ送られる。
FIG. 3 is an internal configuration diagram of the camera control device 101. The cameraman points the camera toward the subject and inputs the amount of zoom of the left and right cameras 301 and 302 via the camera control I / F 303. Control unit 304
Controls the left and right cameras according to the input,
The input contents are also sent to the camera state data input unit 305.
In the camera state data input unit 305, the left and right cameras 30
1 and 302 are measured, and camera state data is determined from the measured data and data from the control unit 304. The camera state data is sent to the stereoscopic video shooting processing device 103 via the stereoscopic video shooting processing device I / F 306 together with the left and right camera video signals.

【0044】図4は、立体視映像撮影処理装置103の
構成図である。カメラ制御装置101からのカメラ状態
データは、カメラ制御装置I/F401を通り、カメラ
パラメータ算出部402に送られ、記録伝送および表示
処理に適するカメラパラメータデータに変換する。カメ
ラパラメータデータと左右映像データは、信号混合部4
03で混合処理され、信号記録送出部404で、記録ま
たは、各表示システムに伝送される。
FIG. 4 is a block diagram of the stereoscopic video photographing processing device 103. The camera state data from the camera control device 101 passes through the camera control device I / F 401, is sent to the camera parameter calculation unit 402, and is converted into camera parameter data suitable for recording transmission and display processing. The camera parameter data and the left and right video data are sent to the signal mixing unit 4
03, the signal is mixed, and the signal is recorded or transmitted to each display system by the signal recording transmission unit 404.

【0045】図5は、本発明の立体視映像表示処理装置
106の内部構成図である。撮影システムからの伝送信
号は、受信部501で復号処理をした後、映像データ/
カメラパラメータ分離部502で、左右映像とカメラパ
ラメータデータを分離する。一方、観察条件入力部50
3では、人のマニュアル入力もしくは、自動的な計測手
段により、ディスプレイ107等の観察条件データを得
る。補正量決定部504では、カメラパラメータデータ
と観察条件データから、受信した左右映像を歪みの少な
い立体視映像に補正する量を決定する。補正量に従い、
映像補正部505では左右映像のそれぞれを映像補正
し、補正後の映像をディスプレイ107に送る。
FIG. 5 is an internal configuration diagram of the stereoscopic image display processing device 106 of the present invention. The transmission signal from the imaging system is decoded by the reception unit 501 and then transmitted to the video data /
The camera parameter separation unit 502 separates the left and right images from the camera parameter data. On the other hand, the observation condition input unit 50
In Step 3, observation condition data on the display 107 or the like is obtained by manual input by a person or automatic measurement means. The correction amount determination unit 504 determines an amount to correct the received left and right images into a stereoscopic image with less distortion from the camera parameter data and the viewing condition data. According to the correction amount,
The image correction unit 505 performs image correction on each of the left and right images, and sends the corrected image to the display 107.

【0046】以下、第1の実施の形態の説明では、図1
中の左右のカメラ102の光軸108を平行にして撮影
された場合の実施の形態を示す。
Hereinafter, in the description of the first embodiment, FIG.
An embodiment in the case where an image is taken with the optical axes 108 of the left and right cameras 102 in the middle being parallel is shown.

【0047】図6は、図1中のカメラ106の光軸を平
行にした場合の撮像幾何の説明図である。左目用映像を
撮影する左カメラと右目用映像を撮影する右カメラは、
光軸601、602が平行でかつ左右対称になってい
る。また、左右のカメラは、レンズ間距離603だけ離
れている。
FIG. 6 is an explanatory diagram of the imaging geometry when the optical axis of the camera 106 in FIG. 1 is made parallel. The left camera that shoots left-eye video and the right camera that shoots right-eye video,
The optical axes 601 and 602 are parallel and bilaterally symmetric. The left and right cameras are separated by a distance 603 between lenses.

【0048】左カメラにおいて、被写体604は、被写
体604とレンズ中心605を結ぶ直線が、撮像面60
6と交わる投影位置607に投影される。光軸601
は、それぞれ撮像面中央608からレンズ中心605へ
向かうベクトルである。撮像面606とレンズ609は
レンズ撮像面間距離612離れ、かつ平行になってい
る。
In the left camera, a straight line connecting the subject 604 and the lens center 605 is formed by
6 is projected to a projection position 607 that intersects with the position 6. Optical axis 601
Are vectors directed from the imaging plane center 608 to the lens center 605, respectively. The imaging surface 606 and the lens 609 are separated from each other by a distance 612 between the lens imaging surfaces and are parallel to each other.

【0049】右カメラも、同様になっている。The same applies to the right camera.

【0050】被写体604の位置を図6中の被写体座標
系610で記述する。被写体座標系610は、左右レン
ズ609、611の中央を結ぶ線分の2等分点を原点と
し、原点から右レンズ611の中央へ向かう方向をx軸
とし、光軸方向601、602の反対方向をz軸とし、
被写体座標系610を右手系座標系としてy軸を取る。
The position of the subject 604 is described by a subject coordinate system 610 in FIG. The subject coordinate system 610 has an origin at a bisecting point of a line connecting the centers of the left and right lenses 609 and 611, an x-axis extending from the origin to the center of the right lens 611, and a direction opposite to the optical axis directions 601 and 602. Is the z-axis,
The y-axis is taken with the object coordinate system 610 as a right-handed coordinate system.

【0051】図7は、図6中の撮像面606の説明図で
ある。撮像面606の中に、撮像幅701の撮像域70
2がある。撮像面606と撮像域702の中央は一致し
ている。その点を原点とし、図6の被写体座標系610
のx軸、y軸と平行になるようにx軸、y軸を取り撮像
座標系703とする。
FIG. 7 is an explanatory diagram of the imaging surface 606 in FIG. An imaging area 70 having an imaging width 701 is included in the imaging surface 606.
There are two. The center of the imaging surface 606 coincides with the center of the imaging area 702. Using that point as the origin, the object coordinate system 610 of FIG.
The x-axis and the y-axis are taken so as to be parallel to the x-axis and the y-axis of FIG.

【0052】図8は、ディスプレイ107での表示と立
体視像の位置に関する幾何を説明する図である。左右の
目801、802は、ディスプレイ面803の中央に正
対し、ディスプレイ面803からディスプレイ距離80
4だけ離れている。左右の映像表示域805、806は
表示シフト距離807だけ左右対称にずらし表示する。
FIG. 8 is a view for explaining the geometry on the display on the display 107 and the position of the stereoscopic image. The left and right eyes 801 and 802 face the center of the display surface 803 and have a display distance 80 from the display surface 803.
4 away. The left and right image display areas 805 and 806 are displayed symmetrically shifted by a display shift distance 807.

【0053】人は、左右映像を左右の目801、802
それぞれで見ることで、立体的な映像を見ることができ
る。立体視像の位置808は、被写体の同じ点の右表示
位置809と右目802を結ぶ直線と、左表示位置81
0と左目801を結ぶ直線が交わる位置である。ここ
で、立体視像位置808を、図8中の立体視像座標系8
11で記述する。立体視像座標系811は、眼間距離8
12離れている右目802と左目801を結ぶ線分の2
等分点を原点とし、原点から右目802方向をX軸と
し、左右目801、802からディスプレイ面803に
向かう方向の反対方向をZ軸とし、立体視座標系811
を右手系となるようにY軸を取る。
The person views the left and right images with the left and right eyes 801 and 802.
By viewing each, you can see a three-dimensional image. The position 808 of the stereoscopic image includes a straight line connecting the right display position 809 and the right eye 802 of the same point of the subject, and the left display position 81
This is the position where a straight line connecting 0 and the left eye 801 intersects. Here, the stereoscopic image position 808 is defined by the stereoscopic image coordinate system 8 in FIG.
11 is described. The stereoscopic image coordinate system 811 has an interocular distance 8
2 of line segment connecting right eye 802 and left eye 801 which are 12 away
A stereoscopic coordinate system 811 is defined by using an equidistant point as the origin, setting the X direction of the right eye 802 from the origin, and setting the Z axis as the direction opposite to the display surface 803 from the left and right eyes 801 and 802.
Take the Y axis so that is a right-handed system.

【0054】図9は、図8中のディスプレイ面803の
説明図である。映像表示可能域901の中に、対称に表
示シフト距離807ずらし右目用映像表示域806と左
目用映像表示域805がある。図10は、図9の右目用
表示だけを抜き出した図である。表示域806に表示域
座標系1001を置く。表示域座標系1001は、表示
域の中央を原点とし、図8中の立体視像座標系811の
X軸、Y軸に平行に表示域座標系1001のX軸、Y軸
を取る。左目の表示座標形も同様に、表示域の中央に原
点を取る。
FIG. 9 is an explanatory diagram of the display surface 803 in FIG. Within the image displayable area 901, there are a right-eye image display area 806 and a left-eye image display area 805 shifted symmetrically by a display shift distance 807. FIG. 10 is a diagram in which only the right-eye display of FIG. 9 is extracted. A display area coordinate system 1001 is placed in the display area 806. The display area coordinate system 1001 has the origin at the center of the display area, and takes the X axis and the Y axis of the display area coordinate system 1001 in parallel with the X axis and the Y axis of the stereoscopic image coordinate system 811 in FIG. Similarly, the display coordinate form of the left eye has its origin at the center of the display area.

【0055】図6で考えると、被写***置604,点6
13,左レンズ中心605を頂点とする直角三角形(点
613の頂点が直角)と、左レンズ中心605、左撮像
面原点608、左投影位置607を頂点とする直角三角
形(左撮像面原点608の頂点が直角)が、相似形であ
ることから、被写体604の左撮像面608上の投影位
置607のx軸座標値Lx(左撮像面の撮像面座標系)
は、式1と表され、同様に、右撮像面615での投影位
置614のx軸座標値Rx(右撮像面の撮像面座標系)
は、式2と表される。
Considering FIG. 6, the object position 604, the point 6
13, a right-angled triangle having the left lens center 605 as a vertex (the vertex of the point 613 is a right angle), and a right-angled triangle having the left lens center 605, the left imaging plane origin 608, and the left projection position 607 as vertices (the Since the vertices are perpendicular to each other, the x-axis coordinate value Lx of the projection position 607 of the subject 604 on the left imaging surface 608 (the imaging surface coordinate system of the left imaging surface) is similar.
Is represented by Expression 1, and similarly, the x-axis coordinate value Rx of the projection position 614 on the right imaging surface 615 (imaging surface coordinate system of the right imaging surface)
Is represented by Expression 2.

【0056】 Lx=−(x+Cs/2)×d/(−z) (式1) Rx=−(x−Cs/2)×d/(−z) (式2) ここで、x、zは、被写体座標系610での被写体60
4の座標値(x、y、z)のx値とz値、Csは、レン
ズ間距離603、dは、レンズ撮像面間距離612であ
る。
Lx = − (x + Cs / 2) × d / (− z) (Expression 1) Rx = − (x−Cs / 2) × d / (− z) (Expression 2) where x and z are , Subject 60 in subject coordinate system 610
The x value and the z value of the coordinate value (x, y, z) of No. 4, Cs is the distance 603 between lenses, and d is the distance 612 between lens imaging surfaces.

【0057】次に表示を考える。図6で撮影された像
は、反転された後、S倍に拡大され、図8のようにディ
スプレイ803に表示される。従って、被写体604の
左目用映像表示域805上の表示位置810のx軸座標
値Lx’(左目用映像表示域805の表示域座標系)
は、式1から式3となり、同様に右目用映像表示域上8
06の表示位置のx軸座標値Rx’(右目用映像表示域
806の表示域座標系1001)は、式2から式4とな
る。
Next, the display will be considered. The image photographed in FIG. 6 is inverted and then magnified S times and displayed on the display 803 as shown in FIG. Therefore, the x-axis coordinate value Lx ′ of the display position 810 on the left-eye image display area 805 of the subject 604 (the display area coordinate system of the left-eye image display area 805).
Is changed from Expression 1 to Expression 3, and similarly, 8 is displayed on the right-eye image display area.
The x-axis coordinate value Rx ′ of the display position of 06 (the display area coordinate system 1001 of the right-eye image display area 806) is expressed by Expression 2 to Expression 4.

【0058】 Lx'=S×(x+Cs/2)×d/(−z) (式3) Rx'=S×(x−Cs/2)×d/(−z) (式4) ここで、前述の通り、x、zは、被写体座標系610で
の被写***置、Sは、映像の拡大率、Csはレンズ間距
離603、dは、レンズ撮像面間距離612である。
Lx ′ = S × (x + Cs / 2) × d / (− z) (Expression 3) Rx ′ = S × (x−Cs / 2) × d / (− z) (Expression 4) As described above, x and z are the subject position in the subject coordinate system 610, S is the magnification of the image, Cs is the distance 603 between lenses, and d is the distance 612 between lens imaging surfaces.

【0059】次に、図8で考えると、左表示位置81
0、左目801及び点813を頂点とする直角三角形
(点813が直角)と、立体視像(点)808、左目8
01及び点814を頂点とする直角三角形(点814が
直角)が相似形であることから、立体視像座標系811
における立体視像808の位置(X,Y,Z)のXとZ
の関係は式5である。同様に、右目802に関しては式
6を得る。
Next, referring to FIG. 8, the left display position 81
0, a right-angled triangle having the left eye 801 and the point 813 as vertices (the point 813 is a right angle), a stereoscopic image (point) 808, and the left eye 8
Since the right-angled triangle having the vertices 01 and 814 (the point 814 is a right angle) is similar, the stereoscopic image coordinate system 811
X and Z at the position (X, Y, Z) of the stereoscopic image 808 at
Is a relation of Expression 5. Similarly, for the right eye 802, Equation 6 is obtained.

【0060】 (Lx'−Ss/2+Es/2)/(X+Es/2)=D/(−Z) (式5) (Rx'+Ss/2−Es/2)/(X−Es/2)=D/(−Z) (式6) ここで、Ssは表示シフト距離807であり、Esは、
眼間距離812であり、Dは、ディスプレイ距離804
である。
(Lx′−Ss / 2 + Es / 2) / (X + Es / 2) = D / (− Z) (Equation 5) (Rx ′ + Ss / 2−Es / 2) / (X−Es / 2) = D / (− Z) (Equation 6) where Ss is the display shift distance 807 and Es is
The interocular distance 812, and D is the display distance 804
It is.

【0061】式3から式6までを用いて、X,Zについ
て解くと式7と式8が得られる。
By solving equations X and Z using equations 3 to 6, equations 7 and 8 are obtained.

【0062】 X=x×Es×S×d/{S×d×Cs+z×(Ss−Es)} (式7) Z=z×D×Es/{S×d×Cs+z×(Ss−Es)} (式8) 次に、Es,Ss,D,S,及びdを式9と式10にな
るようにしたとする。
X = x × Es × S × d / {S × d × Cs + z × (Ss−Es)} (Equation 7) Z = z × D × Es / {S × d × Cs + z × (Ss−Es) } (Equation 8) Next, it is assumed that Es, Ss, D, S, and d are made to become Equations 9 and 10.

【0063】Es=Ss (式9) D=S×d (式10) 式9と式10を、式7と式8に代入することで、式11
と式12を得る。
Es = Ss (Expression 9) D = S × d (Expression 10) By substituting Expressions 9 and 10 into Expressions 7 and 8, Expression 11
And Equation 12 are obtained.

【0064】X=x×Es/Cs (式11) Z=z×Es/Cs (式12) 次に、立体視像808のy座標値を求める。左右の撮像
面606、615への投影位置607、614のy軸座
標値Ly及びRy(撮像面座標系)は、式13になる。
映像に対して反転処理とS倍拡大処理をしているので、
左右の映像表示域上805、806の表示位置のY軸座
標値Ly’及びRy’(表示域座標系)は、式13から
式14になる。
X = x × Es / Cs (Equation 11) Z = z × Es / Cs (Equation 12) Next, the y coordinate value of the stereoscopic image 808 is obtained. The y-axis coordinate values Ly and Ry (imaging plane coordinate system) of the projection positions 607 and 614 on the left and right imaging planes 606 and 615 are given by Expression 13.
Since the inversion process and the S-fold enlargement process are performed on the video,
The Y-axis coordinate values Ly ′ and Ry ′ (display area coordinate system) of the display positions of the display positions 805 and 806 on the left and right video display areas are expressed by Expression 13 to Expression 14.

【0065】図8の立体視像808のY座標値(立体視
像座標系)は、前述の相似関係と同様な関係から式15
となる。式15に式12と式14を代入し、式16を得
る。
The Y coordinate value (stereoscopic image coordinate system) of the stereoscopic image 808 in FIG.
Becomes Substituting Expressions 12 and 14 into Expression 15, Expression 16 is obtained.

【0066】 Ly=Ry=−y×d/(−z) (式13) Ly'=Ry'=S×y×d/(−z) (式14) Y=Ly'×(−Z/D) (式15) Y=y×Es/Cs (式16) 以上から、式11と式12及び式16より、式9及び式
10の条件を満たせば、等方的に空間がEs/Cs倍に
拡大されて、見えることが分かる。
Ly = Ry = −y × d / (− z) (Equation 13) Ly ′ = Ry ′ = S × y × d / (− z) (Equation 14) Y = Ly ′ × (−Z / D) (Equation 15) Y = y × Es / Cs (Equation 16) From the equations (11), (12) and (16), if the conditions of the equations (9) and (10) are satisfied, the space isotropically Es / Cs times. It can be seen that it is enlarged to

【0067】ここで、左右の映像表示域805、806
の幅をHとすると、映像の拡大率Sは、式17になる。
その上、式10及び式17より、式18となる。ここ
で、kは撮像幅701である。
Here, the left and right image display areas 805 and 806
Is H, the enlargement ratio S of the video is given by Expression 17.
In addition, Expression 18 is obtained from Expression 10 and Expression 17. Here, k is the imaging width 701.

【0068】S=H/k (式17) H=k×D/d (式18) すなわち、表示シフト距離807を、式9になるように
し、左右の映像表示域805、806の幅Hを、式18
になるようにすることで、式11と式12及び式16の
ように、投影像は、撮影被写体を等方的にEs/Cs倍
した像になることが分かる。
S = H / k (Equation 17) H = k × D / d (Equation 18) That is, the display shift distance 807 is set to the equation 9, and the width H of the left and right video display areas 805 and 806 is set. , Equation 18
Thus, it can be seen that the projected image becomes an image obtained by isotropically multiplying the photographing subject by Es / Cs as shown in Expressions 11, 12, and 16.

【0069】従って、光軸を平行にして、撮影された立
体視像に関しては、式9に従い、表示シフト距離807
を眼間距離812と等しくし、その上、式18に従い、
左右の映像表示域805、806の幅Hを、撮像面幅7
01とスクリーン間距離804を掛けレンズ撮像面間距
離612で割った値にすることで、歪みのない立体視像
を提供することができる。
Accordingly, for a stereoscopic image taken with the optical axis parallel, the display shift distance 807
Is equal to the interocular distance 812, and according to equation 18,
The width H of the left and right video display areas 805 and 806 is determined by the imaging surface width 7
By multiplying 01 by the distance 804 between screens and dividing by the distance 612 between lens imaging surfaces, a stereoscopic image without distortion can be provided.

【0070】次に、上で述べた条件を満たすための処理
について説明する。
Next, processing for satisfying the above-described conditions will be described.

【0071】前記した図3のカメラ制御装置101のカ
メラ状態データ入力部305では、カメラのズーム機構
やレンズ位置などをカメラ部301、302等から読み
取り、カメラ状態データとして出力する。
The camera status data input unit 305 of the camera control device 101 shown in FIG. 3 reads the zoom mechanism and lens position of the camera from the camera units 301 and 302 and outputs the camera status data.

【0072】前記した図4の立体視映像撮影処理装置1
03では、工場出荷時などに測定したカメラ状態とカメ
ラパラメータの関係テーブルを持ち、その関係テーブル
をもとに、カメラ状態データから、撮影時の撮像幅70
1のデータとレンズ撮像面間距離612のデータをカメ
ラパラメータとして算出する。
The stereoscopic image photographing processing apparatus 1 shown in FIG.
03, a relation table between the camera state measured at the time of shipment from the factory and the camera parameters is provided, and based on the relation table, the imaging width 70 at the time of photographing is obtained from the camera state data.
1 is calculated as the camera parameters.

【0073】カメラパラメータデータは、左右映像デー
タと信号混合部403で混合処理され、信号記録送出部
404で、記録または、各表示システムに伝送される。
The camera parameter data is mixed with the left and right video data by the signal mixing unit 403, and is recorded by the signal recording and transmitting unit 404 or transmitted to each display system.

【0074】図11は、図5で説明した立体視映像表示
処理装置106の詳細図である。
FIG. 11 is a detailed diagram of the stereoscopic video display processing device 106 described with reference to FIG.

【0075】立体視映像撮影処理装置103からの伝送
信号は、受信部501で復号処理をした後、映像データ
/カメラパラメータ分離部502に入力される。映像デ
ータ/カメラパラメータ分離部502では、左右の映像
抽出部1101、1102が伝送信号に含まれた映像信
号を左右映像に分離して映像補正部505に送る。ま
た、撮像幅kデータ抽出部1103が伝送信号に含まれ
た撮像幅701のデータを分離し、レンズ撮像面間距離
d抽出部1104が伝送信号に含まれたレンズ撮像面間
距離612を分離し、それぞれ補正量決定部504内の
表示域幅H計算部1105に送る。
The transmission signal from the stereoscopic video photographing processing device 103 is input to the video data / camera parameter separation unit 502 after being decoded by the receiving unit 501. In the video data / camera parameter separation unit 502, the left and right video extraction units 1101 and 1102 separate the video signal included in the transmission signal into left and right video images and send them to the video correction unit 505. Also, the imaging width k data extraction unit 1103 separates the data of the imaging width 701 included in the transmission signal, and the lens imaging surface distance d extraction unit 1104 separates the lens imaging surface distance 612 included in the transmission signal. Are sent to the display area width H calculation unit 1105 in the correction amount determination unit 504, respectively.

【0076】一方、観察条件入力部503内の観察条件
設定I/F部1106を介して得たデータをもとに、デ
ィスプレイ距離D決定部1107ではディスプレイ距離
804を決定し、補正量決定部504の表示域幅H計算
部1105に送る。また、同様に眼間距離Es決定部1
108では、眼間距離812を決め、表示シフト距離S
s計算部1109に送る。
On the other hand, based on the data obtained via the observation condition setting I / F unit 1106 in the observation condition input unit 503, the display distance D determination unit 1107 determines the display distance 804, and the correction amount determination unit 504 Is sent to the display area width H calculation unit 1105. Similarly, the interocular distance Es determining unit 1
At 108, the interocular distance 812 is determined, and the display shift distance S
Send to the s calculation unit 1109.

【0077】補正量決定部504の表示域幅H計算部1
105では、式18に従い、表示域幅Hを計算し、映像
補正部505に送る。表示シフト距離Ss計算部110
9では、式9に従い、表示シフト距離807を計算し、
映像補正部505に送る。映像補正部505では左右映
像のそれぞれの表示域幅Hになるように、映像補正する
とともに左右映像のずらす距離が表示シフト距離807
になるように、映像補正し、ディスプレイ107に送
る。ディスプレイ107では、人の右目には、補正後の
右映像を、左目には補正後の左映像を見せる。
Display area width H calculator 1 of correction amount determiner 504
At 105, the display area width H is calculated according to Expression 18 and sent to the image correction unit 505. Display shift distance Ss calculator 110
9, the display shift distance 807 is calculated according to Equation 9,
The image is sent to the image correction unit 505. The image correction unit 505 corrects the image so that the display area width H of each of the left and right images becomes the same, and shifts the distance between the left and right images by the display shift distance 807.
The image is corrected and sent to the display 107. On the display 107, the right eye of the person displays the corrected right image, and the left eye displays the corrected left image.

【0078】以上の処理により、光軸を平行にして、撮
影された立体視映像を、ディスプレイ等の観察条件に合
わせた歪みのない立体視映像として、人に提供すること
ができる。また、補正処理は、立体視映像表示処理装置
106で行うため、複数の人がそれぞれ異なるディスプ
レイ107で立体視映像を鑑賞する場合でも、それぞれ
に合わせた補正が可能となる。
With the above-described processing, the captured stereoscopic video image can be provided to a person as a stereoscopic video image having no distortion matched to the viewing conditions of a display or the like with the optical axis parallel. In addition, since the correction processing is performed by the stereoscopic video display processing device 106, even when a plurality of people appreciate the stereoscopic video on different displays 107, it is possible to perform the correction corresponding to each.

【0079】(第2の実施の形態)第1の実施形態で
は、左右カメラの光軸108を平行にして撮影した立体
視映像を扱った。第2の実施形態では、光軸108を交
差させて撮影した立体視映像を扱う。
(Second Embodiment) In the first embodiment, a stereoscopic video image taken with the optical axes 108 of the left and right cameras taken in parallel is handled. In the second embodiment, a stereoscopic video image taken with the optical axis 108 intersecting is handled.

【0080】図12は、光軸を交差させた場合の撮像幾
何説明図である。図6と同じく左右のカメラは対称に置
いているが、光軸1201、1202を被写体座標系1
208のy軸まわりに光軸回転角1203だけ中央より
にそれぞれ対称に回転させ、交差するように置いてい
る。これは、被写体のディスプレイ上での視差量を少な
くする場合などに良く用いられる。しかし、光軸を交差
させ撮影した立体視像は、歪みが発生するなどの問題が
ある。
FIG. 12 is an explanatory view of the imaging geometry when the optical axes are crossed. The left and right cameras are placed symmetrically as in FIG.
The lens is rotated symmetrically around the y-axis 208 from the center by an optical axis rotation angle 1203, and placed so as to intersect. This is often used when the amount of parallax of a subject on a display is reduced. However, a stereoscopic image captured by crossing the optical axis has a problem that distortion occurs.

【0081】このような、光軸を交差させて撮影した映
像に対しては、本実施形態の立体視映像表示処理装置1
06では次の順で映像補正を行う。
For such an image photographed with the optical axes crossing each other, the stereoscopic image display processing device 1 according to the present embodiment is used.
At 06, image correction is performed in the following order.

【0082】映像補正順 (1)光軸を平行にして撮影した映像に戻す映像補正 (2)式9及び式18に従う映像表示補正 上記(2)は、第1の実施の形態の説明の中で述べたの
で、以下では、上記(1)の映像補正を説明する。
Image Correction Order (1) Image Correction for Returning to Image Captured with Parallel Optical Axis (2) Image Display Correction According to Equations 9 and 18 The above (2) is the same as in the description of the first embodiment. Therefore, the image correction of the above (1) will be described below.

【0083】被写体が撮像面に投影される位置は、コン
ピュータグラフィックスで用いられる射影変換の視野変
換と透視変換で求めることができる。
The position where the subject is projected on the image pickup plane can be obtained by the visual field transformation and the perspective transformation of the projective transformation used in computer graphics.

【0084】式19は、被写体1209を、視野変換と
透視変換により投影した時の投影位置1211を表す式
であり、光軸1201を回転交差させて撮影した場合の
式である。式20は、レンズ中心位置1210は変え
ず、光軸方向1201を平行に戻して投影させた場合の
投影位置を表す式である。
Equation 19 is an equation representing the projection position 1211 when the subject 1209 is projected by field-of-view transformation and perspective transformation, and is an equation when the optical axis 1201 is rotated and crossed. Equation 20 is an equation representing the projection position when the lens center position 1210 is not changed and the optical axis direction 1201 is returned parallel to the projection.

【0085】 w×Pp=Po×Tt×Tr×Tp (式19) w'×Pp'=Po×Tt×Tr'×Tp (式20) ここで、Poは、被写体座標系1208における被写体
1209の位置で、同次座標(x、y、z、1)であ
る。Ppは、光軸1201を回転交差させて撮影した場
合の、撮像座標系における投影位置1211で、同次座
標(X,Y,Z,1)である。Pp’は、光軸1201
を平行にして撮影した場合の、撮像座標系における投影
位置で、同次座標(X’,Y’,Z’,1)である。T
tは、被写体1209の位置をレンズ中心1210を原
点とする視点座標系で表現するための平行移動視野変換
行列、Tr及びTr’は、カメラ光軸を視点座標系の−
z軸方向とする視点座標系で表現するための回転移動視
野変換行列である。Tpは、透視変換のための変換行
列。w及びw’は、同次座標表現の重みである。
W × Pp = Po × Tt × Tr × Tp (Equation 19) w ′ × Pp ′ = Po × Tt × Tr ′ × Tp (Equation 20) Here, Po is the value of the subject 1209 in the subject coordinate system 1208. Is the position, homogeneous coordinates (x, y, z, 1). Pp is a projection position 1211 in the image capturing coordinate system when the image is taken while rotating and crossing the optical axis 1201, and is a homogeneous coordinate (X, Y, Z, 1). Pp ′ is the optical axis 1201
Are parallel positions (X ′, Y ′, Z ′, 1) in the imaging coordinate system when the image is taken in parallel. T
t is a parallel translation field-of-view transformation matrix for expressing the position of the subject 1209 in a viewpoint coordinate system with the lens center 1210 as the origin, and Tr and Tr 'are the camera optical axes in the viewpoint coordinate system.
It is a rotational movement field-of-view transformation matrix for expressing in a viewpoint coordinate system in the z-axis direction. Tp is a transformation matrix for perspective transformation. w and w ′ are weights of the homogeneous coordinate expression.

【0086】なお、Ttは式21、Trは式22,T
r’は式23、Tpは式24の形式の行列である。式2
4のdは、図12のレンズ1204から撮像面1205
までのレンズ撮像面間距離距離1206であり、kは撮
像幅1207である。
Note that Tt is represented by the equation (21), Tr is represented by the equation (22),
r ′ is a matrix of the formula 23, and Tp is a matrix of the formula 24. Equation 2
4 d represents the distance from the lens 1204 in FIG.
, And k is an imaging width 1207.

【0087】[0087]

【数1】 (Equation 1)

【0088】[0088]

【数2】 (Equation 2)

【0089】[0089]

【数3】 (Equation 3)

【0090】[0090]

【数4】 なお、式22は、光軸を、y軸から原点方向を見て時計
回りにαだけ回転させた場合、式25となる。式23
は、光軸は、平行で回転していないので式26となる。
以下の説明では、一般的な光軸回転を扱えることを示す
ため、式22および式23で説明する。
(Equation 4) Equation 22 becomes Equation 25 when the optical axis is rotated clockwise by α when viewing the direction of the origin from the y axis. Equation 23
Is given by Equation 26 since the optical axis is parallel and not rotating.
In the following description, equations 22 and 23 are used to show that general optical axis rotation can be handled.

【0091】[0091]

【数5】 (Equation 5)

【0092】[0092]

【数6】 式19の両辺にTp-1 * Tr-1 * Tt-1 をかけ、左右両辺
を入れかえると式27となる。
(Equation 6) Equation 27 is obtained by multiplying both sides of Equation 19 by Tp -1 * Tr -1 * Tt -1 and exchanging the left and right sides.

【0093】 Po=w×Pp×Tp-1×Tr-1×Tt-1 (式27) 式27を式20のPoに代入すると式28となる。Po = w × Pp × Tp −1 × Tr −1 × Tt −1 (Expression 27) When Expression 27 is substituted for Po in Expression 20, Expression 28 is obtained.

【0094】 w'×Pp'=w×Pp×Tp-1×Tr-1×Tt-1×Tt×Tr'×Tp (式28) 式21から式29となり、式28の一部であるTt-1×
Ttは、単位行列となる。従って、式28は、式30と
なる。
W ′ × Pp ′ = w × Pp × Tp −1 × Tr −1 × Tt −1 × Tt × Tr ′ × Tp (Expression 28) From Expression 21, Expression 29 is obtained, and Tt which is a part of Expression 28 is obtained. -1 x
Tt is a unit matrix. Therefore, Equation 28 becomes Equation 30.

【0095】[0095]

【数7】 w'×Pp'=w×Pp×Tp-1×Tr-1×Tr'×Tp (式30) 続いて、TrとTr’は、式22と式23の形式の行列
であることから、Tr-1×Tr’は、式31の形式の行
列となる。
(Equation 7) w ′ × Pp ′ = w × Pp × Tp −1 × Tr −1 × Tr ′ × Tp (Equation 30) Since Tr and Tr ′ are matrices of the form of Equations 22 and 23, Tr −1 × Tr ′ is a matrix of the form of Equation 31.

【0096】[0096]

【数8】 一方、式24のTpの逆行列を求めると式32となる。(Equation 8) On the other hand, when the inverse matrix of Tp in Expression 24 is obtained, Expression 32 is obtained.

【0097】[0097]

【数9】 式30に、式24と式31及び式32を代入して計算す
ると、式33のように変形できる。
(Equation 9) By substituting Expression 24, Expression 31 and Expression 32 into Expression 30, the calculation can be modified as Expression 33.

【0098】[0098]

【数10】 (Equation 10)

【0099】[0099]

【数11】 式34から、画像の補正式を求める。式34の右辺の行
列では、3列目が、画像には無関係なZ’に対応するた
め、削除しても差し支えない。また、削除後の3行目に
は0が並ぶため、削除し、かつ、両辺に1/wを掛ける
ことで、式34を、式35と式36及び式37で表すこ
とができる。なお、Qp(X,Y,1)は、Pp(X,
Y,Z,1)のZを除いた表現であり、Qp’(X’,
Y’,1)は、Pp’(X’,Y’,Z’,1)のZ’
を除いた表現である。
[Equation 11] From Expression 34, a correction expression for the image is obtained. In the matrix on the right side of Expression 34, the third column corresponds to Z ′ irrelevant to the image, and may be deleted. Also, since 0s are lined up in the third line after the deletion, Expression 34 can be expressed by Expressions 35, 36, and 37 by deleting and multiplying both sides by 1 / w. Note that Qp (X, Y, 1) is Pp (X, Y, 1).
This is an expression excluding Z of Y, Z, 1), and Qp ′ (X ′,
Y ′, 1) is Z ′ of Pp ′ (X ′, Y ′, Z ′, 1)
Is the expression excluding.

【0100】すなわち、光軸交差時の投影位置Qp
(X,Y,1)と光軸平行時の投影位置Qp’(X’,
Y’,1)は、式37の3行3列変換行列Tによる式3
6の変換で表される。
That is, the projection position Qp when the optical axis intersects
(X, Y, 1) and the projection position Qp ′ (X ′,
Y ′, 1) is expressed by the following equation (3) using the three-row, three-column transformation matrix T in equation (37).
6 is represented.

【0101】W=w'/w (式35) W×Qp'=Qp×T (式36)W = w ′ / w (Equation 35) W × Qp ′ = Qp × T (Equation 36)

【0102】[0102]

【数12】 ここで、式37は、撮影時のd、k、及び光軸の回転角
αより求めることができる行列である。
(Equation 12) Here, Expression 37 is a matrix that can be obtained from d and k at the time of shooting and the rotation angle α of the optical axis.

【0103】従って、光軸を平行にして撮影した際に、
得られる画像は、光軸を交差させ撮影した画像の各ピク
セルに対して、式36の変換により求めた新たな座標へ
の移動処理により、得られる。
Therefore, when photographing with the optical axis parallel,
The obtained image is obtained by moving each pixel of the image photographed by crossing the optical axis to a new coordinate obtained by the conversion of Expression 36.

【0104】前記の映像補正順で述べたように、左右画
像のそれぞれに対して、式36に従う画像補正を行い、
それぞれの光軸が平行な場合に得られる画像を合成す
る。その後、第1の実施の形態で述べた式9及び式18
に従う画像補正を行う。これらの処理で光軸が交差した
場合でも、歪みのない立体視像を表示することが可能と
なる。
As described above in the video correction order, image correction according to equation 36 is performed on each of the left and right images.
Images obtained when the optical axes are parallel are synthesized. Thereafter, the expressions 9 and 18 described in the first embodiment are used.
Image correction is performed according to. Even if the optical axes intersect in these processes, a stereoscopic image without distortion can be displayed.

【0105】次に、上で述べた処理の実現方法を説明す
る。
Next, a method of realizing the above-described processing will be described.

【0106】図3のカメラ制御部101では、第1の実
施の形態で述べた処理に加え、光軸αを求めるため、制
御部304での左右カメラ301、302の回転制御値
もしくは、左右カメラの実際の回転角を計測する回転符
号化器等の出力データを、カメラ状態データ入力部30
5で処理し、立体視映像撮影処理装置I/F306を介
し、立体視映像撮影処理装置103に送る。
In the camera control unit 101 shown in FIG. 3, in addition to the processing described in the first embodiment, the rotation control values of the left and right cameras 301 and 302 in the control unit 304 or the left and right cameras Output data from a rotation encoder or the like for measuring the actual rotation angle of the camera
5 and is sent to the stereoscopic video shooting processing device 103 via the stereoscopic video shooting processing device I / F 306.

【0107】図4の立体視映像撮影処理装置103で
は、第1の実施の形態で述べた処理に加え、送られてき
た回転角制御値等から、カメラパラメータとして、光軸
回転角1203を決定する。カメラパラメータデータと
左右映像データは、信号混合部403で混合処理され、
信号記録送出部404で、記録または、各表示システム
に伝送される。
In the stereoscopic video photographing processing apparatus 103 shown in FIG. 4, in addition to the processing described in the first embodiment, an optical axis rotation angle 1203 is determined as a camera parameter from the transmitted rotation angle control value and the like. I do. The camera parameter data and the left and right video data are mixed by the signal mixing unit 403,
The signal is recorded or transmitted to each display system by the signal record transmission unit 404.

【0108】図13は、第1の実施の形態で説明した図
11と同様、図5で説明した立体視映像表示処理装置1
06の詳細図である。
FIG. 13 shows the stereoscopic video display processing device 1 described in FIG. 5 similarly to FIG. 11 described in the first embodiment.
It is a detailed view of 06.

【0109】図13では、図11の構成に、映像データ
/カメラパラメータ分離部502には光軸回転角α抽出
部1301を加え、補正量決定部504には光軸補正行
列T計算部1302を加えている。
In FIG. 13, an optical axis rotation angle α extraction unit 1301 is added to the video data / camera parameter separation unit 502 and an optical axis correction matrix T calculation unit 1302 is added to the correction amount determination unit 504 in the configuration of FIG. In addition.

【0110】図13の立体視映像表示処理装置106で
は、第1の実施の形態の処理に加え、光軸回転角α抽出
部1301で、光軸回転角1203を送られてきた信号
から抽出し、光軸補正変換行列T計算部1302に送
る。光軸補正変換行列T計算部1302では、光軸回転
角1203とともに、撮像幅kデータ抽出部1103か
らの撮像幅1207とレンズ撮像面間距離d抽出部11
04からのレンズ撮像面間距離1206を受け、式37
の光軸補正行列Tを計算し、映像補正部505に送る。
映像補正部505では光軸補正行列Tを用いて、左右映
像の光軸を平行にする映像補正と、第1の実施の形態で
述べた表示シフト距離807と表示域805,806の
幅Hをもとにした映像補正を行う。その後、映像補正後
の左右映像を、ディスプレイ107に送り、人の右目に
は、補正後の右映像を、左目には補正後の左映像を見せ
る。
In the stereoscopic image display processing device 106 shown in FIG. 13, in addition to the processing of the first embodiment, an optical axis rotation angle α extraction unit 1301 extracts an optical axis rotation angle 1203 from the transmitted signal. To the optical axis correction conversion matrix T calculation unit 1302. In the optical axis correction conversion matrix T calculation unit 1302, the imaging width 1207 from the imaging width k data extraction unit 1103 and the distance d between the lens imaging surfaces d together with the optical axis rotation angle 1203 are extracted.
In response to the distance 1206 from the lens imaging surface 1204 to the distance
Is calculated and sent to the image correction unit 505.
The image correction unit 505 uses the optical axis correction matrix T to correct the image to make the optical axes of the left and right images parallel, and to adjust the display shift distance 807 and the width H of the display areas 805 and 806 described in the first embodiment. Perform the image correction based on it. Thereafter, the left and right images after the image correction are sent to the display 107, and the right eye of the person displays the corrected right image and the left eye displays the corrected left image.

【0111】以上の処理により、光軸が平行でなく、交
差して撮影した立体視映像でも、ディスプレイ等の観察
条件に合わせた歪みのない立体視映像として、人に提供
することができる。また、補正処理は、立体視映像表示
処理装置106で行うため、複数の人がそれぞれ異なる
ディスプレイで立体視映像を鑑賞する場合でも、それぞ
れに合わせた補正が可能となる。
By the above-described processing, even a stereoscopic video image whose optical axes are not parallel and which are photographed crossing each other can be provided to a human as a stereoscopic video image without distortion according to observation conditions such as a display. In addition, since the correction processing is performed by the stereoscopic video display processing device 106, even when a plurality of people appreciate the stereoscopic video on different displays, it is possible to perform correction according to each.

【0112】(第3の実施の形態)第2の実施の形態で
は、左右対称に光軸を交差させ撮影した立体視像に対す
る実施の形態を示したが、第3の実施の形態では、図1
4のように、左右カメラ独立に光軸の回転角を調整でき
るようにし、被写体1401に光軸1402、1403
を合わせて撮影した映像に対して、光軸を平行にして撮
影したときの映像に戻し、歪みのない立体視像を表示で
きるようにする補正機能を実現する。その上、光軸を別
の被写体1404に合わた映像に補正する機能も実現す
る。
(Third Embodiment) In the second embodiment, an embodiment for a stereoscopic image photographed by symmetrically intersecting the optical axis has been described. However, in the third embodiment, FIG. 1
4, the rotation angle of the optical axis can be adjusted independently for the left and right cameras, and the optical axis 1402, 1403
With respect to the image shot with the image, the image is returned to the image obtained by shooting with the optical axis parallel, and a correction function for displaying a stereoscopic image without distortion is realized. In addition, a function of correcting the optical axis to an image matched to another subject 1404 is also realized.

【0113】図15は、本実施の形態の立体視映像表示
処理装置106の内部構成図である。第2の実施の形態
の図13との違いは、光軸回転角α抽出部1301を左
右光軸回転角αlαr抽出部1501に置き換え、観察
条件入力部503に新たに光軸方向βlβr決定部15
02を設け、光軸補正行列T計算部1503の入力を左
右光軸回転角αlαr抽出部1501だけでなく、光軸
方向βlβr決定部1502の出力としている点であ
る。
FIG. 15 is an internal configuration diagram of the stereoscopic video display processing device 106 of the present embodiment. The difference between the second embodiment and FIG. 13 is that the optical axis rotation angle α extraction unit 1301 is replaced by a left and right optical axis rotation angle αlαr extraction unit 1501, and the observation condition input unit 503 newly adds an optical axis direction βlβr determination unit 15.
02 is provided, and the input of the optical axis correction matrix T calculation unit 1503 is the output of the optical axis direction βlβr determination unit 1502 as well as the left and right optical axis rotation angle αlαr extraction unit 1501.

【0114】第2の実施の形態では、光軸回転角がαの
場合に、式25および式26に従い、Tr及びTr’を
計算し、左右それぞれに映像補正を行っていた。第3の
実施の形態では、左撮影映像の光軸回転角1405をα
lとし、表示の際の左映像の光軸方向角をβlとする
と、第2の実施形態の処理における式25を式38と
し、式26を式39として処理する。同様に、右撮影映
像の光軸回転角1406をαrとし、表示の際の右映像
の光軸方向角をβrとすると、第2の実施形態の処理に
おける式25および式26の式を式40及び式41に変
更して処理する。
In the second embodiment, when the optical axis rotation angle is α, Tr and Tr ′ are calculated according to Equations 25 and 26, and image correction is performed on each of the right and left sides. In the third embodiment, the optical axis rotation angle 1405 of the left photographed image is α
Assuming that l and the angle in the optical axis direction of the left image at the time of display are βl, Expression 25 in the processing of the second embodiment is expressed as Expression 38, and Expression 26 is processed as Expression 39. Similarly, assuming that the optical axis rotation angle 1406 of the right photographed image is αr and the optical axis direction angle of the right image at the time of display is βr, Expressions 25 and 26 in the processing of the second embodiment are expressed by Expression 40. Then, the processing is changed to Expression 41.

【0115】[0115]

【数13】 (Equation 13)

【0116】[0116]

【数14】 [Equation 14]

【0117】[0117]

【数15】 (Equation 15)

【0118】[0118]

【数16】 なお、歪みのない映像にするためは、表示の光軸方向を
平行にすればよいので、βl及びβrは0である。従っ
て、式39及び式41は、式26のような、単位行列と
なる。
(Equation 16) Note that βl and βr are 0 because an image with no distortion can be obtained by making the display optical axis directions parallel. Therefore, Expression 39 and Expression 41 become a unit matrix as in Expression 26.

【0119】次に、上で述べた処理の実現方法を説明す
る。
Next, a method of realizing the above-described processing will be described.

【0120】図3のカメラ制御部101では、第1の実
施の形態で述べた処理に加え、左右の光軸回転角140
5、1406とを求めるため、制御部304での左右カ
メラ301、302のそれぞれの回転制御値もしくは、
左右カメラの実際の回転角を計測する回転符号化器等の
出力データを、カメラ状態データ入力部305で処理
し、立体視映像撮影処理装置I/F306を介し、立体
視映像撮影処理装置103に送る。
In the camera control unit 101 of FIG. 3, in addition to the processing described in the first embodiment, the left and right optical axis rotation angles 140
5 and 1406, the respective rotation control values of the left and right cameras 301 and 302 in the control unit 304 or
Output data from a rotation encoder or the like that measures the actual rotation angle of the left and right cameras is processed by the camera state data input unit 305 and transmitted to the stereoscopic video imaging processing device 103 via the stereoscopic video imaging processing device I / F 306. send.

【0121】図4の立体視映像撮影処理装置103で
は、第1の実施の形態で述べた処理に加え、送られてき
た回転角制御値等から、カメラパラメータとして、光軸
回転角1405,1406を決定する。カメラパラメー
タデータと左右映像データは、信号混合部403で混合
処理され、信号記録送出部404で、記録または、各表
示システムに伝送される。
In the stereoscopic video photographing processing apparatus 103 shown in FIG. 4, in addition to the processing described in the first embodiment, the optical axis rotation angles 1405 and 1406 are used as camera parameters from the transmitted rotation angle control values and the like. To determine. The camera parameter data and the left and right video data are mixed by a signal mixing unit 403, and recorded or transmitted to each display system by a signal recording and transmitting unit 404.

【0122】図15は、第2の実施の形態で説明した図
13と同様、図5で説明した立体視映像表示処理装置1
06の詳細図である。
FIG. 15 shows the stereoscopic video display processing apparatus 1 described with reference to FIG. 5 similarly to FIG. 13 described in the second embodiment.
It is a detailed view of 06.

【0123】図15では、図13の光軸回転角α抽出部
1301を左右光軸回転角αlαr抽出部1501に変
更した。また、観察条件入力部503内に、新たに光軸
方向βlβr決定部1502を設けている。その上、図
13の光軸補正行列T計算部1302の処理内容を変更
し、新たに光軸方向βlβr決定部1502からデータ
も入力として受け付けるようにした。
In FIG. 15, the optical axis rotation angle α extraction unit 1301 in FIG. 13 is changed to a left and right optical axis rotation angle αlαr extraction unit 1501. Further, an optical axis direction βlβr determination unit 1502 is newly provided in the observation condition input unit 503. In addition, the processing content of the optical axis correction matrix T calculation unit 1302 in FIG. 13 is changed so that data is newly received from the optical axis direction βlβr determination unit 1502 as an input.

【0124】図15の立体視映像表示処理装置106で
は、第2の実施の形態で説明した光軸を平行にして撮影
した映像に戻す映像補正の代わりに以下の処理を行う。
In the stereoscopic image display processing device 106 shown in FIG. 15, the following processing is performed instead of the image correction for returning to the image photographed with the optical axes parallel as described in the second embodiment.

【0125】左右光軸回転角αlαr抽出部1501
で、光軸回転角1405,1406の角度データαlと
αrを送られてきた信号から抽出し、光軸補正変換行列
T計算部1503に送る。
Left and right optical axis rotation angle αlαr extraction unit 1501
Then, the angle data αl and αr of the optical axis rotation angles 1405 and 1406 are extracted from the transmitted signal and sent to the optical axis correction conversion matrix T calculation unit 1503.

【0126】観察条件入力部503では、観察条件設定
I/F1504で、人の注目被写体の指示や光軸方向の
数値入力を受け付け、そのデータを光軸方向βlβr決
定部1502に送る。光軸方向βlβr決定部1502
では、注目被写体の画面中の位置などから光軸方向β
l、βrを決定し、光軸補正変換行列T計算部1503
に送る。
The observation condition input unit 503 receives an instruction of a subject of interest and a numerical input in the optical axis direction by the observation condition setting I / F 1504, and sends the data to the optical axis direction βlβr determination unit 1502. Optical axis direction βlβr determination unit 1502
Then, the optical axis direction β
1 and βr are determined, and the optical axis correction conversion matrix T calculation unit 1503 is determined.
Send to

【0127】光軸補正変換行列T計算部1503では、
撮像幅kデータ抽出部1103からの撮像幅1207と
レンズ撮像面間距離d抽出部1104からのレンズ撮像
面間距離1206を得る。合わせて、第2の実施の形態
の式31の計算に関して、第3の実施の形態では、左映
像の補正のために式38と式39を用い、右映像の補正
のために式40と式41を用い、式37を計算し、光軸
補正行列Tを求め、映像補正部505に送る。
In the optical axis correction conversion matrix T calculation unit 1503,
An imaging width 1207 from the imaging width k data extraction unit 1103 and a lens imaging surface distance 1206 from the lens imaging surface distance d extraction unit 1104 are obtained. In addition, regarding the calculation of Equation 31 in the second embodiment, in the third embodiment, Equations 38 and 39 are used for correcting the left image, and Equations 40 and 39 are used for correcting the right image. Using equation (41), equation (37) is calculated, an optical axis correction matrix T is obtained, and sent to the image correction unit 505.

【0128】映像補正部505では、光軸補正行列Tを
用いて、左右映像の光軸をβl及びβrにする映像補正
を行う。続いて、第1の実施の形態で述べた表示シフト
距離807と表示域805,806の幅Hをもとにした
映像補正を行う。その後、映像補正後の左右映像を、デ
ィスプレイ107に送り、人の右目には、補正後の右映
像を、左目には補正後の左映像を見せる。
The image correcting unit 505 performs image correction using the optical axis correction matrix T so that the optical axes of the left and right images are βl and βr. Subsequently, image correction is performed based on the display shift distance 807 and the width H of the display areas 805 and 806 described in the first embodiment. Thereafter, the left and right images after the image correction are sent to the display 107, and the right eye of the person displays the corrected right image and the left eye displays the corrected left image.

【0129】以上の処理により、左右映像撮影時に、光
軸回転角が左右別々に設定されている場合でも、光軸を
平行にそろえることができる。また、それぞれの立体視
映像表示システムの映像を見る人それぞに合わせ、平行
以外の光軸方向にも調整することもできる。
According to the above-described processing, the optical axes can be aligned in parallel even when the left and right optical axis rotation angles are set separately at the time of photographing the right and left images. In addition, it is also possible to adjust the direction of the optical axis other than the parallel direction in accordance with each viewer who views the image of each stereoscopic image display system.

【0130】[0130]

【発明の効果】以上述べたように本発明によれば、撮影
被写体の空間を等方的に拡大した歪みの少ない立体視映
像を提供できる効果を奏する。
As described above, according to the present invention, it is possible to provide a stereoscopic image with little distortion obtained by isotropically enlarging the space of the photographic subject.

【0131】その上、1つの立体視映像からでも、複数
の人がそれぞれ異なる条件で立体視映像を表示観察して
も、歪みの少ない立体視映像を観察できるようにするこ
とができるという効果を奏する。
In addition, even when a plurality of persons display and observe a stereoscopic image under different conditions, it is possible to observe a stereoscopic image with little distortion even from one stereoscopic image. Play.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明による装置を用いた立体視映像を撮影、
表示するシステムの全体概略図である。
FIG. 1 captures a stereoscopic video using the device according to the invention,
1 is an overall schematic diagram of a system for displaying.

【図2】表示システムの概略図である。FIG. 2 is a schematic diagram of a display system.

【図3】本発明のカメラ制御装置の内部構成図である。FIG. 3 is an internal configuration diagram of the camera control device of the present invention.

【図4】本発明の立体視映像撮影処理装置の内部構成図
である。
FIG. 4 is an internal configuration diagram of the stereoscopic video photographing processing device of the present invention.

【図5】本発明の立体視映像表示処理装置の内部構成図
である。
FIG. 5 is an internal configuration diagram of the stereoscopic video display processing device of the present invention.

【図6】本発明の第1の実施の形態に係る、カメラの光
軸を平行にした場合の撮像幾何の説明図である。
FIG. 6 is an explanatory diagram of an imaging geometry when an optical axis of a camera is parallel according to the first embodiment of the present invention.

【図7】撮像面の説明図である。FIG. 7 is an explanatory diagram of an imaging surface.

【図8】ディスプレイでの表示と立体視像位置の幾何を
説明する図である。
FIG. 8 is a diagram for explaining the display on the display and the geometry of the stereoscopic image position.

【図9】ディスプレイ面の説明図である。FIG. 9 is an explanatory diagram of a display surface.

【図10】ディスプレイ面の右目用表示だけを抜き出し
た図である。
FIG. 10 is a diagram in which only the display for the right eye on the display surface is extracted.

【図11】本発明の第1の実施の形態に係る、本発明の
立体視映像表示処理装置の詳細図である。
FIG. 11 is a detailed diagram of the stereoscopic image display processing device of the present invention according to the first embodiment of the present invention.

【図12】本発明の第2の実施の形態に係る、カメラ光
軸を交差させた場合の撮像幾何説明図である。
FIG. 12 is an explanatory diagram of an imaging geometry when camera optical axes are crossed according to the second embodiment of the present invention.

【図13】本発明の第2の実施の形態に係る、本発明の
立体視映像表示処理装置の詳細図である。
FIG. 13 is a detailed view of a stereoscopic image display processing device of the present invention according to the second embodiment of the present invention.

【図14】本発明の第3の実施の形態に係る、左右カメ
ラ独立に光軸の回転角を調整できるようにした場合の撮
像幾何説明図である。
FIG. 14 is an explanatory view of an imaging geometry when the rotation angle of the optical axis can be adjusted independently of the left and right cameras according to the third embodiment of the present invention.

【図15】本発明の第3の実施の形態に係る、本発明の
立体視映像表示処理装置の詳細図である。
FIG. 15 is a detailed view of a stereoscopic image display processing device of the present invention according to a third embodiment of the present invention.

【図16】従来の立体映像撮影表示システムの概略図で
ある。
FIG. 16 is a schematic diagram of a conventional stereoscopic video imaging and display system.

【図17】従来特許の内部構成図である。FIG. 17 is an internal configuration diagram of a conventional patent.

【符号の説明】[Explanation of symbols]

101…カメラ制御装置 102…カメラ 103…立体視映像撮影処理装置 106…立体視映像表示処理装置 107…ディスプレイ 201…液晶シャッターメガネ 204…液晶シャッター同期信号発生器 301…右カメラ 302…左カメラ 303…カメラ制御I/F 304…制御部 305…カメラ状態データ入力部 306…立体視映像撮影処理装置I/F 401…カメラ制御装置I/F 402…カメラパラメータ算出部 403…信号混合部 404…信号記録送出部 501…受信部 502…映像データ/カメラパラメータ分離部 503…観察条件入力部 504…補正量決定部 505…映像補正部 1101…右映像抽出部 1102…左映像抽出部 1103…撮像幅kデータ抽出部 1104…レンズ撮像面間距離d抽出部 1105…表示域幅H計算部 1106…観察条件設定I/F部 1107…ディスプレイ距離D決定部 1108…眼間距離Es決定部 1109…表示シフト距離Ss計算部 1501…左右光軸回転角αlαr抽出部 1502…光軸方向βlβr決定部 1503…光軸補正行列T計算部 1504…観察条件設定I/F DESCRIPTION OF SYMBOLS 101 ... Camera control apparatus 102 ... Camera 103 ... Stereoscopic image photography processing apparatus 106 ... Stereoscopic image display processing apparatus 107 ... Display 201 ... Liquid crystal shutter glasses 204 ... Liquid crystal shutter synchronization signal generator 301 ... Right camera 302 ... Left camera 303 ... Camera control I / F 304 ... Control unit 305 ... Camera status data input unit 306 ... Stereoscopic image photographing processing device I / F 401 ... Camera control device I / F 402 ... Camera parameter calculation unit 403 ... Signal mixing unit 404 ... Signal recording Sending unit 501 Receiving unit 502 Image data / camera parameter separating unit 503 Observation condition input unit 504 Correction amount determining unit 505 Image correcting unit 1101 Right image extracting unit 1102 Left image extracting unit 1103 Image capturing width k data Extraction unit 1104... Distance d between lens imaging surfaces extraction unit 1105 Display area width H calculator 1106 Observation condition setting I / F 1107 Display distance D determiner 1108 Interocular distance Es determiner 1109 Display shift distance Ss calculator 1501 Left / right optical axis rotation angle αlαr extractor 1502 Optical axis direction βlβr determining unit 1503 ... optical axis correction matrix T calculating unit 1504 ... observation condition setting I / F

Claims (12)

【特許請求の範囲】[Claims] 【請求項1】 映像撮影時のカメラの状態に対応するカ
メラパラメータと1つまたは複数の映像に対応する映像
信号とを含んだ伝送信号を受信する受信部と、受信した
伝送信号から映像信号とカメラパラメータとを分離する
データ分離部と、ディスプレイに表示された映像を見る
人の観察条件となる観察条件データを入力する観察条件
入力部と、前記カメラパラメータと前記観察条件データ
とから前記映像信号の補正量を決定する補正量決定部
と、前記補正量に従い前記映像信号を補正し、前記ディ
スプレイに補正後の映像データを送出する補正部とを具
備する映像表示処理装置。
1. A receiving unit for receiving a transmission signal including a camera parameter corresponding to a state of a camera at the time of capturing an image and a video signal corresponding to one or more videos, and a video signal based on the received transmission signal. A data separation unit that separates camera parameters, an observation condition input unit that inputs observation condition data that is an observation condition of a person who views an image displayed on a display, and the video signal from the camera parameters and the observation condition data. A video display processing device comprising: a correction amount determining unit that determines a correction amount of the correction value; and a correction unit that corrects the video signal according to the correction amount and sends the corrected video data to the display.
【請求項2】 映像を撮影する1つ又は複数のカメラ
と、前記カメラの撮影状態を制御するカメラ制御量を入
力するためのカメラ制御I/Fと、入力されたカメラ制
御量にしたがって前記カメラを制御する制御部と、前記
カメラ制御量及び前記カメラの状態からカメラ状態デー
タを決定するカメラ状態データ入力部と、前記カメラで
撮影した映像信号及び前記カメラ状態データを外部装置
に送出する外部I/F部とを具備するカメラ制御装置。
2. A camera according to claim 1, further comprising: one or more cameras for capturing an image; a camera control I / F for inputting a camera control amount for controlling a shooting state of the camera; A camera status data input unit that determines camera status data from the camera control amount and the status of the camera, and an external I that sends a video signal captured by the camera and the camera status data to an external device. / F: a camera control device comprising:
【請求項3】 映像を撮影する1つ又は複数のカメラの
状態データからカメラパラメータを算出するカメラパラ
メータ算出部と、前記カメラからの1つ又は複数の映像
信号と前記カメラパラメータとを混合信号に変換する信
号混合部と、前記混合信号を記録または映像を表示する
システムに送出する送出部とを具備する映像撮影処理装
置。
3. A camera parameter calculation unit for calculating a camera parameter from state data of one or a plurality of cameras for capturing a video, and one or a plurality of video signals from the camera and the camera parameter as a mixed signal. A video photographing processing device comprising: a signal mixing unit for converting; and a transmitting unit for transmitting the mixed signal to a system for recording or displaying a video.
【請求項4】 前記カメラパラメータは、カメラの撮像
面に投影された映像の幅である撮像幅データと前記カメ
ラのレンズ中心から前記撮像面までの距離であるレンズ
撮像面間距離データとを含み、 前記観察条件データは、映像表示を見る人の左右の眼間
距離である眼間距離データと前記人から前記ディスプレ
イまでの距離であるディスプレイ距離データとを含むこ
とを特徴とする請求項1の映像表示処理装置。
4. The camera parameters include imaging width data that is a width of an image projected on an imaging surface of the camera and lens inter-image distance data that is a distance from a lens center of the camera to the imaging surface. 2. The method according to claim 1, wherein the observation condition data includes interocular distance data that is a distance between the left and right eyes of a person who views a video display, and display distance data that is a distance from the person to the display. Video display processing device.
【請求項5】 前記カメラ状態データは、カメラの撮像
面に投影された映像の幅である撮像幅データと前記カメ
ラのレンズ中心から前記撮像面までの距離とに相関があ
るデータであることを特徴とする請求項2のカメラ制御
装置。
5. The camera state data is data having a correlation between imaging width data which is a width of an image projected on an imaging surface of a camera and a distance from a lens center of the camera to the imaging surface. 3. The camera control device according to claim 2, wherein:
【請求項6】 前記カメラパラメータは、カメラの撮像
面に投影された映像の幅である撮像幅データと、前記カ
メラのレンズ中心から前記撮像面までの距離とを含むこ
とを特徴とする請求項3の映像撮影処理装置。
6. The apparatus according to claim 1, wherein the camera parameters include imaging width data that is a width of an image projected on an imaging surface of the camera, and a distance from a lens center of the camera to the imaging surface. 3. An image photographing processing device.
【請求項7】 前記カメラパラメータは、カメラの撮像
面に投影された映像の幅である撮像幅データと、前記カ
メラのレンズ中心から前記撮像面までの距離であるレン
ズ撮像面間距離データと、前記カメラの方向である光軸
回転角を示す光軸回転角データとを含み、 前記観察条件データは、映像表示を見る人の左右の眼間
距離である眼間距離データと、前記人から前記ディスプ
レイまでの距離であるディスプレイ距離データと、前記
補正部での補正映像の光軸方向である光軸方向データと
を含むことを特徴とする請求項1の映像表示処理装置。
7. The camera parameter includes: imaging width data that is a width of an image projected on an imaging surface of the camera; lens inter-image distance data that is a distance from a lens center of the camera to the imaging surface; Including optical axis rotation angle data indicating an optical axis rotation angle that is the direction of the camera, wherein the observation condition data is interocular distance data that is the distance between the left and right eyes of a person viewing a video display, and 2. The image display processing device according to claim 1, further comprising display distance data that is a distance to a display, and optical axis direction data that is an optical axis direction of the image corrected by the correction unit.
【請求項8】 前記カメラ状態データは、カメラの撮像
面に投影された映像の幅である撮像幅データと、前記カ
メラのレンズ中心から前記撮像面までの距離と、前記カ
メラの方向である光軸回転角とに、相関があるデータで
あることを特徴とする請求項2のカメラ制御装置。
8. The camera status data includes: imaging width data that is a width of an image projected on an imaging surface of a camera; a distance from a lens center of the camera to the imaging surface; and light that is a direction of the camera. 3. The camera control device according to claim 2, wherein the data has a correlation with the axis rotation angle.
【請求項9】 前記カメラパラメータは、カメラの撮像
面に投影された映像の幅である撮像幅データと、前記カ
メラのレンズ中心から前記撮像面までの距離と、前記カ
メラの方向である光軸回転角とを含むことを特徴とする
請求項3の映像撮影処理装置。
9. The camera parameters include: imaging width data that is a width of an image projected on an imaging surface of a camera; a distance from a lens center of the camera to the imaging surface; and an optical axis that is a direction of the camera. 4. The apparatus according to claim 3, further comprising a rotation angle.
【請求項10】 前記データ分離部は、映像信号を分離
する1つ又は複数の映像抽出部と、カメラの撮像面に投
影された映像の幅である撮像幅データを分離する撮像幅
データ抽出部と、前記カメラのレンズ中心から前記撮像
面までの距離であるレンズ撮像面間距離データを分離す
るレンズ撮像面間距離抽出部とを備え、 前記観察条件入力部は、映像表示を見る人の左右の眼間
距離を決定する眼間距離決定部と、前記人から前記ディ
スプレイまでの距離であるディスプレイ距離を決定する
ディスプレイ距離決定部とを備え、 前記補正量決定部は、前記ディスプレイ距離及び前記撮
像幅及び前記レンズ撮像面間距離から映像の表示幅を計
算する表示域幅計算部と、前記眼間距離から映像の移動
量である表示シフト距離を計算する表示シフト距離計算
部とを備えることを特徴とする請求項1の映像表示処理
装置。
10. The data separation unit includes one or more image extraction units for separating an image signal, and an imaging width data extraction unit for separating imaging width data that is a width of an image projected on an imaging surface of a camera. And a lens imaging surface distance extraction unit that separates lens imaging surface distance data that is a distance from the lens center of the camera to the imaging surface, wherein the observation condition input unit includes a left and right image viewer. An interocular distance determination unit that determines an interocular distance of the display, and a display distance determination unit that determines a display distance that is a distance from the person to the display, wherein the correction amount determination unit includes the display distance and the imaging. A display area width calculation unit that calculates a display width of an image from a width and the distance between the lens imaging surfaces; and a display shift distance meter that calculates a display shift distance that is a moving amount of the image from the interocular distance. Image display processing apparatus according to claim 1, characterized in that it comprises a part.
【請求項11】 前記データ分離部は、前記カメラの方
向である光軸回転角である光軸回転角データを抽出する
光軸回転角抽出部を備え、 前記補正量決定部は、前記光軸回転角データから光軸補
正用の変換行列を計算する光軸補正変換行列計算部を備
えることを特徴とする請求項10の映像表示処理装置。
11. The data separation unit includes an optical axis rotation angle extraction unit that extracts optical axis rotation angle data that is an optical axis rotation angle that is the direction of the camera. The image display processing device according to claim 10, further comprising an optical axis correction conversion matrix calculation unit that calculates a conversion matrix for optical axis correction from the rotation angle data.
【請求項12】 前記データ分離部は、前記カメラの方
向である光軸回転角である光軸回転角データを抽出する
光軸回転角抽出部を備え、 前記観察条件入力部は、前記補正部での補正映像の光軸
方向である光軸方向データを決定する光軸方向決定部を
備え、 前記補正量決定部は、前記光軸回転角データ及び前記光
軸方向データから光軸補正用の変換行列を計算する光軸
補正変換行列計算部を備えることを特徴とする請求項1
0の映像表示処理装置。
12. The data separation unit includes an optical axis rotation angle extraction unit that extracts optical axis rotation angle data that is an optical axis rotation angle that is the direction of the camera, and the observation condition input unit includes the correction unit. An optical axis direction determining unit that determines optical axis direction data that is the optical axis direction of the corrected image in the, the correction amount determining unit, for the optical axis correction from the optical axis rotation angle data and the optical axis direction data 2. An optical axis correction conversion matrix calculator for calculating a conversion matrix.
0 image display processing device.
JP11110666A 1999-04-19 1999-04-19 Video displaying and processing device, video photographing and processing device, and camera controller Pending JP2000308090A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP11110666A JP2000308090A (en) 1999-04-19 1999-04-19 Video displaying and processing device, video photographing and processing device, and camera controller

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP11110666A JP2000308090A (en) 1999-04-19 1999-04-19 Video displaying and processing device, video photographing and processing device, and camera controller

Publications (1)

Publication Number Publication Date
JP2000308090A true JP2000308090A (en) 2000-11-02

Family

ID=14541399

Family Applications (1)

Application Number Title Priority Date Filing Date
JP11110666A Pending JP2000308090A (en) 1999-04-19 1999-04-19 Video displaying and processing device, video photographing and processing device, and camera controller

Country Status (1)

Country Link
JP (1) JP2000308090A (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005007748A1 (en) 2003-07-18 2005-01-27 Az Electronic Materials (Japan) K.K. Phosphorus-containing silazane composition, phosphorus-containing siliceous film, phosphorus-containing siliceous filler, method for producing phosphorus-containing siliceous film, and semiconductor device
KR100605301B1 (en) 2004-07-22 2006-07-28 한국방송공사 Monitoring/playing method of both-eyes typed stereo carmera system
WO2012117703A1 (en) * 2011-03-02 2012-09-07 パナソニック株式会社 Three-dimensional image processing device, three-dimensional image processing method, spectacles device for viewing three-dimensional image, integrated circuit for three-dimensional image processing device, optical disk playback device, three-dimensional video signal playback device, and three-dimensional video signal display device
JP2013501476A (en) * 2009-08-06 2013-01-10 クゥアルコム・インコーポレイテッド Transform video data according to human visual feedback metrics
WO2013054944A1 (en) * 2011-10-14 2013-04-18 Olympus Corporation Stereoscopic endoscope device
JP2013522974A (en) * 2010-03-19 2013-06-13 バートラン ネプー Method for digital processing of video signals, digital image processor, and video display system
US9679395B2 (en) 2014-01-24 2017-06-13 Samsung Electronics Co., Ltd. Method and apparatus for image processing
US9826151B2 (en) 2015-05-29 2017-11-21 Boe Technology Group Co., Ltd. Image capture system and image capture method

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005007748A1 (en) 2003-07-18 2005-01-27 Az Electronic Materials (Japan) K.K. Phosphorus-containing silazane composition, phosphorus-containing siliceous film, phosphorus-containing siliceous filler, method for producing phosphorus-containing siliceous film, and semiconductor device
KR100605301B1 (en) 2004-07-22 2006-07-28 한국방송공사 Monitoring/playing method of both-eyes typed stereo carmera system
US8629899B2 (en) 2009-08-06 2014-01-14 Qualcomm Incorporated Transforming video data in accordance with human visual system feedback metrics
JP2013501476A (en) * 2009-08-06 2013-01-10 クゥアルコム・インコーポレイテッド Transform video data according to human visual feedback metrics
JP2013522974A (en) * 2010-03-19 2013-06-13 バートラン ネプー Method for digital processing of video signals, digital image processor, and video display system
WO2012117703A1 (en) * 2011-03-02 2012-09-07 パナソニック株式会社 Three-dimensional image processing device, three-dimensional image processing method, spectacles device for viewing three-dimensional image, integrated circuit for three-dimensional image processing device, optical disk playback device, three-dimensional video signal playback device, and three-dimensional video signal display device
JP2013085615A (en) * 2011-10-14 2013-05-13 Olympus Corp Stereoscopic endoscope apparatus
WO2013054944A1 (en) * 2011-10-14 2013-04-18 Olympus Corporation Stereoscopic endoscope device
CN103857320A (en) * 2011-10-14 2014-06-11 奥林巴斯株式会社 Stereoscopic endoscope device
US9510736B2 (en) 2011-10-14 2016-12-06 Olympus Corporation Stereoscopic endoscope device having mechanism that changes an angle between optical axes of two imaging sensors
US9679395B2 (en) 2014-01-24 2017-06-13 Samsung Electronics Co., Ltd. Method and apparatus for image processing
US9826151B2 (en) 2015-05-29 2017-11-21 Boe Technology Group Co., Ltd. Image capture system and image capture method
KR101827494B1 (en) * 2015-05-29 2018-02-09 보에 테크놀로지 그룹 컴퍼니 리미티드 Image acquisition system and image acquisition method

Similar Documents

Publication Publication Date Title
JP2883265B2 (en) Image processing device
TWI440960B (en) Stereoscopic image pickup device
WO2017173735A1 (en) Video see-through-based smart eyeglasses system and see-through method thereof
JP2001142166A (en) 3d camera
CN102172031A (en) Three-dimensional display device, three-dimensional display method, and program
CN108093244B (en) Remote follow-up stereoscopic vision system
KR20030048013A (en) A method and system of revision for 3-dimensional image
JP2010181826A (en) Three-dimensional image forming apparatus
JP2000308090A (en) Video displaying and processing device, video photographing and processing device, and camera controller
JP5223096B2 (en) 3D video shooting control system, 3D video shooting control method, and program
JP2014135714A (en) Stereoscopic image signal processing device and stereoscopic image capture device
WO2006016534A1 (en) Imaging device
JP2012227653A (en) Imaging apparatus and imaging method
WO2013046833A1 (en) Image display device, disparity adjustment display method therefor, and image capturing device
JP4588439B2 (en) Stereoscopic image photographing apparatus and method
JP2011182003A (en) Panorama camera and 360-degree panorama stereoscopic video system
JP2581601B2 (en) 3D camera and 3D image system
WO2012035927A1 (en) Remote video monitoring system
JPH09205660A (en) Electronic animation stereoscopic vision system and stereoscopic vision eyeglass
JP2004120095A (en) Method for generating omniazimuth binocular stereoscopic vision image
JP2752993B2 (en) 3D TV device
JP2012220603A (en) Three-dimensional video signal photography device
TWI382267B (en) Auto depth field capturing system and method thereof
KR100489213B1 (en) View finder system for stereo picture
JPH0819003A (en) Stereoscopic image generator

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20040513

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20040517

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20040928

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20040928