JPH10170227A - Display device - Google Patents

Display device

Info

Publication number
JPH10170227A
JPH10170227A JP8332185A JP33218596A JPH10170227A JP H10170227 A JPH10170227 A JP H10170227A JP 8332185 A JP8332185 A JP 8332185A JP 33218596 A JP33218596 A JP 33218596A JP H10170227 A JPH10170227 A JP H10170227A
Authority
JP
Japan
Prior art keywords
image
parallax
measure
display device
subject
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP8332185A
Other languages
Japanese (ja)
Inventor
Kotaro Yano
光太郎 矢野
Hideki Morishima
英樹 森島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP8332185A priority Critical patent/JPH10170227A/en
Publication of JPH10170227A publication Critical patent/JPH10170227A/en
Pending legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)

Abstract

PROBLEM TO BE SOLVED: To simply comprehend the size of a photographed body by solidly displaying a measure functioning as the standard of the scale of the photographed body through a multiplying factor according to the parallax of the photographed body and the parallax. SOLUTION: In a stereographic display device where a plurality of picked up images which is output from a stereo camera 200 and photographed from different view points and has a mutually overlapped vision fields is composed in a stereographic image composing section 200, the device has a corresponding point extracting section 104 for extracting a plurality of corresponding points in an indicated photographed body domain; a measure parameter computing section 106 for computing the multiplying factor functioning as the standard of the scale of the photographed body and a parallax according to the parallax among a plurality of picked up images at a point (photographed body) corresponding to the section 104; a measure image creating section 107 for creating a plurality of measure images on the basis of the computed measure multiplying factor and parallax; and image composing sections 108, 109 for composing the created measure image and a plurality of picked up images. In a stereographic image composing section 200, the output images of each of image composing sections 108, 109 are composed.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、異なる視点から撮
影された互いに視野の重なる複数の撮像画像を基に画像
の表示がなされる表示装置に関し、特に表示された被写
体の大きさを計測可能な表示装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a display device for displaying an image based on a plurality of picked-up images having different fields of view, which are picked up from different viewpoints, and in particular, capable of measuring the size of a displayed object. It relates to a display device.

【0002】[0002]

【従来の技術】従来より、複数のカメラから視差を持っ
た一組の画像を得て、それぞれの画像を観察者の左右別
々の眼で観察させることにより立体映像を提供する表示
装置が知られている。このような立体表示技術を応用し
て、最近では、立体表示された被写体の大きさを測定で
きる装置が提案されている。例えば、被写体のおおよそ
の大きさを知ることを目的として、立体表示された被写
体画像中の2点をポインティングデバイスでユーザが指
示し、その指示された各点の、左右画像(視差を持った
一組のステレオ画像)間における視差から、三次元空間
中の位置を求めて、指示されたそれらの点の三次元空間
中の位置や2点間の距離を数値表示する表示装置が知ら
れている。
2. Description of the Related Art Conventionally, there has been known a display device which provides a stereoscopic image by obtaining a set of images having parallax from a plurality of cameras and observing each image with separate left and right eyes of an observer. ing. Recently, a device that can measure the size of a subject that is stereoscopically displayed by applying such a stereoscopic display technology has been proposed. For example, for the purpose of knowing the approximate size of the subject, the user specifies two points in the stereoscopically displayed subject image using a pointing device, and the left and right images (one with parallax) of each of the specified points are displayed. 2. Description of the Related Art There is known a display device that obtains a position in a three-dimensional space from parallax between a set of stereo images, and numerically displays the positions of the indicated points in the three-dimensional space and the distance between two points. .

【0003】[0003]

【発明が解決しようとする課題】しかしながら、上述し
た従来の表示装置においては、ユーザが被写体画像中で
指示した2点間の距離およびそれらの位置が測定される
のみで、例えば被写体の大きさを知りたい場合には、複
数回にわたって測定点を指示する必要があり、操作が面
倒であった。また、指示した2点間の距離は分かるもの
の、奥行きの異なる複数の被写体を同時に撮影した場合
には、各被写体は奥行きによって画像中での大きさが異
なるため、同時に複数の被写体の大きさを把握すること
は困難であった。
However, in the above-described conventional display device, only the distance between two points designated by the user in the subject image and their positions are measured. If it is necessary to know, it is necessary to indicate the measuring point a plurality of times, and the operation is troublesome. Although the distance between the two designated points is known, when a plurality of subjects having different depths are photographed at the same time, since the size of each subject in the image varies depending on the depth, the sizes of the plurality of subjects are simultaneously determined. It was difficult to figure out.

【0004】本発明の目的は、上記問題点を解決するた
めに、被写体の尺度の基準となるメジャーを表示して、
表示された被写体の大きさを簡単に把握できるようにす
ることである。
[0004] An object of the present invention is to solve the above-mentioned problems by displaying a measure which is a reference of a scale of a subject,
The purpose is to enable the size of the displayed subject to be easily grasped.

【0005】さらなる目的は、メジャーを立体表示し
て、奥行きの異なる複数の被写体についても大きさを簡
単に把握できるようにすることである。
A further object is to display a measure in three dimensions so that the size of a plurality of subjects having different depths can be easily grasped.

【0006】[0006]

【課題を解決するための手段】上記発明の目的を達成す
るため、第1の発明の表示装置は、被写体を撮影する少
なくとも1つの撮像手段を備え、異なる視点から撮影さ
れた互いに視野の重なる複数の撮像画像を合成して立体
画像の表示がなされる表示装置において、前記複数の撮
像画像間における被写体の視差に応じて、その被写体の
尺度の基準となるメジャーの倍率および視差を算出する
メジャーパラメータ算出手段と、前記メジャーパラメー
タ算出手段にて算出されたメジャーの倍率および視差に
基づいてメジャー画像を生成するメジャー画像生成手段
と、前記立体画像中に前記メジャー画像生成手段にて生
成されたメジャー画像を合成する画像合成手段と、を有
することを特徴とする。
In order to achieve the above object, a display device according to a first aspect of the present invention includes at least one image pickup means for photographing a subject, and a plurality of images having different fields of view which are photographed from different viewpoints. In a display device in which a stereoscopic image is displayed by synthesizing the captured images, a major parameter for calculating a magnification and a parallax of a measure serving as a reference of a scale of the subject according to a parallax of the subject between the plurality of captured images. Calculating means, a major image generating means for generating a major image based on the magnification and parallax of the major calculated by the major parameter calculating means, and a major image generated by the major image generating means in the three-dimensional image And image synthesizing means for synthesizing.

【0007】上記の場合、前記メジャー画像生成手段
は、前記メジャーパラメータ算出手段にて算出されたメ
ジャーの視差に応じて、前記複数の撮像画像に対応する
複数のメジャー画像を生成し、前記画像合成手段が、前
記複数の撮像画像と前記複数のメジャー画像とをそれぞ
れ合成するようにしてもよい。
In the above case, the measure image generating means generates a plurality of measure images corresponding to the plurality of captured images in accordance with the parallax of the measure calculated by the measure parameter calculating means, and The means may combine the plurality of captured images and the plurality of major images, respectively.

【0008】また、前記メジャー画像生成手段は、前記
メジャーパラメータ算出手段にて算出されたメジャーの
視差に応じて複数のメジャー画像を生成し、前記画像合
成手段が、前記複数の撮像画像を合成した画像に前記複
数のメジャー画像を合成した画像を合成するようにして
もよい。
The measure image generating means generates a plurality of major images according to the parallax of the measure calculated by the measure parameter calculating means, and the image synthesizing means synthesizes the plurality of captured images. An image obtained by combining the plurality of major images with an image may be combined.

【0009】また、前記立体画像における被写体領域を
指定する被写体領域指定手段と、前記複数の撮像画像間
での、前記被写体領域指定手段により指示された被写体
領域おける複数の対応点を抽出する対応点抽出手段と、
をさらに備え、前記メジャー画像生成手段が、前記対応
点抽出手段にて抽出された複数の対応点の視差の平均を
基に、前記被写体領域の尺度の基準となるメジャーの倍
率および視差を算出するようにしてもよい。
A subject area designating means for designating a subject area in the stereoscopic image; and a corresponding point for extracting a plurality of corresponding points in the subject area designated by the subject area designating means between the plurality of captured images. Extraction means;
The measure image generating means calculates a magnification and a parallax of a measure serving as a reference of a scale of the subject area based on an average of parallaxes of a plurality of corresponding points extracted by the corresponding point extracting means. You may do so.

【0010】この場合、前記被写体領域指定手段は、カ
ーソル画像が記憶された記憶手段と、前記立体画像中に
おけるカーソルの移動を指示するための入力手段とを有
し、前記画像合成手段が、予め設定されたカーソルの初
期視差および初期位置に基づいて前記複数の撮像画像の
それぞれに対して前記カーソル画像を合成し、前記入力
手段によりカーソルの移動の指示があると、該指示に応
じたカーソルの視差および移動位置に基づいて前記撮像
画像とカーソル画像との合成を行うようにしてもよい。
In this case, the subject area designating means has a storing means in which a cursor image is stored, and an input means for instructing a movement of a cursor in the three-dimensional image. The cursor image is combined with each of the plurality of captured images based on the set initial parallax and the initial position of the cursor, and when there is an instruction to move the cursor by the input unit, the cursor corresponding to the instruction is moved. The composition of the captured image and the cursor image may be performed based on the parallax and the movement position.

【0011】さらに、前記対応点抽出手段は、前記被写
体領域指定手段によって指示されたカーソル位置の近傍
領域おける複数の対応点を抽出するようにしてもよい。
Further, the corresponding point extracting means may extract a plurality of corresponding points in an area near the cursor position designated by the subject area specifying means.

【0012】この場合、前記撮像手段を用いた前記複数
の撮像画像の撮影に関する撮像系の輻輳角、焦点距離、
基線長、画素間隔が記憶された記憶手段をさらに備え、
前記メジャーパラメータ算出手段が、前記記憶手段に記
憶された輻輳角、焦点距離、基線長、画素間隔に基づい
て、前記対応点抽出手段により抽出された複数の対応点
における奥行きを算出し、前記複数の撮像画像のいずれ
か1つの画像中のカーソル位置の、前記奥行きに対する
他の撮像画像中の位置を求めることにより被写体の視差
を得るようにしてもよい。
In this case, the convergence angle, focal length,
Further comprising a storage unit in which a base line length and a pixel interval are stored;
The measure parameter calculating means calculates depths at a plurality of corresponding points extracted by the corresponding point extracting means based on a convergence angle, a focal length, a base line length, and a pixel interval stored in the storage means. The parallax of the subject may be obtained by calculating the position of the cursor position in any one of the captured images with respect to the depth in another captured image.

【0013】また、上記表示装置において、前記複数の
撮像画像を撮影する撮像系は輻輳角および基線長が制御
可能で、設定された撮像系の輻輳角、焦点距離、基線
長、画素間隔を前記メジャーパラメータ算出手段に対し
て出力するように構成され、前記メジャーパラメータ算
出手段が、前記撮像系から出力された輻輳角、焦点距
離、基線長、画素間隔に基づいて、前記対応点抽出手段
によい抽出された複数の対応点における奥行きを算出
し、前記複数の撮像画像のいずれか1つの画像中のカー
ソル位置の、前記奥行きに対する他の撮像画像中の位置
を求めることにより被写体の視差を得るようにしてもよ
い。
In the above display device, the image pickup system for taking the plurality of picked-up images can control a convergence angle and a base line length, and can set the convergence angle, focal length, base line length, and pixel interval of the set image pickup system. It is configured to output to the major parameter calculating means, and the major parameter calculating means is good for the corresponding point extracting means based on the convergence angle, the focal length, the base line length, and the pixel interval outputted from the imaging system. A depth at a plurality of extracted corresponding points is calculated, and a parallax of a subject is obtained by obtaining a position of a cursor position in any one of the plurality of captured images with respect to the depth in another captured image. It may be.

【0014】第2の発明の表示装置は、被写体を撮影す
る少なくとも1つの撮像手段を備え、異なる視点から撮
影された互いに視野の重なる複数の撮像画像のうちのい
ずれか1つに基づいて表示がなされる表示装置におい
て、前記複数の撮像画像間における被写体の視差に応じ
て、その被写体の尺度の基準となるメジャーの倍率およ
び視差を算出するメジャーパラメータ算出手段と、前記
メジャーパラメータ算出手段にて算出されたメジャーの
倍率および視差に基づいてメジャー画像を生成するメジ
ャー画像生成手段と、表示画像中に前記メジャー画像生
成手段にて生成されたメジャー画像を合成する画像合成
手段と、を有することを特徴とする。
A display device according to a second aspect of the present invention includes at least one image pickup means for picking up an object, and displays an image based on any one of a plurality of picked-up images having mutually overlapping fields of view picked up from different viewpoints. In a display device to be made, according to a parallax of a subject between the plurality of captured images, a measure parameter calculating means for calculating a magnification and a parallax of a measure serving as a reference of a scale of the subject, and the measure parameter calculating means calculating Major image generating means for generating a major image based on the scale and parallax of the performed measure, and image combining means for combining a major image generated by the major image generating means in a display image, And

【0015】上述の第1および第2の発明の表示装置の
いずれにおいても、前記撮像手段を用いた前記複数の撮
像画像の撮影に関する撮像系の輻輳角と基線長および画
素間隔が記憶された記憶手段をさらに備え、前記メジャ
ーパラメータ算出手段が、前記記憶手段に記憶された輻
輳角、基線、画素間隔と前記被写体の視差とからメジャ
ーの倍率を算出するようにしてもよい。
In any of the display devices according to the first and second aspects of the present invention, a storage in which a convergence angle, a base line length, and a pixel interval of an image pickup system relating to photographing of the plurality of images using the image pickup means are stored. The measure parameter calculating means may further comprise means for calculating a magnification of the measure from the convergence angle, the base line, the pixel interval and the parallax of the subject stored in the storage means.

【0016】さらに、前記複数の撮像画像を、それぞれ
被写体が画像の中心になるように撮像されるものとし、
前記複数の撮像画像間での、画像中心部の被写体近傍領
域おける複数の対応点を抽出する対応点抽出手段、をさ
らに備え、前記メジャーパラメータ算出手段が、前記対
応点抽出手段にて抽出された複数の対応点の視差に応じ
て、前記被写体領域の尺度の基準となるメジャーの倍率
および視差を算出するようにしてもよい。
[0016] Further, the plurality of captured images are captured such that a subject is located at the center of the image.
Corresponding point extracting means for extracting a plurality of corresponding points in an area near the subject at the center of the image among the plurality of captured images, wherein the measure parameter calculating means is extracted by the corresponding point extracting means According to the parallax of the plurality of corresponding points, the magnification and the parallax of the measure serving as the reference of the scale of the subject area may be calculated.

【0017】さらに、前記複数の撮像画像を撮影する撮
像系の光軸が平行となるように設定され、該撮像系の基
線長および画素間隔が記憶された記憶手段をさらに備
え、前記メジャーパラメータ算出手段が、前記記憶手段
に記憶された基線長および画素間隔と前記被写体の視差
とからメジャーの倍率を算出するようにしてもよい。
Further, the apparatus further comprises storage means for setting the optical axes of the imaging system for photographing the plurality of captured images to be parallel, and storing a base line length and a pixel interval of the imaging system, The means may calculate a magnification of the measure from the base line length and the pixel interval stored in the storage means and the parallax of the subject.

【0018】さらに、前記撮像手段を用いた前記複数の
撮像画像の撮影に関する撮像系の輻輳角、焦点距離、基
線長、画素間隔が記憶された記憶手段をさらに備え、前
記メジャーパラメータ算出手段が、前記記憶手段に記憶
された輻輳角、焦点距離、基線長、画素間隔に基づい
て、前記被写体の視差を算出するとともに該視差に基づ
くメジャーの倍率を算出するようにしてもよい。
[0018] Further, there is further provided storage means for storing a convergence angle, a focal length, a base line length, and a pixel interval of an image pickup system relating to the photographing of the plurality of picked-up images using the image pickup means. The parallax of the subject may be calculated based on the convergence angle, the focal length, the base line length, and the pixel interval stored in the storage means, and a measure magnification based on the parallax may be calculated.

【0019】上記の通りの本発明によれば、被写体の尺
度の基準となるメジャーが被写体とともに立体表示され
る。この表示されるメジャーは、その倍率および視差が
被写体の視差に応じたものとなっているので、このメジ
ャーを用いて簡単に被写体の大きさを知ることができ
る。
According to the present invention as described above, a measure serving as a reference for the scale of a subject is displayed three-dimensionally together with the subject. Since the scale and the parallax of the displayed measure correspond to the parallax of the subject, the size of the subject can be easily known using the measure.

【0020】同時に撮影された奥行き方向の位置の異な
った被写体については、その大きさをユーザが立体視し
た際の左右視差量から推定することによって把握するこ
とができる。本発明では、被写体の視差に応じてメジャ
ーの倍率および視差が算出され、その算出された倍率、
視差を有するメジャーが表示されるので、その表示され
たメジャーに基づいて、奥行きの異なる複数の被写体に
ついても大きさを簡単に把握できる。
A subject photographed at the same time in a different position in the depth direction can be grasped by estimating its size from the amount of left and right parallax when the user stereoscopically views. In the present invention, the magnification of the measure and the parallax are calculated according to the parallax of the subject, and the calculated magnification,
Since a measure having parallax is displayed, the sizes of a plurality of subjects having different depths can be easily grasped based on the displayed measure.

【0021】また、本発明のうちカーソルにより指定さ
れた被写体領域(カーソル位置近傍の、被写体を含む領
域)における複数の対応点が抽出され、これら対応点の
視差の平均が被写体の視差として与えられるものにおい
ては、大きさを知りたい被写体をカーソルにより指定す
るだけで、その被写体の視差に応じた倍率、視差を有す
るメジャーが表示される。したがって、従来のように測
定点の入力を複数回にわたって行う必要はない。さらに
は、被写体領域における複数の対応点の視差の平均が被
写体の視差として与えられることから、メジャーの尺度
をより精度の高いものとすることが可能である。
In the present invention, a plurality of corresponding points in an object area designated by the cursor (an area including the object near the cursor position) are extracted, and the average of the parallaxes of the corresponding points is given as the parallax of the object. In the object, a measure having a magnification and a parallax corresponding to the parallax of the subject is displayed simply by designating a subject whose size is to be known with a cursor. Therefore, it is not necessary to input a measurement point a plurality of times as in the related art. Furthermore, since the average of the parallaxes of a plurality of corresponding points in the subject area is given as the parallax of the subject, it is possible to make the measure scale higher in accuracy.

【0022】[0022]

【発明の実施の形態】次に、本発明の実施例について図
面を参照して説明する。
Next, an embodiment of the present invention will be described with reference to the drawings.

【0023】(実施形態1)図1は、本発明の表示装置
の第1の実施形態を示すブロック図である。
(Embodiment 1) FIG. 1 is a block diagram showing a first embodiment of the display device of the present invention.

【0024】200はステレオカメラで、左右2系統の
画像データを出力する。101、102は画像メモリ
で、ステレオカメラ200の出力画像データの一部の領
域のデータを一時的に記憶する。103は被写体領域指
示部で、ポインティングデバイスを介して画像中に指示
された位置を出力するとともに、カーソル画像を生成し
てこれを出力する。
Reference numeral 200 denotes a stereo camera which outputs left and right image data of two systems. Reference numerals 101 and 102 denote image memories for temporarily storing data of a partial area of the output image data of the stereo camera 200. Reference numeral 103 denotes a subject area indicating unit which outputs a position indicated in the image via a pointing device, and generates and outputs a cursor image.

【0025】104は対応点抽出部であり、画像メモリ
101,102にそれぞれ記憶された左右画像の対応点
を抽出してこれを出力する。105はカメラパラメータ
記憶部であり、ステレオカメラ200に設定されるカメ
ラパラメータの値があらかじめ記憶されている。106
はメジャーパラメータ算出部であり、画像とともに表示
されるメジャー画像のパラメータ(被写体領域指示部1
03で指示された被写体に関するメジャー画像を表示さ
せるためのパラメータで、奥行きを考慮した目盛りの大
きさや幅等)を算出する。107はメジャー画像生成部
であり、メジャーパラメータ算出部106で算出された
パラメータに従って表示すべきメジャー画像を生成し、
それを出力する。
Reference numeral 104 denotes a corresponding point extracting unit which extracts corresponding points of the left and right images stored in the image memories 101 and 102 and outputs the corresponding points. Reference numeral 105 denotes a camera parameter storage unit in which camera parameter values set in the stereo camera 200 are stored in advance. 106
Is a measure parameter calculation unit, and the parameters of the measure image displayed together with the image (subject region instructing unit 1)
A parameter for displaying a major image related to the subject designated by 03, and the scale and width of the scale in consideration of the depth) are calculated. Reference numeral 107 denotes a major image generation unit that generates a major image to be displayed according to the parameters calculated by the major parameter calculation unit 106,
Output it.

【0026】108、109は画像合成部であり、ステ
レオカメラ200の出力画像と、メジャー画像生成部1
07から出力されるメジャー画像と、被写体領域指示部
103から出力されるカーソル画像と、を合成した画像
を出力する。本形態では、このカーソル画像の合成は、
初期状態においては、予め設定されたカーソルの初期視
差および初期位置に基づいて各画像データのそれぞれに
対して行われ、カーソル位置の指示があると、該指示に
応じたカーソルの視差および移動位置に基づいて画像デ
ータd,eとの合成が行われるようになっている。
Reference numerals 108 and 109 denote an image synthesizing unit, which outputs the output image of the stereo camera 200 and the major image generating unit 1
07 and the cursor image output from the subject area indicating unit 103 are output. In this embodiment, the composition of the cursor image is
In the initial state, it is performed for each of the image data based on the preset initial parallax and initial position of the cursor, and when there is an instruction of the cursor position, the cursor disparity and the moving position according to the instruction are set. The image data is synthesized with the image data d and e based on the image data.

【0027】110はステレオ画像合成部であり、2つ
の画像合成部108、109の出力画像からステレオ画
像を生成し、表示メモリ111に出力する。112は表
示制御部であり、表示メモリ111に格納された画像デ
ータに基づいて、三次元表示装置113に三次元画像を
表示させる。
Reference numeral 110 denotes a stereo image synthesizing unit which generates a stereo image from the output images of the two image synthesizing units 108 and 109 and outputs the stereo image to the display memory 111. A display control unit 112 causes the three-dimensional display device 113 to display a three-dimensional image based on the image data stored in the display memory 111.

【0028】図2は、ステレオカメラ200の具体的な
構成例を示すブロック図である。
FIG. 2 is a block diagram showing a specific configuration example of the stereo camera 200.

【0029】201、202は撮影レンズで、2つの視
点からのステレオ画像を撮影する。203、204は画
像を電気信号として取り込むCCD等のイメージセンサ
ーである。この2つの撮像系は、それぞれの撮像レンズ
の光軸が左右平行に配置されている。
Reference numerals 201 and 202 denote photographing lenses for photographing stereo images from two viewpoints. Reference numerals 203 and 204 denote image sensors such as CCDs that capture images as electric signals. In these two imaging systems, the optical axes of the respective imaging lenses are arranged in the left and right parallel.

【0030】205、206はイメージセンサー20
3、204の画像の取り込みを制御する画像取り込み制
御回路である。207、208は画像信号処理部で、イ
メージセンサー203、204からの電気信号を保持し
て画像信号を形成し、それを出力する。この画像信号の
出力の際、画像信号処理部207,208は利得を自動
的に制御して階調補正を行うようになっている。
Reference numerals 205 and 206 denote image sensors.
3, 204 are image capturing control circuits for controlling capturing of images. Reference numerals 207 and 208 denote image signal processing units which hold the electric signals from the image sensors 203 and 204 to form image signals, and output them. At the time of outputting the image signal, the image signal processing units 207 and 208 automatically control the gain to perform gradation correction.

【0031】209、210はA/D変換器で、画像信
号処理部207、208の出力信号をアナログ・デジタ
ル変換し、デジタル画像データを出力する。211、2
12は色信号処理回路であり、A/D変換器209、2
10の出力であるデジタル画像データから色信号を形成
し、デジタルのフルカラー画像データ(以下、画像デー
タと称する)をRGB24ビットを1画素として1画面
分出力する。
A / D converters 209 and 210 convert the output signals of the image signal processing units 207 and 208 from analog to digital, and output digital image data. 211, 2
A color signal processing circuit 12 includes A / D converters 209 and 2
A color signal is formed from the digital image data which is the output of 10, and digital full-color image data (hereinafter, referred to as image data) is output for one screen with 24 bits of RGB as one pixel.

【0032】図3は、三次元表示装置113の概略を示
す構成図である。この三次元表示装置の構成は、本出願
人が特許願8−148611号にて開示した構成と同様
のものである。
FIG. 3 is a schematic diagram showing the outline of the three-dimensional display device 113. As shown in FIG. The configuration of this three-dimensional display device is similar to the configuration disclosed by the present applicant in Japanese Patent Application No. 8-148611.

【0033】131は液晶表示素子で、表示制御部11
2によって表示メモリ111に記憶された画像が表示さ
れる。132はバックライト、133はスリット、13
4、135はレンチキュラーレンズであり、バックライ
ト132からの光がスリット133、レンチキュラーレ
ンズ134,135を通して液晶表示素子131を照明
するようになっている。
Reference numeral 131 denotes a liquid crystal display element, which is a display control unit 11.
2, the image stored in the display memory 111 is displayed. 132 is a backlight, 133 is a slit, 13
Reference numerals 4 and 135 denote lenticular lenses. Light from the backlight 132 illuminates the liquid crystal display element 131 through the slit 133 and the lenticular lenses 134 and 135.

【0034】液晶表示素子131では、適当な観察範囲
において、観察者は図3中L、Rで示した左画像、右画
像をそれぞれ左目、右目に分離して観察することがで
き、左右画像に視差がある場合には液晶表示素子131
で表示された画像を立体画像として認識することができ
る。
In the liquid crystal display element 131, the observer can observe the left image and the right image indicated by L and R in FIG. 3 separately from the left and right eyes in an appropriate observation range. If there is parallax, the liquid crystal display element 131
Can be recognized as a stereoscopic image.

【0035】次に、上述した表示装置の動作を具体的に
説明する。
Next, the operation of the above-described display device will be specifically described.

【0036】撮影者が不図示のカメラの電源スイッチを
入れると、投影レンズ201を通してイメージセンサー
203に結像された被写体(右視点からの画像)が取り
込まれ、画像信号処理207によって画像信号が生成さ
れる。生成された画像データは、A/D変換器209で
アナログ・デジタル変換され、色信号処理回路211に
てそのデジタル画像データから色信号が形成されて右画
像データを得る。同様にして、投影レンズ202を通し
てイメージセンサー204に結像された被写体(左視点
からの画像)が取り込まれ、画像信号処理208、A/
D変換器210、色信号処理回路212を介して左画像
データを得る。これら右・左画像データは、不図示の同
期信号発生回路から出力される同期信号により、同じタ
イミングで撮影された画像データとしてステレオカメラ
200から出力される。
When a photographer turns on a power switch of a camera (not shown), a subject (an image from the right viewpoint) formed on the image sensor 203 through the projection lens 201 is taken in, and an image signal is generated by the image signal processing 207. Is done. The generated image data is converted from analog to digital by the A / D converter 209, and a color signal is formed from the digital image data by the color signal processing circuit 211 to obtain right image data. Similarly, a subject (an image from the left viewpoint) formed on the image sensor 204 through the projection lens 202 is taken in, and subjected to image signal processing 208 and A / A
The left image data is obtained via the D converter 210 and the color signal processing circuit 212. These right and left image data are output from the stereo camera 200 as image data captured at the same timing by a synchronization signal output from a synchronization signal generation circuit (not shown).

【0037】ステレオカメラ200から出力された右・
左画像データは画像合成部108、109に送られ、被
写体領域指示部103で指示された位置に生成したカー
ソル画像と合成された後、さらにステレオ画像合成部1
10で三次元表示装置113に表示すべきステレオ画像
に変換される。この画像合成部108、109およびス
テレオ画像合成部110の処理の流れを図4に示す。図
中、a、bはステレオカメラ200から出力された左画
像データ、右画像データで、cは被写体領域指示部10
3に記憶されているカーソル画像で、d、eは画像デー
タとカーソル画像を合成した画像である。
The right image output from the stereo camera 200
The left image data is sent to the image synthesizing units 108 and 109, and is synthesized with the cursor image generated at the position specified by the subject area specifying unit 103.
At 10, the image is converted into a stereo image to be displayed on the three-dimensional display device 113. FIG. 4 shows the flow of processing of the image synthesizing units 108 and 109 and the stereo image synthesizing unit 110. In the figure, a and b are left image data and right image data output from the stereo camera 200, and c is a subject area designating unit 10
3, d and e are images obtained by combining the image data and the cursor image.

【0038】画像合成部108では、ステレオカメラ2
00から出力された右画像データeと被写体領域指示部
103に記憶されているカーソル画像cとが合成され、
合成画像eが形成される。画像合成部109では、ステ
レオカメラ200から出力された左画像データaと被写
体領域指示部103に記憶されているカーソル画像cと
が合成され、合成画像dが形成される。
In the image synthesizing unit 108, the stereo camera 2
The right image data e output from 00 and the cursor image c stored in the subject area instruction unit 103 are synthesized,
A composite image e is formed. The image synthesizing unit 109 synthesizes the left image data a output from the stereo camera 200 with the cursor image c stored in the subject area instruction unit 103 to form a synthesized image d.

【0039】ステレオ画像合成部110では、上記画像
合成部108,109で合成された合成画像d,eが画
像中の水平1ラインごとに組み合わされて、三次元表示
装置113に表示すべきステレオ画像f(以下、水平ス
トライプ画像と称する)が生成される。そして、この水
平ストライプ画像fが表示メモリ111に書き込まれ、
表示制御部112による表示制御によって、三次元表示
装置113に撮影被写体の画像とカーソルが立体表示さ
れる。
In the stereo image synthesizing unit 110, the synthesized images d and e synthesized by the image synthesizing units 108 and 109 are combined for each horizontal line in the image to form a stereo image to be displayed on the three-dimensional display device 113. f (hereinafter, referred to as a horizontal stripe image) is generated. Then, this horizontal stripe image f is written into the display memory 111,
By the display control by the display control unit 112, the image of the photographed subject and the cursor are stereoscopically displayed on the three-dimensional display device 113.

【0040】ここで、ユーザが、三次元表示装置113
を見ながら、被写体領域指示部103のポイティングデ
バイスによりカーソルの移動を指示すると、カーソルは
その指示に応じて画像中を上下左右、立体視した際の奥
行き方向へと、三次元的に移動する。例えば、ユーザが
カーソルの奥行き方向の移動を指示した場合には、左右
画像中での水平方向の位置関係(視差)が変わり、これ
によりカーソルが表示画像中を奥行き方向に移動するこ
とになる。このようなカーソルの三次元的な移動は、例
えばカーソルを表示画像画面内で遠くに移動するよう指
示した場合には、カーソルの左右画像中での視差が少な
くなるようカーソル表示位置が被写体領域指示部103
で制御されることにより行われる。
Here, the user operates the three-dimensional display device 113.
When a cursor movement is instructed by the pointing device of the subject area instructing unit 103 while watching, the cursor moves three-dimensionally in an image up, down, left, right, and in the depth direction when stereoscopically viewed. . For example, when the user instructs the cursor to move in the depth direction, the horizontal positional relationship (parallax) in the left and right images changes, and the cursor moves in the display image in the depth direction. In such a three-dimensional movement of the cursor, for example, when the cursor is instructed to move far in the display image screen, the cursor display position is set so as to reduce the parallax between the left and right images of the cursor. Part 103
It is performed by being controlled by.

【0041】以上の動作により、ユーザはインタラクテ
ィブにカーソルを表示画像内で三次元的に自由に移動で
きる。
By the above operation, the user can interactively freely move the cursor three-dimensionally in the display image.

【0042】次に、三次元表示装置113に表示された
被写体の大きさを測定する場合について説明する。
Next, a case where the size of the subject displayed on the three-dimensional display device 113 is measured will be described.

【0043】三次元表示装置113に表示されている画
像内に、大きさの知りたい被写体がある場合、まず、ユ
ーザは不図示の測定ボタンを押す。本実施形態の表示装
置は、この測定ボタンが押されている間(測定ボタンの
信号がオンの間)、三次元表示装置113の表示画面に
メジャー画像が被写体画像とともに表示される。
When there is a subject whose size is to be known in the image displayed on the three-dimensional display device 113, first, the user presses a measurement button (not shown). In the display device of the present embodiment, while the measurement button is being pressed (while the signal of the measurement button is on), the major image is displayed on the display screen of the three-dimensional display device 113 together with the subject image.

【0044】測定ボタンの信号がオンになると、ステレ
オカメラ200からの出力画像データのうちの、被写体
領域指示部103のカーソルで指定された箇所(被写
体)の近傍領域(被写体を含む領域)に関する画像デー
タ(部分画像)が、画像メモリ101、102に記憶さ
れる。そして、対応点抽出部104にて、これら画像メ
モリ101、102に記憶された左右画像データの部分
画像の同一被写体部分が、複数の対応点(N点)として
抽出される。なお、被写体領域指示部103のカーソル
による指定が、左右画像の同一被写体部分が正確に指示
されていない場合には、この対応点抽出部104によっ
て、カーソル指定による被写体視差の誤差が補正され、
正確な視差が抽出される。この対応点抽出部104から
は、対応点データとして左右画像中の水平方向の画素位
置(xLi,yLi)と垂直方向の画素位置(xRi,y
i)が出力される。ただし、i=1,2,...,N
とする。
When the signal of the measurement button is turned on, an image related to a region (a region including the subject) near a portion (subject) designated by the cursor of the subject region indicating unit 103 in the output image data from the stereo camera 200. Data (partial image) is stored in the image memories 101 and 102. Then, in the corresponding point extracting unit 104, the same subject portion of the partial images of the left and right image data stored in the image memories 101 and 102 is extracted as a plurality of corresponding points (N points). In the case where the designation by the cursor of the subject area designating unit 103 does not accurately designate the same subject portion of the left and right images, the corresponding point extracting unit 104 corrects the subject parallax error by the cursor designation,
Accurate parallax is extracted. The corresponding point extraction unit 104 outputs horizontal pixel positions (xL i , yL i ) and vertical pixel positions (xR i , y) in the left and right images as corresponding point data.
R i ) is output. Here, i = 1, 2,. . . , N
And

【0045】メジャーパラメータ算出部106は、被写
体領域指示部103から出力されたカーソル位置データ
と対応点抽出部104から出力された対応点データとに
基づいて、三次元表示装置113に表示すべきメジャー
の目盛りと目盛り幅および左右画像中おけるその位置を
メジャーパラメータとして算出する。メジャー画像生成
部107では、このメジャーパラメータ算出部106に
て算出されたメジャーパラメータに基づいて、メジャー
画像が生成される。
The major parameter calculating unit 106 determines a major to be displayed on the three-dimensional display device 113 based on the cursor position data output from the subject area indicating unit 103 and the corresponding point data output from the corresponding point extracting unit 104. Are calculated as major parameters. The measure image generation unit 107 generates a measure image based on the measure parameters calculated by the measure parameter calculation unit 106.

【0046】以下、このメジャーパラメータ算出部10
6およびメジャー画像生成部107の処理を図5を参照
して具体的に説明する。
Hereinafter, the major parameter calculating section 10
6 and the processing of the major image generation unit 107 will be specifically described with reference to FIG.

【0047】メジャーパラメータ算出部106では、ま
ず、対応点抽出部104から出力された複数の対応点の
各座標(対応点データ)を基に視差の計算が行われる
(S11)。ここでは、以下の式(1)を用いて被写体
の左右画像での平均視差dが計算される。
The major parameter calculator 106 first calculates parallax based on the coordinates (corresponding point data) of a plurality of corresponding points output from the corresponding point extractor 104 (S11). Here, the average parallax d between the left and right images of the subject is calculated using the following equation (1).

【0048】 d=AVG(xLi−yLi) ・・・(1) 但し、AVGは平均値を表す。D = AVG (xL i −yL i ) (1) where AVG represents an average value.

【0049】被写体の左右画像での平均視差dが求めら
れると、続いて、その平均視差dとカメラパラメータ記
憶部105に予め記憶されているカメラパラメータ、す
なわち撮像レンズ201,202のレンズ中心(撮像レ
ンズの物体側の主点)の水平方向の間隔B(以下、基線
長と称する)およびイメージセンサー203、204の
画素間隔p(但し、ここでは2つの撮像系は同一のもの
が用されている)とに基づいて、被写体の撮影倍率Mが
以下の式(2)により計算される(ステップS12)。
When the average parallax d of the left and right images of the subject is obtained, the average parallax d and the camera parameters stored in the camera parameter storage unit 105 in advance, that is, the lens centers of the imaging lenses 201 and 202 (image pickup A horizontal interval B (hereinafter referred to as a base line length) between a principal point on the object side of the lens and a pixel interval p between the image sensors 203 and 204 (here, the same two imaging systems are used). ) Is calculated by the following equation (2) (step S12).

【0050】 M=(d×p)÷B ・・・(2) そして、この求められた撮影倍率Mの値に応じて、メジ
ャーデータの中から最適なメジャーの目盛りが選択さ
れ、その目盛り幅の画像中での幅が求められる(ステッ
プS13)。例えば、メジャー画像中での目盛りの幅を
N画素とすると、このメジャーを撮影倍率Mで撮影した
時の目盛りの幅はN/Mであるから、このN/Mに最も
近い目盛りが選択される。メジャーデータは、メジャー
パラメータ算出部106に予め用意されているもので、
例えばメジャーデータとして数種類の目盛りがテーブル
として用意されていて、この中から目盛りが選択され
る。また、メジャー画像中での目盛りの幅Nもメジャー
データとして記憶されており、目盛りのテーブルの中か
ら選択された、撮影倍率Mで撮影した時の目盛りの幅が
求められる。ここでは、目盛りのテーブルの中から選択
された撮影倍率Mで撮影した時の目盛りの幅をWとする
と、撮影倍率Mで撮影した時の目盛りの幅がWになるメ
ジャー画像中での目盛りの幅N’が、以下の式(3)に
より求められる。
M = (d × p) ÷ B (2) Then, in accordance with the obtained value of the photographing magnification M, an optimum measure scale is selected from the measure data, and the scale width is selected. Is obtained in the image (step S13). For example, assuming that the width of the scale in the major image is N pixels, the width of the scale when this major is photographed at a magnification of M is N / M, so the nearest scale to this N / M is selected. . The measure data is prepared in advance in the measure parameter calculation unit 106,
For example, several types of scales are prepared as a table as measure data, and a scale is selected from these. The width N of the scale in the major image is also stored as the major data, and the width of the scale when photographing at the photographing magnification M selected from the table of the scale is obtained. Here, assuming that the width of the scale at the time of shooting at the shooting magnification M selected from the scale table is W, the width of the scale at the time of shooting at the shooting magnification M is W. The width N ′ is obtained by the following equation (3).

【0051】 N’=M/W ・・・(3) そして、目盛りのテーブルの中から選択した撮影倍率M
で撮影した時の目盛りとその目盛りの幅N’がメジャー
画像生成部107に出力される。
N ′ = M / W (3) Then, the photographing magnification M selected from the scale table
Is output to the major image generation unit 107.

【0052】続いて、被写体領域指示部103で指示さ
れたカーソル位置と上述のステップS11で計算された
視差dとから、メジャー画像の表示位置が決定される
(ステップS14)。ここでは、まず右画像中の表示位
置をカーソル位置に対して所定の位置だけずらした位置
として求める。このとき、メジャー画像が画像内からは
み出すかどうかを判断し、はみ出す場合にはカーソル位
置に対するずらし量を調整してメジャー画像が画像から
はみ出さないようにする。そして、左画像中の表示位置
を右画像中の表示位置から視差dだけ水平方向にずらし
たものとして、このメジャー画像の右画像中の表示位置
と左画像中の表示位置とが決定される。この結果は、メ
ジャー画像生成部107へ出力される。
Subsequently, the display position of the major image is determined from the cursor position designated by the subject region designating unit 103 and the parallax d calculated in step S11 (step S14). Here, first, the display position in the right image is obtained as a position shifted from the cursor position by a predetermined position. At this time, it is determined whether or not the major image protrudes from the image, and if so, the amount of displacement with respect to the cursor position is adjusted so that the major image does not protrude from the image. Then, assuming that the display position in the left image is shifted from the display position in the right image by the parallax d in the horizontal direction, the display position of the major image in the right image and the display position in the left image are determined. This result is output to the major image generation unit 107.

【0053】メジャー画像生成部107では、あらかじ
め記憶されていたメジャー画像に上記ステップS13で
求められたメジャーの目盛りおよび目盛り幅に応じて目
盛り線と数字を書き込む目盛りの付与処理が行われ(ス
テップS15)、目盛り付きのメジャー画像データが2
つの画像合成部108、109へ出力される。さらに、
メジャーパラメータ算出部106からの出力であるメジ
ャー画像の右画像中の表示位置と左画像中の表示位置を
そのままそれぞれ画像合成部108、109に出力す
る。
In the major image generating unit 107, a process of assigning a graduation for writing graduation lines and numbers in accordance with the graduation and the graduation width of the measure obtained in step S13 on the previously stored major image is performed (step S15). ), 2 graduated major image data
Output to the two image synthesizing units 108 and 109. further,
The display position in the right image and the display position in the left image of the major image, which is the output from the major parameter calculating unit 106, are output to the image synthesizing units 108 and 109, respectively, as they are.

【0054】画像合成部108および109はステレオ
カメラ200で撮影した左右画像とカーソル画像を合成
した場合と同様に、メジャー画像を合成する。図6
(a)にメジャー画像を合成した画像合成部109の出
力画像を、図6(b)にメジャー画像を合成した画像合
成部108の出力画像を示す。以後、これらの画像はス
テレオ画像合成部110で水平ストライプ画像に合成さ
れ、表示メモリ111に書き込まれる。そして、表示制
御部112により、三次元表示装置113に立体表示さ
れる。
The image synthesizing units 108 and 109 synthesize a major image in the same manner as when synthesizing the left and right images captured by the stereo camera 200 and the cursor image. FIG.
6A illustrates an output image of the image combining unit 109 that combines the major images, and FIG. 6B illustrates an output image of the image combining unit 108 that combines the major images. Thereafter, these images are combined into a horizontal stripe image by the stereo image combining unit 110 and written into the display memory 111. Then, the display control unit 112 stereoscopically displays the image on the three-dimensional display device 113.

【0055】以上の処理により、ユーザは立体表示され
た画像中の所望の被写体をカーソル指示するだけで、そ
の被写体に関するメジャーを表示することができ、被写
体の大きさをメジャーと比較することによりおおよそ知
ることができる。また、所望の被写体の大きさだけでな
く、同時に撮影された奥行き方向の位置の異なった被写
体の大きさについても、ユーザが立体視した際の左右視
差量から推定することによって把握することができる。
特に、大きさを正確に知りたい被写体に関しては、視
差、撮影倍率を合わせたメジャー画像を同時に表示する
ことができるので、正確に被写体の大きさを知ることが
できる。
By the above processing, the user can display a measure relating to a desired subject in the stereoscopically displayed image simply by pointing the cursor to the desired subject. By comparing the size of the subject with the measure, the user can roughly display the measure. You can know. Further, not only the size of a desired subject but also the size of a subject having a different position in the depth direction photographed at the same time can be grasped by estimating from the left and right parallax amounts when the user stereoscopically views. .
In particular, for a subject whose size is to be accurately known, a major image in which the parallax and the imaging magnification are adjusted can be displayed at the same time, so that the size of the subject can be accurately known.

【0056】また、対応点抽出部104によって、カー
ソル指示による被写体視差の誤差が補正されるようにな
っているので、カーソル指示による位置の指定が確実に
行えなかった場合においても、その補正により被写体の
大きさを正確に把握することができる。
Further, since the corresponding point extracting unit 104 corrects the parallax error of the object indicated by the cursor, even if it is not possible to specify the position reliably by the instruction of the cursor, the correction can be applied to the object. Can be accurately grasped.

【0057】本形態では、被写体領域指示部103によ
り、ユーザが三次元的に移動可能なカーソルで被写体領
域を指示できるようになっているが、被写体の大きさを
知りたい時には、画像中心部に常に被写体が撮影されて
いると仮定して、画像中心部の視差によって、メジャー
画像を合成出力するようにしてもよい。この場合、被写
体領域指示部103を廃して、被写体領域指示部103
の出力であるカーソル位置のかわりに、画像中心座標を
用いてメジャー画像合成の処理を行うようにすればよ
い。これにより、システム全体の構成が簡単になり、低
コストの装置が実現可能である。また、面倒なカーソル
操作を行う必要もなくなる。
In the present embodiment, the user can specify the subject area with the three-dimensionally movable cursor by the subject area designating unit 103. Assuming that the subject is always photographed, the major image may be synthesized and output based on the parallax at the center of the image. In this case, the subject area designating unit 103 is eliminated,
Instead of the cursor position which is the output of the above, the process of the major image synthesis may be performed using the image center coordinates. Thereby, the configuration of the entire system is simplified, and a low-cost device can be realized. Further, it is not necessary to perform a troublesome cursor operation.

【0058】また、本形態では、ステレオカメラ200
の2つの撮像系のそれぞれの撮影レンズの光軸が左右平
行に配置されているものを用いたが、光軸が所定の距離
において交差するよう輻輳を付けた構成にしてもよい。
この場合、メジャーパラメータ算出部106では上述の
ステップS11の視差の計算を行う前に、対応点抽出部
104の出力である各対応点に対する奥行きの逆数の平
均値を以下の式により求めておく。
In this embodiment, the stereo camera 200
Although the imaging lenses of the two imaging systems are arranged such that the optical axes of the respective imaging lenses are parallel to the left and right, a configuration in which the optical axes intersect at a predetermined distance may be used.
In this case, before calculating the parallax in step S11 described above, the major parameter calculator 106 calculates the average of the reciprocal of the depth for each corresponding point, which is the output of the corresponding point extractor 104, by the following equation.

【0059】[0059]

【数1】 但し、fは撮影レンズの焦点距離であり、ここでは2つ
の撮像系は同一の構成となっているので、各撮影レンズ
の焦点距離fは等しい。また、輻輳角は内向きに2θで
ある。
(Equation 1) Here, f is the focal length of the photographing lens. Since the two imaging systems have the same configuration, the focal lengths f of the respective photographing lenses are equal. The convergence angle is 2θ inward.

【0060】そして、ステップS11の視差の計算で
は、右画像中のカーソル位置の奥行きzに対する左画像
中の位置を求めて、視差dが計算され、ステップS12
の撮像倍率の計算では、撮影レンズの焦点距離fと奥行
きzから撮影倍率Mが計算される。この場合、カメラパ
ラメータ記憶部105には基線長B、画素間隔pととも
に焦点距離f、輻輳角2θに対するcosθ、sinθ
をあらかじめ記憶しておく。
In the calculation of the parallax in step S11, the position in the left image with respect to the depth z of the cursor position in the right image is obtained, and the parallax d is calculated.
In the calculation of the imaging magnification, the imaging magnification M is calculated from the focal length f and the depth z of the imaging lens. In this case, the camera parameter storage unit 105 stores the base line length B, the pixel interval p, the focal length f, and the cos θ and sin θ for the convergence angle 2θ.
Is stored in advance.

【0061】また、ステレオカメラ200の2つの撮像
系における撮影レンズの焦点距離、基線長、輻輳角を制
御可能にしてもよく、この場合には、ステレオカメラ2
00からメジャーパラメータ算出部106にカメラパラ
メータを出力するようにシステムを構成する。このよう
な構成をとることで、例えば、被写体距離が近い場合な
どには2つの撮像系が平行の状態よりも2つの撮像系の
視野の重なりあう領域が多くなるので、より立体視に適
した複眼撮像装置を構成できる。また、ステレオカメラ
200の2つの撮像系における撮影レンズの焦点距離、
基線長、輻輳角の制御を常にユーザが指定した被写***
置で視差が0になるように行うこともできる。このよう
なカメラ制御を行った場合には、メジャー画像の視差も
0にすべきであり、従ってメジャーパラメータ算出部1
06のステップS14の処理は、カーソル位置のみを用
いてメジャー画像の表示位置を決定するようにすればよ
い。ここで、出力である左右の表示位置は同じ位置であ
る。
The focal length, the base line length, and the convergence angle of the photographing lens in the two image pickup systems of the stereo camera 200 may be controllable.
The system is configured to output the camera parameters from 00 to the major parameter calculation unit 106. By adopting such a configuration, for example, when the subject distance is short, the area where the fields of view of the two imaging systems overlap each other becomes larger than in the case where the two imaging systems are in parallel, so that it is more suitable for stereoscopic vision. A compound eye imaging device can be configured. Also, the focal lengths of the photographing lenses in the two imaging systems of the stereo camera 200,
The control of the base line length and the convergence angle may be performed such that the parallax becomes zero at the subject position specified by the user. When such camera control is performed, the parallax of the major image should also be set to 0, and therefore, the major parameter calculation unit 1
In the process of step S14 of 06, the display position of the major image may be determined using only the cursor position. Here, the output left and right display positions are the same position.

【0062】また、本形態では、図6(a),(b)に
示したように、画像中の水平方向と垂直方向のメジャー
を表示するようにしたが、図7(a),(b)に示すよ
うに奥行き方向にもメジャーを表示してもよい。この場
合、表示画像は奥行き方向で視差が変化するので、左右
画像における奥行き方向のメジャーはその視差が徐叙に
手前になるほど大きくなるようにメジャー画像を生成す
る。従って、メジャー画像生成部107での処理は、あ
らかじめ画像データとして記憶されているメジャー画像
にメモリを付与するだけの処理ではなく、左右メジャー
画像を奥行きと視差に応じて生成するように構成する。
このため、メジャー画像生成部107では、メジャーの
形状データを幾何学的データとして記憶しておく必要が
ある。
In this embodiment, the horizontal and vertical measures in the image are displayed as shown in FIGS. 6A and 6B. However, FIGS. 7A and 7B The measure may also be displayed in the depth direction as shown in FIG. In this case, since the disparity of the display image changes in the depth direction, the major image in the depth direction of the left and right images generates a major image such that the disparity gradually increases toward the near side. Accordingly, the processing in the major image generation unit 107 is configured to generate not only a memory but also a major image stored in advance as image data, according to the depth and the parallax.
Therefore, the measure image generation unit 107 needs to store the shape data of the measure as geometric data.

【0063】上記のような構成によれば、奥行き方向の
メジャーを表示することにより、被写体の奥行き方向の
大きさも把握することができる。また、奥行き方向のメ
ジャーの目盛りとしてカメラからの距離を表示するよう
にすれば、被写体のカメラからの距離も把握することが
できる。
According to the above configuration, the size of the subject in the depth direction can be grasped by displaying the measure in the depth direction. If the distance from the camera is displayed as a scale of the measure in the depth direction, the distance of the subject from the camera can be grasped.

【0064】また本形態では、三次元表示装置113に
メジャー画像をスーパーインポーズするよう構成した
が、通常の二次元表示装置にステレオカメラ200の出
力画像のうちの一方の画像とともにメジャー画像をスー
パーインポーズするようにしてもよい。この場合、立体
表示の場合と同様に、メジャー画像は被写体領域の視差
に応じて撮影倍率を求めてメジャーパラメータを算出す
るようにするが、左右表示位置データを出力する必要は
なく、メジャーパラメータ算出部106におけるステッ
プS14の処理も必要なくなる。したがって、メジャー
画像の表示位置はカーソル位置に従うこととなり、画像
合成部109、ステレオ画像合成部110は不要とな
る。
In this embodiment, the major image is superimposed on the three-dimensional display device 113. However, the major image is superimposed on the normal two-dimensional display device together with one of the images output from the stereo camera 200. You may make it impose. In this case, as in the case of the three-dimensional display, the major image is obtained by calculating the photographing magnification according to the parallax of the subject area and calculating the major parameter. The processing in step S14 in the unit 106 is not required. Therefore, the display position of the major image follows the cursor position, and the image combining unit 109 and the stereo image combining unit 110 are not required.

【0065】(実施形態2)図8は、本発明の第2実形
態の表示装置の構成を示すブロック図である。同図にお
いて、図1に示した構成とほぼ同等の機能を有するもの
には、同じ符号を付している。
(Embodiment 2) FIG. 8 is a block diagram showing a configuration of a display device according to a second embodiment of the present invention. In the figure, components having substantially the same functions as those of the configuration shown in FIG. 1 are denoted by the same reference numerals.

【0066】以下、本実施形態の表示装置の動作を説明
する。
Hereinafter, the operation of the display device of this embodiment will be described.

【0067】上述した第1の実施形態の場合と同様に、
撮影者が不図示のカメラの電源スイッチを入れると、2
つの画像データ(左右画像)がステレオカメラ200か
ら出力される。そして、ステレオカメラ200から出力
された画像データは、ステレオ画像合成部110にて画
像中の水平1ラインごとに組み合わされ、水平ストライ
プ画像が生成される。
As in the case of the first embodiment described above,
When the photographer turns on the power switch of the camera (not shown), 2
Two image data (left and right images) are output from the stereo camera 200. Then, the image data output from the stereo camera 200 is combined for each horizontal line in the image by the stereo image synthesizing unit 110 to generate a horizontal stripe image.

【0068】被写体領域指示部103では、指示された
奥行きに応じた視差を持つカーソル画像が水平ストライ
プ画像として生成され、画像合成部108にてステレオ
画像合成部110で生成された水平ストライプ画像と合
成され、三次元表示装置113に表示すべき画像を得
る。そして、この合成画像が表示メモリ111に書き込
まれ、表示制御部112により、三次元表示装置113
に撮影被写体の画像とカーソルが立体表示される。
In the object area designating unit 103, a cursor image having a parallax according to the designated depth is generated as a horizontal stripe image, and the image combining unit 108 combines the cursor image with the horizontal stripe image generated by the stereo image combining unit 110. Then, an image to be displayed on the three-dimensional display device 113 is obtained. Then, the composite image is written into the display memory 111, and the display control unit 112 controls the three-dimensional display device 113.
The image of the photographing subject and the cursor are displayed in three dimensions.

【0069】ここで、三次元表示装置113に表示され
ている画像内に大きさの知りたい被写体がある場合、ユ
ーザは不図示の測定ボタンを押す。本形態の表示装置
は、この測定ボタンが押されている間(測定ボタンの信
号がオンの間)、三次元表示装置113にメジャー画像
を撮影被写体画像とともに表示するよう動作する。
If there is a subject whose size is desired to be found in the image displayed on the three-dimensional display device 113, the user presses a measurement button (not shown). The display device of the present embodiment operates to display the major image together with the photographed subject image on the three-dimensional display device 113 while the measurement button is being pressed (while the signal of the measurement button is on).

【0070】測定ボタンの信号がオンになると、ステレ
オカメラ200からの出力画像データの一部の領域、す
なわち被写体領域指示部103のカーソルで指定された
箇所(被写体)の近傍領域(被写体を含む領域)に関す
る画像データ(部分画像)が画像メモリ101、102
に記憶される。そして、対応点抽出部104において、
画像メモリ101、102に記億されている左右画像デ
ータの部分画像の同一被写体部分が複数の対応点的点と
して抽出される。
When the signal of the measurement button is turned on, a part of the area of the output image data from the stereo camera 200, that is, the area near the part (subject) designated by the cursor of the subject area designating unit 103 (the area including the subject) ) Are stored in the image memories 101 and 102.
Is stored. Then, in the corresponding point extraction unit 104,
The same subject portion of the partial images of the left and right image data stored in the image memories 101 and 102 is extracted as a plurality of corresponding points.

【0071】続いて、メジャーパラメータ算出部106
は三次元表示装置113に表示すべきメジャーの目盛り
と目盛り幅、左右画像中でのそれぞれのメジャーの位置
をメジャーパラメータとして算出する。そして、メジャ
ー画像生成部107でメジャーパラメータに従って、メ
ジャー画像を生成する。
Subsequently, the measure parameter calculating section 106
Calculates the scale and scale width of the measure to be displayed on the three-dimensional display device 113 and the position of each measure in the left and right images as a measure parameter. Then, the major image generation unit 107 generates a major image according to the major parameters.

【0072】以下、メジャーパラメータ算出部106、
メジャー画像生成部107の処理を図9を参照して説明
する。
Hereinafter, the measure parameter calculating section 106,
The processing of the major image generation unit 107 will be described with reference to FIG.

【0073】本形態では、メジャーパラメータ算出部1
06において行われるステップS11〜S14の処理、
メジャー画像生成部107において行われるステップS
15の処理までは、上述した第1実施形態の場合と同様
に行われるが、メジャー画像生成部107においてステ
ップS15の処理でメジャー画像に目盛りが付与された
後に、ステップS16の処理として、その目盛りの付与
されたメジャー画像を、左右表示位置の差分だけずらし
て画像中の水平1ラインごとに組み合わし、メジャー画
像を水平ストライプ画像として出力する処理が含まれ
る。
In the present embodiment, the major parameter calculating section 1
06, the processing of steps S11 to S14,
Step S performed in major image generating section 107
The processing up to the step 15 is performed in the same manner as in the above-described first embodiment. However, after the scale is given to the major image in the processing of the step S15 in the major image generating unit 107, the scale is set as the processing of the step S16. The process includes shifting the major image provided with the symbol by a difference between the left and right display positions and combining each horizontal line in the image, and outputting the major image as a horizontal stripe image.

【0074】そして、画像合成部108はステレオカメ
ラ200で撮影した左右画像とカーソル画像を合成した
場合と同様に、メジャー画像をその出力された表示位置
に従って同時に合成し、表示メモリ111に書き込む。
そして、表示制御部112により、三次元表示装置11
3に立体表示される。
Then, the image synthesizing unit 108 simultaneously synthesizes the major image according to the output display position and writes the same in the display memory 111, similarly to the case where the left and right images captured by the stereo camera 200 and the cursor image are synthesized.
Then, the display control unit 112 controls the three-dimensional display device 11.
3 is displayed three-dimensionally.

【0075】本形態では、ステレオカメラ200で撮影
した画像の水平ストライプ画像とメジャー画像、カーソ
ル画像の水平ストライプ画像を合成するように構成した
ので画像合成部は1つあればよい。
In this embodiment, since the horizontal stripe image of the image photographed by the stereo camera 200, the major image, and the horizontal stripe image of the cursor image are synthesized, only one image synthesizing unit is required.

【0076】以上の説明では、各実施形態ともに2つの
撮像系を用いた構成となっているが、本発明はこれに限
定されるものではなく、異なる視点から撮影された互い
に視野の重なる複数の撮像画像を得られれば、撮像系は
1つであっても、複数であってもよい。
In the above description, each embodiment has a configuration using two image pickup systems. However, the present invention is not limited to this. As long as a captured image can be obtained, one or a plurality of imaging systems may be used.

【0077】[0077]

【発明の効果】本発明は以上説明したように構成されて
いるので、以下のような効果を奏する。
Since the present invention is configured as described above, it has the following effects.

【0078】被写体の立体映像に基準となるメジャーを
同じ視差量で同時に立体表示できるので、その表示され
たメジャーを用いて、立体表示された被写体の大きさを
簡単に把握できる。このメジャーの表示は、被写体の視
差、撮影倍率に合わせられていることから、正確に被写
体の大きさを知ることができる。
Since a measure serving as a reference for a three-dimensional image of a subject can be displayed three-dimensionally at the same time with the same amount of parallax, the size of the three-dimensionally displayed subject can be easily grasped using the displayed measure. Since the display of this measure is adjusted to the parallax of the subject and the shooting magnification, the size of the subject can be accurately known.

【0079】加えて、被写体の視差に応じてメジャーの
倍率および視差が算出され、その算出された倍率、視差
を有するメジャーが表示されるので、その表示されたメ
ジャーに基づいて、奥行きの異なる複数の被写体につい
ても大きさを簡単に把握することができる。
In addition, the magnification and the parallax of the measure are calculated in accordance with the parallax of the subject, and the measure having the calculated magnification and the parallax is displayed. Based on the displayed measure, a plurality of measures having different depths are displayed. The size of the subject can be easily grasped.

【0080】また、大きさを知りたい被写体を例えばカ
ーソルにより指定するだけで、その被写体の視差に応じ
た倍率、視差を有するメジャーが表示されるので、従来
のように測定点の入力を複数回にわたって行う必要がな
く、簡単な操作で被写体の大きさを知ることができる。
Further, by simply designating a subject whose size is to be known, for example, using a cursor, a measure having a magnification and a parallax corresponding to the parallax of the subject is displayed. The size of the subject can be known with a simple operation.

【0081】さらに、カーソルによって指定された被写
体領域における複数の対応点が抽出され、これら対応点
の視差の平均が被写体の視差として与えられるので、被
写体の視差がより正確なものとなり、メジャーの尺度を
より精度の高いものとすることができ、メジャーの大き
さの測定精度をより高いものとすることができる。
Further, a plurality of corresponding points in the subject area designated by the cursor are extracted, and the average of the parallaxes of these corresponding points is given as the parallax of the subject, so that the parallax of the subject becomes more accurate, and Can be made more accurate, and the measurement accuracy of the measure size can be made higher.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の第1の実施形態の表示装置の構成を示
すブロック図である。
FIG. 1 is a block diagram illustrating a configuration of a display device according to a first embodiment of the present invention.

【図2】ステレオカメラの構成の一例をを示すブロック
図である。
FIG. 2 is a block diagram illustrating an example of a configuration of a stereo camera.

【図3】三次元表示装置の構成の一例を示す展開図であ
る。
FIG. 3 is a development view illustrating an example of a configuration of a three-dimensional display device.

【図4】ステレオ画像の合成処理を説明するための図で
ある。
FIG. 4 is a diagram for explaining a synthesis process of a stereo image.

【図5】本発明の第1の実施形態の表示装置において行
われるメジャー画像の生成処理を説明するための図であ
る。
FIG. 5 is a diagram illustrating a major image generation process performed in the display device according to the first embodiment of the present invention.

【図6】(a)、(b)はメジャー画像を合成したステ
レオ画像を示す図である。
FIGS. 6A and 6B are diagrams showing a stereo image obtained by synthesizing a major image.

【図7】(a)、(b)は奥行き方向にもメジャーを表
示したステレオ画像を示す図である。
FIGS. 7A and 7B are diagrams showing a stereo image in which a measure is also displayed in the depth direction.

【図8】本発明の第2の実施形態の表示装置の構成を示
すブロック図である。
FIG. 8 is a block diagram illustrating a configuration of a display device according to a second embodiment of the present invention.

【図9】本発明の第2の実施形態の表示装置において行
われるメジャー画像の生成処理を説明するための図であ
る。
FIG. 9 is a diagram illustrating a major image generation process performed in the display device according to the second embodiment of the present invention.

【符号の説明】[Explanation of symbols]

101,102 画像メモリ 103 被写体領域指示部 104 対応点抽出部 105 カメラパラメータ記憶部 106 メジャーパラメータ算出部 107 メジャー画像生成部 108,109 画像合成部 110 ステレオ画像合成部 111 表示メモリ 112 表示制御部 113 三次元表示装置 131 液晶表示素子 132 バックライト 133 スリット 134,135 レンチキュラーレンズ 201,202 撮影レンズ 203,204 イメージセンサ(CCD) 205,206 取り込み制御部 207,208 画像信号処理部 209,210 A/D変換器 211,212 色信号処理部 101, 102 Image memory 103 Subject area indicating unit 104 Corresponding point extracting unit 105 Camera parameter storing unit 106 Measure parameter calculating unit 107 Major image generating unit 108, 109 Image synthesizing unit 110 Stereo image synthesizing unit 111 Display memory 112 Display control unit 113 Tertiary Original display device 131 Liquid crystal display device 132 Backlight 133 Slit 134, 135 Lenticular lens 201, 202 Photographing lens 203, 204 Image sensor (CCD) 205, 206 Capture control unit 207, 208 Image signal processing unit 209, 210 A / D conversion Device 211, 212 color signal processing unit

Claims (13)

【特許請求の範囲】[Claims] 【請求項1】 被写体を撮影する少なくとも1つの撮像
手段を備え、異なる視点から撮影された互いに視野の重
なる複数の撮像画像を合成して立体画像の表示がなされ
る表示装置において、 前記複数の撮像画像間における被写体の視差に応じて、
その被写体の尺度の基準となるメジャーの倍率および視
差を算出するメジャーパラメータ算出手段と、 前記メジャーパラメータ算出手段にて算出されたメジャ
ーの倍率および視差に基づいてメジャー画像を生成する
メジャー画像生成手段と、 前記立体画像中に前記メジャー画像生成手段にて生成さ
れたメジャー画像を合成する画像合成手段と、を有する
ことを特徴とする表示装置。
1. A display device comprising: at least one image pickup means for photographing a subject, wherein a plurality of photographed images photographed from different viewpoints having overlapping fields of view are synthesized to display a stereoscopic image, Depending on the parallax of the subject between the images,
Measure parameter calculation means for calculating the magnification and parallax of the measure serving as a reference for the scale of the subject; and measure image generation means for generating a measure image based on the magnification and parallax of the measure calculated by the measure parameter calculation means. An image synthesizing unit that synthesizes the major image generated by the major image generating unit into the three-dimensional image.
【請求項2】 請求項1に記載の表示装置において、 前記メジャー画像生成手段は、前記メジャーパラメータ
算出手段にて算出されたメジャーの視差に応じて、前記
複数の撮像画像に対応する複数のメジャー画像を生成
し、 前記画像合成手段は、前記複数の撮像画像と前記複数の
メジャー画像とをそれぞれ合成することを特徴とする表
示装置。
2. The display device according to claim 1, wherein the major image generating unit includes a plurality of measures corresponding to the plurality of captured images according to a parallax of the measure calculated by the major parameter calculating unit. A display device, wherein an image is generated, and the image synthesizing unit synthesizes the plurality of captured images and the plurality of major images, respectively.
【請求項3】 請求項1に記載の表示装置において、 前記メジャー画像生成手段は、前記メジャーパラメータ
算出手段にて算出されたメジャーの視差に応じて複数の
メジャー画像を生成し、 前記画像合成手段は、前記複数の撮像画像を合成した画
像と前記複数のメジャー画像を合成した画像とを合成す
ることを特徴とする表示装置。
3. The display device according to claim 1, wherein the major image generating unit generates a plurality of major images according to the parallax of the major calculated by the major parameter calculating unit. A display device that combines an image obtained by synthesizing the plurality of captured images and an image obtained by synthesizing the plurality of major images.
【請求項4】 請求項1に記載の表示装置において、 前記立体画像における被写体領域を指定する被写体領域
指定手段と、 前記複数の撮像画像間での、前記被写体領域指定手段に
より指示された被写体領域おける複数の対応点を抽出す
る対応点抽出手段と、をさらに備え、 前記メジャー画像生成手段は、前記対応点抽出手段にて
抽出された複数の対応点の視差の平均を基に、前記被写
体領域の尺度の基準となるメジャーの倍率および視差を
算出することを特徴とする表示装置。
4. The display device according to claim 1, wherein a subject area designating means for designating a subject area in the stereoscopic image, and a subject area designated by the subject area designating means between the plurality of captured images. Corresponding point extracting means for extracting a plurality of corresponding points in the subject area based on an average of parallaxes of the plurality of corresponding points extracted by the corresponding point extracting means. A display device for calculating a magnification and a parallax of a measure serving as a reference of the scale of the scale.
【請求項5】 請求項4に記載の表示装置において、 前記被写体領域指定手段は、カーソル画像が記憶された
記憶手段と、前記立体画像中におけるカーソルの移動を
指示するための入力手段とを有し、 前記画像合成手段は、予め設定されたカーソルの初期視
差および初期位置に基づいて前記複数の撮像画像のそれ
ぞれに対して前記カーソル画像を合成し、前記入力手段
によりカーソルの移動の指示があると、該指示に応じた
カーソルの視差および移動位置に基づいて前記撮像画像
とカーソル画像との合成を行うことを特徴とする表示装
置。
5. The display device according to claim 4, wherein the subject area designating means has a storing means in which a cursor image is stored, and an input means for instructing movement of a cursor in the stereoscopic image. The image combining unit combines the cursor image with each of the plurality of captured images based on a preset initial parallax and an initial position of the cursor, and there is an instruction to move the cursor by the input unit. A display device that combines the captured image and the cursor image based on a parallax and a movement position of the cursor according to the instruction.
【請求項6】 請求項5に記載の表示装置において、 前記対応点抽出手段は、前記被写体領域指定手段によっ
て指示されたカーソル位置の近傍領域おける複数の対応
点を抽出することを特徴とする表示装置。
6. The display device according to claim 5, wherein said corresponding point extracting means extracts a plurality of corresponding points in an area near a cursor position designated by said subject area designating means. apparatus.
【請求項7】 請求項6に記載の表示装置において、 前記撮像手段を用いた前記複数の撮像画像の撮影に関す
る撮像系の輻輳角、焦点距離、基線長、画素間隔が記憶
された記憶手段をさらに備え、 前記メジャーパラメータ算出手段は、前記記憶手段に記
憶された輻輳角、焦点距離、基線長、画素間隔に基づい
て、前記対応点抽出手段により抽出された複数の対応点
における奥行きを算出し、前記複数の撮像画像のいずれ
か1つの画像中のカーソル位置の、前記奥行きに対する
他の撮像画像中の位置を求めることにより被写体の視差
を得ることを特徴とする表示装置。
7. The display device according to claim 6, further comprising: a storage unit that stores a convergence angle, a focal length, a base line length, and a pixel interval of an imaging system for capturing the plurality of captured images using the imaging unit. Furthermore, the major parameter calculating means calculates depths at a plurality of corresponding points extracted by the corresponding point extracting means based on a convergence angle, a focal length, a base line length, and a pixel interval stored in the storage means. A display device for obtaining a parallax of a subject by obtaining a position of a cursor position in any one of the plurality of captured images with respect to the depth in another captured image.
【請求項8】 請求項7に記載の表示装置において、 前記複数の撮像画像を撮影する撮像系は輻輳角および基
線長が制御可能で、設定された撮像系の輻輳角、焦点距
離、基線長、画素間隔を前記メジャーパラメータ算出手
段に対して出力するように構成され、 前記メジャーパラメータ算出手段は、前記撮像系から出
力された輻輳角、焦点距離、基線長、画素間隔に基づい
て、前記対応点抽出手段によい抽出された複数の対応点
における奥行きを算出し、前記複数の撮像画像のいずれ
か1つの画像中のカーソル位置の、前記奥行きに対する
他の撮像画像中の位置を求めることにより被写体の視差
を得ることを特徴とする表示装置。
8. The display device according to claim 7, wherein the imaging system that captures the plurality of captured images can control a convergence angle and a base line length, and set the convergence angle, the focal length, and the base line length of the set imaging system. Is configured to output a pixel interval to the major parameter calculating unit, wherein the major parameter calculating unit is configured to perform the correspondence based on a convergence angle, a focal length, a base line length, and a pixel interval output from the imaging system. The subject is calculated by calculating the depth at a plurality of extracted corresponding points which is good for the point extracting means, and obtaining the position of the cursor position in any one of the plurality of captured images with respect to the depth in another captured image. A display device for obtaining parallax of the display.
【請求項9】 被写体を撮影する少なくとも1つの撮像
手段を備え、異なる視点から撮影された互いに視野の重
なる複数の撮像画像のうちのいずれか1つに基づいて表
示がなされる表示装置において、 前記複数の撮像画像間における被写体の視差に応じて、
その被写体の尺度の基準となるメジャーの倍率および視
差を算出するメジャーパラメータ算出手段と、 前記メジャーパラメータ算出手段にて算出されたメジャ
ーの倍率および視差に基づいてメジャー画像を生成する
メジャー画像生成手段と、 表示画像中に前記メジャー画像生成手段にて生成された
メジャー画像を合成する画像合成手段と、を有すること
を特徴とする表示装置。
9. A display device, comprising: at least one image capturing means for capturing an image of a subject, wherein display is performed based on one of a plurality of captured images captured from different viewpoints and having overlapping fields of view. According to the parallax of the subject between the plurality of captured images,
Measure parameter calculation means for calculating the magnification and parallax of the measure serving as a reference for the scale of the subject; and measure image generation means for generating a measure image based on the magnification and parallax of the measure calculated by the measure parameter calculation means. An image synthesizing means for synthesizing a major image generated by the major image generating means in a display image.
【請求項10】 請求項1または請求項9に記載の表示
装置において、 前記撮像手段を用いた前記複数の撮像画像の撮影に関す
る撮像系の輻輳角と基線長および画素間隔が記憶された
記憶手段をさらに備え、 前記メジャーパラメータ算出手段は、前記記憶手段に記
憶された輻輳角、基線、画素間隔と前記被写体の視差と
からメジャーの倍率を算出することを特徴とする表示装
置。
10. The display device according to claim 1, wherein a convergence angle, a base line length, and a pixel interval of an imaging system for capturing the plurality of captured images using the imaging unit are stored. The display device, further comprising: a measure parameter calculating unit that calculates a magnification of the measure from a convergence angle, a base line, a pixel interval, and the parallax of the subject stored in the storage unit.
【請求項11】 請求項1または請求項9に記載の表示
装置において、 前記複数の撮像画像を、それぞれ被写体が画像の中心に
なるように撮像されるものとし、 前記複数の撮像画像間での、画像中心部の被写体近傍領
域おける複数の対応点を抽出する対応点抽出手段、をさ
らに備え、 前記メジャーパラメータ算出手段は、前記対応点抽出手
段にて抽出された複数の対応点の視差に応じて、前記被
写体領域の尺度の基準となるメジャーの倍率および視差
を算出することを特徴とする表示装置。
11. The display device according to claim 1, wherein the plurality of captured images are captured such that a subject is located at the center of each of the plurality of captured images. And a corresponding point extracting means for extracting a plurality of corresponding points in a subject vicinity area at the center of the image, wherein the major parameter calculating means responds to a parallax of the plurality of corresponding points extracted by the corresponding point extracting means. A display device for calculating a magnification and a parallax of a measure serving as a reference of the scale of the subject area.
【請求項12】 請求項1または請求項9に記載の表示
装置において、 前記複数の撮像画像を撮影する撮像系の光軸が平行とな
るように設定され、該撮像系の基線長および画素間隔が
記憶された記憶手段をさらに備え、 前記メジャーパラメータ算出手段は、前記記憶手段に記
憶された基線長および画素間隔と前記被写体の視差とか
らメジャーの倍率を算出することを特徴とする表示装
置。
12. The display device according to claim 1, wherein an optical axis of an imaging system that captures the plurality of captured images is set to be parallel, and a base line length and a pixel interval of the imaging system are set. The display device, further comprising a storage unit in which is stored, wherein the measure parameter calculation unit calculates a magnification of the measure from the base line length and the pixel interval stored in the storage unit and the parallax of the subject.
【請求項13】 請求項1または請求項9に記載の表示
装置において、 前記撮像手段を用いた前記複数の撮像画像の撮影に関す
る撮像系の輻輳角、焦点距離、基線長、画素間隔が記憶
された記憶手段をさらに備え、 前記メジャーパラメータ算出手段は、前記記憶手段に記
憶された輻輳角、焦点距離、基線長、画素間隔に基づい
て、前記被写体の視差を算出するとともに該視差に基づ
くメジャーの倍率を算出することを特徴とする表示装
置。
13. The display device according to claim 1, wherein a convergence angle, a focal length, a base line length, and a pixel interval of an imaging system for photographing the plurality of captured images using the imaging unit are stored. The measure parameter calculating means calculates the parallax of the subject based on the convergence angle, the focal length, the base line length, and the pixel interval stored in the storing means, and calculates a measure based on the parallax. A display device for calculating a magnification.
JP8332185A 1996-12-12 1996-12-12 Display device Pending JPH10170227A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP8332185A JPH10170227A (en) 1996-12-12 1996-12-12 Display device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP8332185A JPH10170227A (en) 1996-12-12 1996-12-12 Display device

Publications (1)

Publication Number Publication Date
JPH10170227A true JPH10170227A (en) 1998-06-26

Family

ID=18252126

Family Applications (1)

Application Number Title Priority Date Filing Date
JP8332185A Pending JPH10170227A (en) 1996-12-12 1996-12-12 Display device

Country Status (1)

Country Link
JP (1) JPH10170227A (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002156212A (en) * 2000-11-21 2002-05-31 Olympus Optical Co Ltd Apparatus and method for scale display
JP2011134295A (en) * 2009-11-26 2011-07-07 Canon Inc Stereoscopic image display apparatus, cursor display method, program and storage medium
US8111875B2 (en) 2007-02-20 2012-02-07 Fujifilm Corporation Method of and apparatus for taking solid image and computer program for causing computer to execute the method
JP2012045032A (en) * 2010-08-24 2012-03-08 Fujifilm Corp Stereoscopic image displaying method and device
JP2013005052A (en) * 2011-06-13 2013-01-07 Toshiba Corp Image processing system, apparatus, method and program
JP2013207745A (en) * 2012-03-29 2013-10-07 Sharp Corp Image pickup device, image processing method, and program
EP3220098A1 (en) 2016-03-16 2017-09-20 Fujitsu Limited Dimenional measurement in augmented reality
CN113454978A (en) * 2018-12-26 2021-09-28 日本电气株式会社 Information processing apparatus, information processing method, and recording medium

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002156212A (en) * 2000-11-21 2002-05-31 Olympus Optical Co Ltd Apparatus and method for scale display
JP4646384B2 (en) * 2000-11-21 2011-03-09 オリンパス株式会社 Endoscope device for measurement and scale display method
US8111875B2 (en) 2007-02-20 2012-02-07 Fujifilm Corporation Method of and apparatus for taking solid image and computer program for causing computer to execute the method
JP2011134295A (en) * 2009-11-26 2011-07-07 Canon Inc Stereoscopic image display apparatus, cursor display method, program and storage medium
JP2012045032A (en) * 2010-08-24 2012-03-08 Fujifilm Corp Stereoscopic image displaying method and device
JP2013005052A (en) * 2011-06-13 2013-01-07 Toshiba Corp Image processing system, apparatus, method and program
EP2536156A3 (en) * 2011-06-13 2016-09-21 Toshiba Medical Systems Corporation Image processing system, image processing apparatus, and image processing method
US9578303B2 (en) 2011-06-13 2017-02-21 Toshiba Medical Systems Corporation Image processing system, image processing apparatus, and image processing method for displaying a scale on a stereoscopic display device
JP2013207745A (en) * 2012-03-29 2013-10-07 Sharp Corp Image pickup device, image processing method, and program
EP3220098A1 (en) 2016-03-16 2017-09-20 Fujitsu Limited Dimenional measurement in augmented reality
CN113454978A (en) * 2018-12-26 2021-09-28 日本电气株式会社 Information processing apparatus, information processing method, and recording medium
CN113454978B (en) * 2018-12-26 2023-08-18 日本电气株式会社 Information processing apparatus, information processing method, and storage medium

Similar Documents

Publication Publication Date Title
JP4657313B2 (en) Stereoscopic image display apparatus and method, and program
JP5683025B2 (en) Stereoscopic image capturing apparatus and stereoscopic image capturing method
US8885070B2 (en) Imaging apparatus, image correction method, and computer-readable recording medium
JP4790086B2 (en) Multi-eye imaging apparatus and multi-eye imaging method
JP4065488B2 (en) 3D image generation apparatus, 3D image generation method, and storage medium
JPH0795467A (en) Image processor
JPWO2012086326A1 (en) Stereoscopic panorama image creation device, stereo panorama image creation method, stereo panorama image creation program, stereo panorama image playback device, stereo panorama image playback method, stereo panorama image playback program, and recording medium
US9420263B2 (en) Information processor and information processing method
US6809771B1 (en) Data input apparatus having multiple lens unit
JP4432462B2 (en) Imaging apparatus and method, imaging system
JP2015073185A (en) Image processing device, image processing method and program
JP4403173B2 (en) 3D display file generation method and apparatus, and display control method and apparatus
JPH03141932A (en) Method and device for obtaining and displaying x-ray image for stereo-view observation
JP2002232913A (en) Double eye camera and stereoscopic vision image viewing system
JP5840022B2 (en) Stereo image processing device, stereo image imaging device, stereo image display device
JP2011013993A (en) Image display apparatus and method, as well as program
JP4717853B2 (en) File generation method and apparatus, and stereoscopic image display control method and apparatus
JP2000112019A (en) Electronic triplet lens camera apparatus
JPH10170227A (en) Display device
JP2009258005A (en) Three-dimensional measuring device and three-dimensional measuring method
JPH09305796A (en) Image information processor
JP6732440B2 (en) Image processing apparatus, image processing method, and program thereof
JP2006017632A (en) Three-dimensional image processor, optical axis adjustment method, and optical axis adjustment support method
JP6257260B2 (en) Imaging apparatus and control method thereof
JP2013074473A (en) Panorama imaging apparatus