JP3112485B2 - 3D electronic still camera - Google Patents

3D electronic still camera

Info

Publication number
JP3112485B2
JP3112485B2 JP03005929A JP592991A JP3112485B2 JP 3112485 B2 JP3112485 B2 JP 3112485B2 JP 03005929 A JP03005929 A JP 03005929A JP 592991 A JP592991 A JP 592991A JP 3112485 B2 JP3112485 B2 JP 3112485B2
Authority
JP
Japan
Prior art keywords
image
shift amount
stereoscopic
subject
still camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP03005929A
Other languages
Japanese (ja)
Other versions
JPH057373A (en
Inventor
英明 吉田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Optic Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Optic Co Ltd filed Critical Olympus Optic Co Ltd
Priority to JP03005929A priority Critical patent/JP3112485B2/en
Publication of JPH057373A publication Critical patent/JPH057373A/en
Application granted granted Critical
Publication of JP3112485B2 publication Critical patent/JP3112485B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【産業上の利用分野】本発明は立体電子スチルカメラ、
詳しくは、スチルカメラにおいて被写体距離情報に基づ
いて立体画像表示のための画像を得ることのできる立体
電子スチルカメラに関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a three-dimensional electronic still camera,
More specifically, the present invention relates to a three-dimensional electronic still camera that can obtain an image for displaying a three-dimensional image based on subject distance information in a still camera.

【0002】[0002]

【従来の技術】従来から立体画像カメラ、あるいは、立
体画像表示装置に関しては数多くの提案がなされてい
る。例えば、特開昭50ー23740号公報に開示の図
形認識装置は、2台のカメラで被写体を撮影して左眼と
右眼による視差分が左右にシフトされたものの再生画
像、即ち、ステレオペアの画像を得るようにしたもので
ある。なお、このステレオペアの画像を立体画像として
観察するには、周知のように再生画面に同期して駆動さ
れる液晶眼鏡等が用いられる。
2. Description of the Related Art Conventionally, many proposals have been made regarding a stereoscopic image camera or a stereoscopic image display device. For example, a graphic recognition apparatus disclosed in Japanese Patent Application Laid-Open No. 50-23740 discloses a reproduced image in which a subject is photographed by two cameras and the parallax between the left and right eyes is shifted left and right, that is, a stereo pair. Is obtained. In order to observe the stereo pair image as a stereoscopic image, liquid crystal glasses or the like driven in synchronization with a reproduction screen are used as is well known.

【0003】また、特公昭55ー36240号公報に開
示の立体画像表示装置は、平面画面情報と奥行き情報を
組み合わせて立体画像情報を得るようにした立体画像表
示装置である。この装置における奥行き情報は2台のカ
メラで撮影した画像情報からその信号の相互間の相関を
求めて算出してもよく、また、超音波もしくは電波等に
よる高度測定手段を利用して得るようにしても良い。
A stereoscopic image display device disclosed in Japanese Patent Publication No. 55-36240 is a stereoscopic image display device which obtains stereoscopic image information by combining plane screen information and depth information. Depth information in this apparatus may be calculated by obtaining correlation between the signals from image information captured by two cameras, or may be obtained by using altitude measurement means such as ultrasonic waves or radio waves. May be.

【0004】また、その他の立体画像表示装置として
は、ホログラムを利用したものもあるが、この方式は現
在のところではまだ高価な装置であって本発明の電子カ
メラ等のものの技術範囲の領域からは外れる。
[0004] As another stereoscopic image display device, there is a device using a hologram. However, this method is still expensive at present and is out of the technical range of the electronic camera and the like of the present invention. Comes off.

【0005】[0005]

【発明が解決しようとする課題】立体像の撮影装置とし
て上記特開昭50ー23740号公報に開示の図形認識
装置では2台のカメラを使用する必要があり、スペース
や、コスト上の問題がある。また、2眼の撮影レンズを
持ったカメラにより、同様にステレオペアの画像を撮影
することも可能であるが、やはり、2系統の光学系を有
することからカメラの体格が大きくなり、取扱い、ま
た、コスト的にも難点がある。
In the graphic recognition apparatus disclosed in Japanese Patent Laid-Open No. 50-23740 as a three-dimensional image photographing apparatus, it is necessary to use two cameras, which causes problems in space and cost. is there. It is also possible to shoot a stereo pair image using a camera having a two-lens photographic lens. However, since the camera has two optical systems, the physical size of the camera increases, However, there are disadvantages in terms of cost.

【0006】また、特公昭55ー36240号公報に開
示の立体画像表示装置は、立体画像情報の送信について
は有効なものであるが、奥行き情報を得るための手段に
問題がある。即ち、上述のように2台のカメラ、あるい
は、2眼式のカメラで撮影したデータをもとに奥行き情
報を得るような手段では撮影装置も、演算装置も煩雑す
ぎて適切なものとはいえない。また、他の奥行き情報を
得る手段として、超音波やレーザ光等を用いて被写体距
離を測定することが考えられる。しかし、その測定は被
写体の全域にわたって行われる必要があり、質の良い立
体画像を得ることは難しい。
The stereoscopic image display device disclosed in Japanese Patent Publication No. 55-36240 is effective for transmitting stereoscopic image information, but has a problem in a means for obtaining depth information. That is, as described above, in the means for obtaining depth information based on data taken by two cameras or two-lens cameras, the photographing device and the arithmetic device are too complicated and appropriate. Absent. As another means for obtaining depth information, it is conceivable to measure the subject distance using ultrasonic waves, laser light, or the like. However, the measurement needs to be performed over the entire area of the subject, and it is difficult to obtain a high-quality stereoscopic image.

【0007】本発明の目的は、上述の不具合を解決する
ためになされたものであり、フォーカシングレンズのス
キャニングにより最適合焦位置データを得て、そのデー
タに基づいて、立体画像表示の画像を得るようにして、
従来のもののように2眼式の光学系を必要とせず、従っ
て、大型化することなく、また、超音波等による広域の
測距装置等も必要とせず、従来の1眼式スチルカメラの
光学系をそのまま利用することも可能である低価格の立
体電子スチルカメラを提供するにある。
SUMMARY OF THE INVENTION An object of the present invention is to solve the above-mentioned problems, and obtains an optimum focus position data by scanning a focusing lens, and obtains a stereoscopic image display image based on the data. Like so
It does not require a binocular optical system unlike the conventional one, and therefore does not require a large size, and does not require a wide-range distance measuring device using ultrasonic waves or the like. An object of the present invention is to provide a low-cost stereoscopic electronic still camera that can use the system as it is.

【0008】[0008]

【課題を解決するための手段】本発明の第1の立体電子
スチルカメラは、撮像素子および被写体像を前記撮像素
子に結像する撮像光学系を有する撮像手段と、前記被写
体の撮像に関して、前記撮像光学系のフォーカシング状
態を変化させたときの撮像信号を解析し、当該撮影領域
内に設定された複数の部分領域の合焦度合を表わす各デ
ータに基づいて、前記被写体の距離分布情報を検出する
距離分布情報検出手段と、前記距離分布情報に基づい
て、前記被写体撮像に関する立体画像の構成要素である
互いに視差を有した複数の単眼画像を生成するために必
要な、撮像原画像の各部分に対する位置シフト量をそれ
ぞれ算出するシフト量算出手段と、前記シフト量算出手
段により得た前記位置シフト量に対応した画像シフト処
理を行うことにより、前記複数の単眼画像を生成する立
体画像生成手段と、前記立体画像生成手段が生成した前
記複数の単眼画像を記録する記録手段とを有し、前記記
録手段は、当該被写体撮像に関する前記複数の単眼画像
を同一の記録媒体に記録するように構成されたものであ
ることを特徴とする。本発明の第2の立体電子スチルカ
メラは、上記第1の立体電子スチルカメラにおいて、撮
影トリガ手段と、前記撮影トリガ手段の操作に応動し
て、前記撮像手段による被写体撮像、前記距離分布情報
検出手段による前記被写体の距離分布情報の検出、シフ
ト量算出手段による位置シフト量の算出、前記立体画像
生成手段による前記複数の単眼画像の生成、および前記
記録手段による前記複数の単眼画像の記録を自動実行す
るシーケンス制御手段とを有したことを特徴とする。本
発明の第3の立体電子スチルカメラは、上記第1または
第2の立体電子スチルカメラにおいて、前記シフト量算
出手段は、前記被写体の各部分のディオプタスケールに
おける距離と生成する立体画像の画枠平面までのディオ
プタスケールにおける距離の差に比例するように、前記
撮像原画像の各部分に対する位置シフト量を算出するも
のであることを特徴とする。本発明の第4の立体電子ス
チルカメラは、上記第1乃至第3の立体電子スチルカメ
ラにおいて、前記立体画像生成手段は、前記画像シフト
処理を行なう際に生じる複数の部分画像の重複を検出す
る重複部検出手段と、前記重複が生じた複数 の部分画像
に関する被写体距離の遠近を比較する比較手段とを有し
てなり、当該重複部に関しては、前記比較手段の比較結
果がより近い方の部分画像を選択的に用いて前記画像生
成を行うように構成されていることを特徴とする。本発
明の第5の立体電子スチルカメラは、上記第1乃至第4
の立体電子スチルカメラにおいて、前記立体画像生成手
段は、前記画像シフト処理を行なう際に生じる対応画像
データが存在しない部分である隙間部を検出する隙間部
検出手段を有してなり、当該隙間部に関しては、予め定
められた所定色データを用いて前記画像生成を行うよう
に構成されていることを特徴とする。本発明の第6の立
体電子スチルカメラは、上記第1乃至第5の立体電子ス
チルカメラにおいて、前記立体画像は2眼式立体画像で
あり、前記立体画像生成手段が生成する前記複数の単眼
画像はLおよびRからなるステレオペア画像であること
を特徴とする。本発明の第7の立体電子スチルカメラ
は、上記第6の立体電子スチルカメラにおいて、前記撮
像原画像に対して施される前記画像シフト処理は、前記
LおよびR画像に関するシフト方向が左右逆であり、か
つシフト量が等しい対称シフト処理であることを特徴と
する。
According to a first aspect of the present invention , there is provided a three-dimensional electronic still camera comprising: an image sensor;
Imaging means having an imaging optical system for forming an image on a child;
Regarding the imaging of the body, the focusing state of the imaging optical system
Analyze the imaging signal when the state is changed, and
Each data representing the degree of focus of a plurality of partial areas set in the
Detecting distance distribution information of the subject based on data
Distance distribution information detecting means, based on the distance distribution information
Is a component of a stereoscopic image related to the subject imaging.
Necessary for generating multiple monocular images with parallax
The important position shift amount for each part of the captured original image
A shift amount calculating means for calculating the shift amount, and a shift amount calculating means for calculating the shift amount.
Image shift processing corresponding to the position shift amount obtained by the step.
The generation of the plurality of monocular images.
Before the body image generation means and the three-dimensional image generation means
Recording means for recording a plurality of monocular images.
Recording means, the plurality of monocular images related to the subject imaging;
Are recorded on the same recording medium.
It is characterized by that. Second stereo electron stilka of the present invention
Mela is captured by the first three-dimensional electronic still camera.
In response to the operation of the shadow trigger means and the photographing trigger means,
The object imaging by the imaging means, the distance distribution information
Detection of distance distribution information of the object by the detection means;
Calculation of the position shift amount by the shift amount calculation means, the stereoscopic image
Generating the plurality of monocular images by generating means, and
Automatically recording the plurality of monocular images by a recording unit.
And sequence control means. Book
A third stereoscopic electronic still camera according to the present invention is the above-described first or third stereoscopic still camera.
In the second stereoscopic electronic still camera, the shift amount calculation is performed.
The output means is a diopter scale for each part of the subject.
Distance and the stereo image to be generated
To be proportional to the difference in distance on the puta scale,
The position shift amount for each part of the captured original image is calculated.
It is characterized by the following. Fourth stereo electron switch of the present invention
The chill camera is composed of the first to third stereo electronic still cameras.
The stereoscopic image generating means,
Detects duplication of multiple partial images that occur during processing
Overlapping portion detecting means, and a plurality of partial images in which the overlapping has occurred.
Comparing means for comparing the distance of the subject distance with respect to
For the overlapping part, the comparison result of the comparing means is used.
By selectively using a partial image having a closer result.
The configuration is characterized in that it is configured to perform Departure
The fifth stereoscopic electronic still camera of the present invention comprises the first to fourth electronic still cameras.
The stereoscopic electronic still camera according to
The row indicates a corresponding image generated when performing the image shift processing.
A gap that detects gaps where no data exists
Detection means.
The image generation is performed using the predetermined color data obtained.
It is characterized by comprising. Sixth aspect of the present invention
The body electronic still camera includes the first to fifth stereo electronic cameras.
In a chill camera, the stereoscopic image is a binocular stereoscopic image.
The plurality of monoculars generated by the stereoscopic image generating means
The image is a stereo pair image consisting of L and R
It is characterized by. Seventh stereoscopic electronic still camera of the present invention
Is a photographer according to the sixth stereoscopic still camera.
The image shift process performed on the image original image includes the image shift process.
If the shift directions for the L and R images are reversed left and right,
Symmetric shift processing with the same shift amount.
I do.

【0009】[0009]

【0010】[0010]

【実施例】以下図示の実施例に基づいて本発明を説明す
る。図1は、本発明の立体電子スチルカメラの主要ブロ
ック構成図である。本カメラは、フォーカシングレンズ
のスキャニングにより被写体の各分割領域の最適合焦位
置情報を得て、その情報に基づいて立体再現位置シフト
を算出し、更に、そのシフト量によってステレオペアの
画像を生成するものであって、まず、フォーカシングレ
ンズ1が、処理回路7にコントロールされるモータ6に
よって繰り出される。その繰り出し範囲は無限遠位置
(パルスモータ等の駆動段数n=0)から至近位置(パ
ルスモータ等の駆動段数n=Nmax)までとする。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS The present invention will be described below with reference to the illustrated embodiments. FIG. 1 is a main block configuration diagram of the stereoscopic electronic still camera of the present invention. The camera obtains the optimum focus position information of each divided area of the subject by scanning the focusing lens, calculates a stereoscopic reproduction position shift based on the information, and further generates a stereo pair image based on the shift amount. First, the focusing lens 1 is extended by a motor 6 controlled by a processing circuit 7. The extension range is from an infinity position (the number of driving stages of a pulse motor or the like n = 0) to a close position (the number of driving stages of a pulse motor or the like n = Nmax).

【0011】フォーカシングレンズ1より入射した被写
体光はイメージャであるCCD2上で結像し撮像信号と
して前置回路3に出力される。この前置回路3におい
て、サンプルホールド、プロセス、増幅等の処理がなさ
れたあと、更に、A/D変換処理され、デジタル化映像
信号として画像メモリ4に一旦記憶される。そして、処
理回路7により上記画像データに基づいて被写体像の各
分割領域に対する最適合焦位置が検出され、処理回路内
のバッファメモリに記憶される。
The subject light incident from the focusing lens 1 forms an image on a CCD 2 serving as an imager, and is output to a front circuit 3 as an image pickup signal. In the pre-circuit 3, after processing such as sample hold, process, amplification, etc., it is further subjected to A / D conversion processing and temporarily stored in the image memory 4 as a digitized video signal. Then, based on the image data, the processing circuit 7 detects an optimum focus position for each divided area of the subject image, and stores it in a buffer memory in the processing circuit.

【0012】そして、上記合焦位置データに基づいて、
指定の撮影画像に対する左右の眼の視差の量を示すステ
レオペア画像用シフト量が演算される。更に、そのシフ
ト量に基づいて、各画素のメモリ上のアドレスを変更し
ステレオペア画像(図8参照)のデータが生成される。
このステレオペア画像データはD/A変換されて、磁気
記録装置5のフロッピィディスクに書き込まれる。
Then, based on the focus position data,
A stereo pair image shift amount indicating the amount of parallax between the left and right eyes with respect to the designated captured image is calculated. Further, based on the shift amount, the address of each pixel on the memory is changed, and data of a stereo pair image (see FIG. 8) is generated.
The stereo pair image data is D / A converted and written to a floppy disk of the magnetic recording device 5.

【0013】なお、この記録は、デジタル信号のまま、
固体メモリ記録装置のメモリカードに書き込むようにし
ても良い。また、上記ステレオペアの画像データは、1
つの映像に対してL画像データとR画像データがあり、
例えば、フロッピィディスクに記録する場合であれば、
フィールド記録データに対しては1トラック目にL画像
を、2トラック目にR画像をそれぞれ記録するとよい。
そして、フレーム記録データに対しては1、2トラック
目にL画像を、3、4トラック目にR画像をそれぞれ記
録するようにすれば良い。また、上記ステレオペア画像
のほかシフト量の移動がなされていない原画像(図7参
照)のデータも後続するトラック等に記録することも可
能である。この現画像は、例えば、レンズ1で撮影され
た画像であって、中央部にピントがあっているような1
枚の画像が相当する。
[0013] This record is a digital signal,
The data may be written to a memory card of a solid-state memory recording device. The image data of the stereo pair is 1
There are L image data and R image data for one video,
For example, when recording on a floppy disk,
It is preferable to record the L image on the first track and the R image on the second track for the field recording data.
Then, for the frame recording data, the L image may be recorded on the first and second tracks, and the R image may be recorded on the third and fourth tracks. In addition to the stereo pair image, data of the original image (see FIG. 7) in which the shift amount has not been moved can also be recorded on a subsequent track or the like. This current image is, for example, an image taken with the lens 1 and has a focus at the center.
One image corresponds.

【0014】次に、上記被写体像の分割領域を具体的に
説明する。図2はCCD2で取り込まれた画像G枠を示
し、それを格子状に細分化したものである。その1つの
領域を分割領域(エリアi,j)とする。この分割領域
は立体画像の分解能上は可能な限り細分化された方がよ
いが、あまり小さくすると被写体の僅かな動きによって
データが変動するなどの不具合が生じる。また、後述す
る合焦検出や処理速度またメモリ容量等にも影響を与え
るのでそれらの条件から適正な面積が定められる。な
お、図2に示されるように、分割領域のエリアi、エリ
アjは、それぞれ処理回路7の所定の順次のメモリアド
レスAi、Aj等に対応し、各合焦位置の段数データは
それらのアドレスに書き込まれる。
Next, the divided areas of the subject image will be specifically described. FIG. 2 shows an image G frame captured by the CCD 2, which is subdivided into a lattice. One of the areas is defined as a divided area (area i, j). It is preferable that the divided area is subdivided as much as possible in view of the resolution of the stereoscopic image. However, if the divided area is too small, a problem such as fluctuation of data due to slight movement of the subject occurs. In addition, since it affects the focus detection, processing speed, memory capacity, and the like, which will be described later, an appropriate area is determined from these conditions. As shown in FIG. 2, areas i and j of the divided area correspond to predetermined sequential memory addresses Ai and Aj of the processing circuit 7, respectively, and the number-of-stages data at each in-focus position corresponds to the address. Is written to.

【0015】上記各分割領域の最適合焦位置の検出は、
フォーカシングレンズ1の繰り出しに伴って得られる画
像メモリデータのうち、当該分割領域に対応するデータ
をデジタル高域バンドパスフィルタ通して高域成分であ
るコントラスト情報、即ち、コントラスト値を抽出す
る。そして、そのコントラスト値を参照して合焦位置で
あると判断される上記レンズ駆動段数を上記最適合焦位
置とする。図3はレンズ繰り出し駆動段数nに対するエ
リアi、jのコントラスト値の変化を示したものであ
る。本図に示されるようにエリアiに対しては駆動段数
p(i)で最適合焦状態(コントラスト値がピークを示
す)になることを示し、エリアjに対しては駆動段数p
(j)で最適合焦状態になることを示している。画枠G
のすべてのエリアに対して最適合焦駆動段数は検出さ
れ、後述するシフト量の演算に用いられる。
The detection of the optimum in-focus position of each of the divided areas is performed by:
Of the image memory data obtained with the extension of the focusing lens 1, data corresponding to the divided area is passed through a digital high-pass bandpass filter to extract contrast information as a high-frequency component, that is, a contrast value. Then, referring to the contrast value, the number of lens drive steps determined to be the in-focus position is set as the optimum in-focus position. FIG. 3 shows a change in the contrast value of the areas i and j with respect to the number n of lens drive steps. As shown in the figure, the optimum focusing state (contrast value shows a peak) is obtained with the number of driving steps p (i) for area i, and the number of driving steps p for area j.
(J) shows that an optimum focusing state is obtained. Picture frame G
The optimal number of focus drive stages is detected for all the areas (1) and (2) and is used for calculating the shift amount described later.

【0016】続いて、処理回路7により検出された上記
の分割領域である各エリアiの最適合焦駆動段数、即
ち、コントラスト値ピーク段数p(i)に基づいて左右
の眼による視差、即ち、ステレオペア画像を生成するた
めのシフト量を算出する必要がある。図4は、左右の眼
の位置と立体画像を生成しようとする画枠平面Fの位置
の関係を示した図であり、距離loは、眼と画枠平面F
の間隔を示している。
Subsequently, the parallax between the left and right eyes, that is, the parallax between the left and right eyes, based on the optimal focusing drive stage number of each area i which is the above-mentioned divided region detected by the processing circuit 7, ie, the contrast value peak stage number p (i). It is necessary to calculate a shift amount for generating a stereo pair image. FIG. 4 is a diagram illustrating the relationship between the positions of the left and right eyes and the position of the image frame plane F in which a stereoscopic image is to be generated.
Are shown.

【0017】上記駆動段数は、被写体距離のディオプタ
スケールによる表示と比例する関係を有している。従っ
て、エリアiの上記シフト量S(i)はコントラスト値
ピーク段数との1次式で示される。即ち、 s(i)=k{p(i)―Po} ……………………(1) となる。ここで、kは、立体感を与える係数であって、
人間の眼の機能によって定められ、k≧0とする。ま
た、Poは、上記距離loに対応するレンズ駆動段数を
示す。なお、AF(オートフォーカス)の検出精度も被
写体距離のディオプタに比例するのでシフト量が(1)
式で示めされることは都合がよい。また、上記(1)式
により、ステレオペア画面のL画像ではシフト量s
(i)だけ右側にシフトされ、R画像ではシフト量s
(i)だけ左側にシフトされる。但し、符号が―になっ
た場合は上記とは逆方向にシフトされる。また、式
(1)より解るように、画枠平面上にある被写体のシフ
ト量は0となる。
The number of driving steps has a relationship proportional to the display of the subject distance on a diopter scale. Therefore, the shift amount S (i) of the area i is expressed by a linear expression with the number of contrast value peak steps. That is, s (i) = k {p (i) -Po} (1) Here, k is a coefficient that gives a three-dimensional effect, and
It is determined by the function of the human eye, and k ≧ 0. Po indicates the number of lens drive stages corresponding to the distance lo. Since the detection accuracy of AF (autofocus) is also proportional to the diopter of the subject distance, the shift amount is (1)
It is convenient to be represented by a formula. Further, according to the above equation (1), the shift amount s in the L image of the stereo pair screen is obtained.
(I) is shifted to the right, and the shift amount s for the R image
Shifted to the left by (i). However, when the sign becomes-, the shift is performed in the opposite direction. Also, as can be seen from equation (1), the shift amount of the subject on the image frame plane is zero.

【0018】次に、本実施例のカメラの立体画像データ
生成処理動作につき図9のフローチャートに基づいて説
明する。まず、ステップS1においてフォーカシングレ
ンズ1を初期位置(駆動動作n=0)に戻す。続いて、
トリガスイッチのオン動作の待ち状態となる(ステップ
S2)。トリガスイッチオンによりモータ6を所定の段
数づつ駆動して、画像データの取り込みを開始する(ス
テップS3)。そして、段数nが至近距離の段数Nmax
になるまで続行する(ステップS4、5)。駆動段数が
Nmaxに到達した時点でステップS6に進む。なお、こ
のステップS1からステップS5までの処理が合焦デー
タ検出手段による処理である。
Next, the operation of the camera of this embodiment for generating stereoscopic image data will be described with reference to the flowchart of FIG. First, in step S1, the focusing lens 1 is returned to the initial position (driving operation n = 0). continue,
It is in a state of waiting for the ON operation of the trigger switch (step S2). When the trigger switch is turned on, the motor 6 is driven by a predetermined number of stages to start capturing image data (step S3). The number of steps n is the number of steps Nmax at the shortest distance.
(Steps S4 and S5). When the number of drive stages reaches Nmax, the process proceeds to step S6. Note that the processing from step S1 to step S5 is processing by the focus data detecting means.

【0019】ステップS6において、上記の画像データ
に基づいて各エリア毎の前記ピーク段数p(i)を算出
する(ステップS6)。なお、このステップが最適合焦
位置識別手段による処理である。
In step S6, the number of peaks p (i) for each area is calculated based on the image data (step S6). This step is a process performed by the optimum focus position identification unit.

【0020】続いて、上記各段数p(i)に基づいて、
ステレオペア画像のためのエリア毎のシフト量s(i)
を前記(1)式により算出する(ステップS7)。な
お、このステップがシフト量算出手段による処理とな
る。
Subsequently, based on the number of stages p (i),
Shift amount s (i) for each area for stereo pair images
Is calculated by the above equation (1) (step S7). This step is processing by the shift amount calculating means.

【0021】続いて、フォーカシングレンズ1により撮
影された1つの画像データに対して上記各シフト量s
(i)だけ撮影情報(色・明るさ等)を持つ各画素デー
タをシフトさせ、LおよびRのステレオペア画像データ
を生成する(ステップS8)。上記LおよびR画像にお
いて対称シフト位置となる。このステップの処理が記録
信号シフト手段の処理である。
Subsequently, each of the shift amounts s with respect to one image data photographed by the focusing lens 1
Each pixel data having shooting information (color / brightness, etc.) is shifted by (i) to generate stereo pair image data of L and R (step S8). This is a symmetric shift position in the L and R images. The processing of this step is the processing of the recording signal shift means.

【0022】そして、ステップS9において、後述する
重なり部の処理と穴埋め処理である補正処理のサブルー
チンがコールされる。この処理は元の撮影データに対し
て、LまたはR画像のシフト処理を施したために生じた
重なり部分や隙間の部分を修正する処理である。上記の
補正処理の後、L,Rのステレオペア画像データが記録
装置5に転送、記録されて本処理を終了する。図8は、
上記のデータ処理により生成されたL,Rのステレオペ
ア画像の一例を示す。図7はシフトする前のモノキュラ
画像を示している。図7の被写体のうち被写体Aは近距
離、Bは中距離、Cは遠距離とする。
Then, in step S9, a subroutine of an overlapping portion process and a correction process as a hole filling process, which will be described later, is called. This process is a process for correcting an overlapping portion or a gap portion caused by performing an L or R image shift process on original shooting data. After the above-described correction processing, the stereo pair image data of L and R is transferred to the recording device 5 and recorded, and this processing ends. FIG.
An example of an L, R stereo pair image generated by the above data processing is shown. FIG. 7 shows a monocular image before shifting. 7, the subject A is a short distance, the B is a medium distance, and the C is a long distance.

【0023】図10は、上記ステップS9でコールされ
る重なり部処理のサブルーチンを示す。この重なり部D
は、シフト処理の結果、例えば、図5に示されるよう
に、エリアi1とi2がLまたは、R画面上で重なって
しまった部分をいう。なお、このように重なり部分Dが
生じる主な原因としては、L,R画像は実際の撮影レン
ズ位置から左あるいは右にシフトした位置から見た像に
変換される像であって、仮想的に視線が反れて当該被写
体が陰になって見えなくなってしまう筈の部分(重なり
部D)が生じるためである。従って、この重なり部分を
補正するには、重なり部を近い方の被写体の画像データ
を用いて補正するとより違和感のない補正がなされる。
FIG. 10 shows a subroutine of the overlapping portion processing called in step S9. This overlapping part D
Indicates a portion where the areas i1 and i2 overlap on the L or R screen as a result of the shift processing, for example, as shown in FIG. The main cause of the occurrence of such an overlapped portion D is that the L and R images are images that are converted to an image viewed from a position shifted left or right from the actual photographing lens position, and are virtually assumed. This is because there is a portion (overlapping portion D) where the line of sight is warped and the subject is shaded and cannot be seen. Therefore, in order to correct the overlapped portion, if the overlapped portion is corrected using image data of an object closer to the overlapped portion, a correction with less discomfort is performed.

【0024】そこで、本サブルーチンにおいてはステッ
プS21でシフトされた画像データ上で重なり部がある
かどうかの判別が行われる。重なり部がなければ本サブ
ルーチンを抜ける。重なり部がある場合ステップS22
に進み、当該するエリアi1,i2のピーク段数p(i
1)、p(i2)の値の比較を行う。
Therefore, in this subroutine, it is determined whether or not there is an overlap on the image data shifted in step S21. If there is no overlap, the process exits this subroutine. When there is an overlapping portion, step S22
, And the number of peak stages p (i
1) and p (i2) are compared.

【0025】そして、段数p(i1)の方が段数p(i
2)より大ききかった場合、即ち、エリアi1の位置
が、より手前にあった場合はステップS23に進み、該
重なり部の画像データとしてエリアi1の画像データを
用いる。しかし、逆に、段数p(i2)の方が段数p
(i1)より大きかった場合、即ち、エリアi2の位置
が、手前であった場合はステップS24に進み、該重な
り部の画像データとしてエリアi2との画像データを用
いる。この処理を全画像データの重なり部に対して行
い、本サブルーチンからリターンする。
The number of stages p (i1) is greater than the number of stages p (i1).
2) If it is larger, that is, if the position of the area i1 is closer, the process proceeds to step S23, and the image data of the area i1 is used as the image data of the overlapping portion. However, conversely, the stage number p (i2) is
If it is larger than (i1), that is, if the position of the area i2 is closer to the front, the process proceeds to step S24, and the image data with the area i2 is used as the image data of the overlapping portion. This processing is performed for the overlapping portion of all the image data, and the process returns from this subroutine.

【0026】図11は、上記ステップS9でコールされ
る穴埋め部処理のサブルーチンを示す。この穴埋め処理
はシフト処理によって生じたエリア間の隙間を補正する
処理である。この隙間部Eは、シフト処理の結果、例え
ば、図6に示されるように、エリアi1とi2がLまた
はR画面上で離間してしまったために生じたものであ
る。なお、このように隙間部が生じる主な原因として
は、L,R画像は実際の撮影レンズ位置から左あるいは
右にシフトした位置から見た像に変換される像であっ
て、仮想的に被写体の僅か後ろに視線がまわり、レンズ
1からは見えない部分が隙間にとして生じるためであ
る。従って、この隙間部を補正するには、隙間部を遠い
方のエリアの被写体の画像データを用いて補正するとよ
り違和感のない補正がなされる。
FIG. 11 shows a subroutine of the filling process which is called in step S9. This filling process is a process for correcting the gap between the areas generated by the shift process. This gap E is generated as a result of the shift processing, for example, as shown in FIG. 6, the areas i1 and i2 are separated on the L or R screen. The main cause of such a gap is that the L and R images are images converted from an actual photographing lens position to a position shifted left or right from the actual photographing lens position. This is because the line of sight turns slightly behind, and a portion that cannot be seen from the lens 1 is generated as a gap. Therefore, in order to correct the gap, if the gap is corrected using the image data of the subject in the farther area, a correction that is less uncomfortable is performed.

【0027】そこで、本サブルーチンにおいてはステッ
プS31でシフトされた画像データ上で隙間部があるか
どうかの判別が行われる。隙間の部分がなければ本サブ
ルーチンを抜ける。隙間部がある場合ステップS32に
進み、当該するエリアi1,i2のピーク段数p(i
1)、p(i2)の値の比較を行う。
Therefore, in this subroutine, it is determined whether or not there is a gap on the image data shifted in step S31. If there is no gap, the process exits this subroutine. If there is a gap, the process proceeds to step S32, where the number of peak steps p (i
1) and p (i2) are compared.

【0028】そして、段数p(i1)の方が段数p(i
2)より大ききかった場合、即ち、エリアi1の位置
が、より手前にあった場合はステップS33に進み、該
隙間部の画像データとしてエリアi2の画像データとそ
の近傍の画像データとをぼかして用いる。しかし、逆
に、段数p(i2)の方が段数p(i1)より大ききか
った場合、即ち、エリアi2の位置が、より手前にあっ
た場合はステップS34に進み、該隙間部の画像データ
としてエリアi1の画像データとその近傍の画像データ
とをぼかして補正値として用いる。この処理を全画像デ
ータの隙間のある部分に対して行い本サブルーチンから
リターンする。なお、上記の補正は、エリアiのデータ
のみではなく、その前後の画像データを用いるか、ある
いは、グレー色で補正してもよい。
The number of stages p (i1) is greater than the number of stages p (i1).
2) If it is larger, that is, if the position of the area i1 is closer to the front, the process proceeds to step S33, and the image data of the area i2 and the image data in the vicinity thereof are blurred as the image data of the gap. Used. However, conversely, if the number of steps p (i2) is larger than the number of steps p (i1), that is, if the position of the area i2 is closer to the front, the process proceeds to step S34, and the image of the gap is obtained. As the data, the image data of the area i1 and the image data in the vicinity thereof are blurred and used as correction values. This processing is performed on a portion of all image data having a gap, and the process returns from this subroutine. It should be noted that the above-described correction may be performed not only using the data in the area i but also using the image data before and after the data or using a gray color.

【0029】ところで、上記サブルーチンにおけるステ
ップS22、32の判別処理において、ピーク段数p
(i1)、p(i2)の値が等しくなることはない。そ
の理由は、重なり、あるいは、隙間はエリアの被写体距
離の違いにより生ずるものであるからである。
By the way, in the discriminating process of steps S22 and S32 in the above subroutine, the number of peak stages p
The values of (i1) and p (i2) do not become equal. The reason is that the overlap or the gap is caused by the difference in the subject distance in the area.

【0030】また、上記メインルーチンのステップS
3、4においては各段数の画像データをすべて取り込む
必要があり、メモリ容量的に不利になる。この問題は、
本出願人が先に出願した特願平2ー269490号に示
される技術により解決することができる。即ち、必要な
情報のみを残して、残りのデータはクリアしてしまうよ
うにすればメモリを大幅に節約することができる。
Further, step S of the main routine is executed.
In 3, 4 it is necessary to take in all the image data of each stage, which is disadvantageous in terms of memory capacity. This problem,
The problem can be solved by the technique disclosed in Japanese Patent Application No. 2-269490 previously filed by the present applicant. That is, if only the necessary information is left and the remaining data is cleared, the memory can be largely saved.

【0031】また、コントラスト情報を取り込むための
レンズ駆動段数の数はメモリ容量、処理時間等によって
妥当な段数を設定する必要がある。また、上記の実施例
においてはステレオペア画像の画像データを生成するた
めの元の撮影画像として中央部にピントがあった1つの
画像データを用いたが、すべての駆動段数の撮影画像か
ら各エリアに対してピントの合ったエリアの画像データ
のみを抽出して、ステレオペア画像を生成するようにす
れば、焦点深度が無限に深いステレオペア画像が得られ
ることになる。
Further, it is necessary to set an appropriate number of lens driving steps for taking in contrast information depending on a memory capacity, a processing time, and the like. Further, in the above-described embodiment, one image data having a focus at the center is used as the original photographed image for generating the image data of the stereo pair image. If a stereo pair image is generated by extracting only image data of an area in focus with respect to, a stereo pair image having an infinitely deep depth of focus can be obtained.

【0032】[0032]

【発明の効果】上述のように本発明の立体電子スチルカ
メラは、フォーカシングレンズのスキャニングにより最
適合焦位置データを得て、そのデータに基づいて、立体
画像表示の画像を得るようにしたので、本発明のもの
は、従来の立体カメラのように2眼式の光学系を必要と
せず、従って、大型化することなく、また、超音波等に
よる広域の測距装置等も必要とせず、従来の1眼式電子
スチルカメラの光学系をそのまま利用することも可能で
あって、コンパクトであって、低価格であるなど顕著な
効果を有する。
As described above, the stereoscopic electronic still camera of the present invention obtains the optimum focus position data by scanning the focusing lens, and obtains an image of a stereoscopic image display based on the data. The device of the present invention does not require a binocular optical system unlike a conventional stereoscopic camera, and therefore does not require an increase in size and does not require a wide-range distance measuring device using ultrasonic waves or the like. It is also possible to use the optical system of the single-lens electronic still camera as it is, and it has remarkable effects such as compactness and low cost.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の一実施例を示す立体電子スチルカメラ
の主要ブロック構成図。
FIG. 1 is a main block configuration diagram of a three-dimensional electronic still camera showing one embodiment of the present invention.

【図2】上記図1の電子スチルカメラにおける取り込み
画像のエリア分割状態を示す図。
FIG. 2 is a diagram showing an area division state of a captured image in the electronic still camera of FIG. 1;

【図3】上記図2に示されるエリアのコントラスト値の
変化を示す図
FIG. 3 is a diagram showing a change in contrast value of the area shown in FIG. 2;

【図4】上記図1の電子スチルカメラにおける両眼と画
枠平面間の距離を示す図。
FIG. 4 is a view showing a distance between both eyes and an image frame plane in the electronic still camera of FIG. 1;

【図5】上記図1の電子スチルカメラにおける分割領域
エリアのシフト処理に伴ない重なり部が生じたときの
図。
FIG. 5 is a diagram when an overlapping portion occurs in the electronic still camera of FIG. 1 along with a shift process of a divided area area.

【図6】上記図1の電子スチルカメラにおける分割領域
エリアのシフト処理に伴ない隙間部が生じたときの図。
FIG. 6 is a diagram showing a case where a gap is generated in the electronic still camera shown in FIG. 1 due to a shift process of a divided area area.

【図7】上記図1の電子スチルカメラにおける直接レン
ズで撮影したコントラスト値ピーク時の画像。
FIG. 7 is an image at the time of a peak contrast value taken by a direct lens in the electronic still camera of FIG. 1;

【図8】上記図7の画像をシフト処理して得られたL,
Rのステレオペアの画像を示す。
FIG. 8 shows L, L obtained by shifting the image of FIG.
9 shows an image of an R stereo pair.

【図9】上記電子スチルカメラにおける立体画像処理の
フローチャート。
FIG. 9 is a flowchart of stereoscopic image processing in the electronic still camera.

【図10】上記図9に示される立体画像処理でコールさ
れる重なり部処理のフローチャート。
FIG. 10 is a flowchart of an overlapping part process called in the stereoscopic image processing shown in FIG. 9;

【図11】上記図9に示される立体画像処理でコールさ
れる穴埋め処理のフローチャート。
FIG. 11 is a flowchart of a filling process called in the stereoscopic image processing shown in FIG. 9;

【符号の説明】[Explanation of symbols]

1 ……………………フォーカシングレンズ ステップS1〜S5……………合焦データ検出手段によ
る処理 ステップS6……………………最適合焦位置識別手段に
よる処理 ステップS7……………………シフト量算出手段による
処理 ステップS8……………………記録信号シフト手段によ
ろ処理
1 Focusing lens Steps S1 to S5 Processing by the focus data detecting means Step S6 Processing by the optimum focus position identifying means Step S7 Processing by shift amount calculating means Step S8: Processing by recording signal shifting means

フロントページの続き (58)調査した分野(Int.Cl.7,DB名) H04N 13/00 - 15/00 H04N 5/222 - 5/257 Continuation of the front page (58) Field surveyed (Int. Cl. 7 , DB name) H04N 13/00-15/00 H04N 5/222-5/257

Claims (7)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 撮像素子および被写体像を前記撮像素子
に結像する撮像光学系を有する撮像手段と、 前記被写体の撮像に関して、前記撮像光学系のフォーカ
シング状態を変化させたときの撮像信号を解析し、当該
撮影領域内に設定された複数の部分領域の合焦度合を表
わす各データに基づいて、前記被写体の距離分布情報を
検出する距離分布情報検出手段と、 前記距離分布情報に基づいて、前記被写体撮像に関する
立体画像の構成要素である互いに視差を有した複数の単
眼画像を生成するために必要な、撮像原画像の各部分に
対する位置シフト量をそれぞれ算出するシフト量算出手
段と、 前記シフト量算出手段により得た前記位置シフト量に対
応した画像シフト処理を行うことにより、前記複数の単
眼画像を生成する立体画像生成手段と、 前記立体画像生成手段が生成した前記複数の単眼画像を
記録する記録手段とを有し、 前記記録手段は、当該被写体撮像に関する前記複数の単
眼画像を同一の記録媒体に記録するように構成されたも
のであることを特徴とする立体電子スチルカメラ。
An image sensor and a subject image formed by the image sensor;
Imaging means having an imaging optical system for forming an image on a subject, and focusing of the imaging optical system with respect to imaging of the subject.
The imaging signal when the singing state is changed is analyzed and the
Displays the degree of focus of multiple partial areas set in the shooting area.
Based on each data, the distance distribution information of the subject is obtained.
A distance distribution information detecting means for detecting the image of the subject based on the distance distribution information;
A plurality of units having parallax, which are components of a stereoscopic image,
Each part of the captured original image required to generate the eye image
Shift amount calculation means for calculating the position shift amount for each
And the position shift amount obtained by the shift amount calculating means.
By performing a corresponding image shift process, the plurality of
A three-dimensional image generation means for generating an eye image, the plurality of monocular images which the stereoscopic image generating means has generated
Recording means for recording, the recording means comprising:
The eye image is configured to be recorded on the same recording medium.
A stereoscopic electronic still camera characterized by the following.
【請求項2】 撮影トリガ手段と、前記撮影トリガ手段2. A photographing trigger means, and said photographing trigger means.
の操作に応動して、前記撮像手段による被写体撮像、前In response to the operation, the subject is imaged by the imaging means,
記距離分布情報検出手段による前記被写体の距離分布情Distance distribution information of the subject by the distance distribution information detecting means;
報の検出、シフト量算出手段による位置シフト量の算Report and calculation of position shift amount by shift amount calculation means
出、前記立体画像生成手段による前記複数の単眼画像のOutput of the plurality of monocular images by the stereoscopic image generating means.
生成、および前記記録手段による前記複数の単眼画像のGenerating the plurality of monocular images by the recording unit.
記録を自動実行するシーケンス制御手段とを有したことSequence control means for automatically executing recording
を特徴とする請求項1に記載の立体電子スチルカメラ。The stereoscopic electronic still camera according to claim 1, wherein:
【請求項3】 前記シフト量算出手段は、前記被写体の3. The method according to claim 2, wherein the shift amount calculating unit calculates the shift amount of the subject.
各部分のディオプタスケールにおける距離と生成する立The distance on the diopter scale of each part and the
体画像の画枠平面までのディオプタスケールにおける距Distance on the diopter scale to the frame plane of the body image
離の差に比例するように、前記撮像原画像の各部分に対Each part of the original image is compared with each other so as to be proportional to the difference in separation.
する位置シフト量を算出するものであることを特徴とすThe position shift amount to be calculated.
る請求項1または2に記載の立体電子スチルカメラ。The stereoscopic electronic still camera according to claim 1.
【請求項4】 前記立体画像生成手段は、前記画像シフ4. The image shifter according to claim 1, wherein
ト処理を行なう際に生Raw when performing じる複数の部分画像の重複を検出Detection of multiple partial images
する重複部検出手段と、前記重複が生じた複数の部分画Overlapping part detecting means, and a plurality of partial images in which the overlapping occurs.
像に関する被写体距離の遠近を比較する比較手段とを有Comparing means for comparing the distance between the subject and the image.
してなり、当該重複部に関しては、前記比較手段の比較The overlapping part is compared by the comparing means.
結果がより近い方の部分画像を選択的に用いて前記画像The image is obtained by selectively using a partial image having a closer result.
生成を行うように構成されていることを特徴とする請求Claims characterized in that it is configured to generate
項1乃至3に記載の立体電子スチルカメラ。Item 3. A stereoscopic electronic still camera according to items 1 to 3.
【請求項5】 前記立体画像生成手段は、前記画像シフ5. The image shifter according to claim 5, wherein
ト処理を行なう際に生じる対応画像データが存在しないThere is no corresponding image data generated when performing
部分である隙間部を検出する隙間部検出手段を有してなIt does not have gap detecting means for detecting a gap which is a portion.
り、当該隙間部に関しては、予め定められた所定色デーFor the gap, a predetermined color data
タを用いて前記画像生成を行うように構成されているこConfiguration to perform the image generation using
とを特徴とする請求項1乃至4に記載の立体電子スチルThe stereoelectronic still according to any one of claims 1 to 4, wherein
カメラ。camera.
【請求項6】 前記立体画像は2眼式立体画像であり、6. The stereoscopic image is a binocular stereoscopic image,
前記立体画像生成手段が生成する前記複数の単眼画像はThe plurality of monocular images generated by the stereoscopic image generating means are
LおよびRからなるステレオペア画像であることを特徴It is a stereo pair image composed of L and R
とする請求項1乃至5に記載の立体電子スチルカメラ。The three-dimensional electronic still camera according to claim 1.
【請求項7】 前記撮像原画像に対して施される前記画7. The image processing apparatus according to claim 7, wherein the image is performed on the captured original image.
像シフト処理は、前記LおよびR画像に関するシフト方The image shift processing is a method of shifting the L and R images.
向が左右逆であり、かつシフト量が等しい対称シフト処Symmetric shift processing in which the directions are opposite left and right and the shift amount is equal
理であることを特徴とする請求項6に記載の立体電子ス7. The three-dimensional electronic device according to claim 6, wherein
チルカメラ。Chill camera.
JP03005929A 1991-01-22 1991-01-22 3D electronic still camera Expired - Lifetime JP3112485B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP03005929A JP3112485B2 (en) 1991-01-22 1991-01-22 3D electronic still camera

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP03005929A JP3112485B2 (en) 1991-01-22 1991-01-22 3D electronic still camera

Publications (2)

Publication Number Publication Date
JPH057373A JPH057373A (en) 1993-01-14
JP3112485B2 true JP3112485B2 (en) 2000-11-27

Family

ID=11624585

Family Applications (1)

Application Number Title Priority Date Filing Date
JP03005929A Expired - Lifetime JP3112485B2 (en) 1991-01-22 1991-01-22 3D electronic still camera

Country Status (1)

Country Link
JP (1) JP3112485B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8993319B2 (en) 2004-12-28 2015-03-31 Innate Pharma S.A. Monoclonal antibodies against NKG2A

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
NZ505800A (en) 1998-02-20 2002-09-27 Deep Video Imaging Ltd A multi-layer display and a method for extracting depth from 2D video data
US6275335B1 (en) 1999-07-16 2001-08-14 Sl3D, Inc. Single-lens 3D method, microscope, and video adapter
AU1792101A (en) * 1999-11-22 2001-06-04 Sl3D, Inc. Stereoscopic telescope with camera
NZ514500A (en) 2001-10-11 2004-06-25 Deep Video Imaging Ltd A multiplane visual display unit with a transparent emissive layer disposed between two display planes
JP2003244500A (en) * 2002-02-13 2003-08-29 Pentax Corp Stereo image pickup device
JP2004040445A (en) 2002-07-03 2004-02-05 Sharp Corp Portable equipment having 3d display function and 3d transformation program
JP4093832B2 (en) * 2002-09-24 2008-06-04 シャープ株式会社 Portable device
US8970680B2 (en) 2006-08-01 2015-03-03 Qualcomm Incorporated Real-time capturing and generating stereo images and videos with a monoscopic low power mobile device
US8077964B2 (en) * 2007-03-19 2011-12-13 Sony Corporation Two dimensional/three dimensional digital information acquisition and display device
JP5540942B2 (en) 2010-06-29 2014-07-02 富士通セミコンダクター株式会社 Processing equipment
JP5558951B2 (en) * 2010-07-21 2014-07-23 シャープ株式会社 3D imaging apparatus and electronic information device
JP2012028915A (en) * 2010-07-21 2012-02-09 Kantatsu Co Ltd Imaging device
JP2013214787A (en) * 2010-07-28 2013-10-17 Panasonic Corp Video signal processing apparatus and video signal processing method
JP5559012B2 (en) * 2010-11-12 2014-07-23 キヤノン株式会社 Image processing apparatus and control method thereof
KR20140030138A (en) * 2011-01-23 2014-03-11 익스트림 리얼리티 엘티디. Methods, systems, devices, and associated processing logic for generating stereoscopic images and video
JP5385354B2 (en) * 2011-10-21 2014-01-08 富士フイルム株式会社 Three-dimensional display device, method and program
CN104205825B (en) * 2012-03-28 2016-08-17 富士胶片株式会社 Image processing apparatus and method and camera head
JP5965726B2 (en) 2012-05-24 2016-08-10 オリンパス株式会社 Stereoscopic endoscope device
JP2015012442A (en) * 2013-06-28 2015-01-19 ソニー株式会社 Imaging apparatus, imaging method, image generation apparatus, image generation method, and program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8993319B2 (en) 2004-12-28 2015-03-31 Innate Pharma S.A. Monoclonal antibodies against NKG2A
US10160810B2 (en) 2004-12-28 2018-12-25 Innate Pharma, S.A. Monoclonal antibodies against NKG2A

Also Published As

Publication number Publication date
JPH057373A (en) 1993-01-14

Similar Documents

Publication Publication Date Title
JP3112485B2 (en) 3D electronic still camera
CN102611846B (en) Imaging Apparatus
JP5066851B2 (en) Imaging device
JP5127787B2 (en) Compound eye photographing apparatus and control method thereof
JP5814692B2 (en) Imaging apparatus, control method therefor, and program
JPH09181913A (en) Camera system
US20110228053A1 (en) Stereoscopic imaging apparatus
CN102668537A (en) Multocular image pickup apparatus and multocular image pickup method
JP2011199526A (en) Object tracking device, and method of controlling operation of the same
JP2012133194A (en) Imaging apparatus
JP2012142952A (en) Imaging apparatus
JP4354096B2 (en) Imaging device
JP2021027523A (en) Depth information generation device, imaging apparatus, depth information generation method, image processing device, image processing method, and program
JP2010114577A (en) Imaging apparatus, image processor, control method and image processing method of imaging apparatus
JP3939127B2 (en) Imaging device
US6697573B1 (en) Hybrid stereoscopic motion picture camera with film and digital sensor
JP3154305B2 (en) Stereoscopic image observation method and apparatus
JP2005070077A (en) Digital camera
JP2000102035A (en) Stereoscopic photograph system
JP4759789B2 (en) Image processing system
JP3725606B2 (en) Imaging device
JP2015080167A (en) Imaging device, control method thereof, and control program
JP2012103285A (en) Focus detecting device and method for controlling the same
US20220358667A1 (en) Image processing apparatus and method, and image capturing apparatus and control method thereof, and storage medium
JP2859469B2 (en) Electronic still camera system capable of displaying dimensions

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20000905

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080922

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080922

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090922

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090922

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100922

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110922

Year of fee payment: 11