JP2002176659A - Solid body observing device and method - Google Patents

Solid body observing device and method

Info

Publication number
JP2002176659A
JP2002176659A JP2000371887A JP2000371887A JP2002176659A JP 2002176659 A JP2002176659 A JP 2002176659A JP 2000371887 A JP2000371887 A JP 2000371887A JP 2000371887 A JP2000371887 A JP 2000371887A JP 2002176659 A JP2002176659 A JP 2002176659A
Authority
JP
Japan
Prior art keywords
observation
image
dimensional
stereoscopic
digital
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2000371887A
Other languages
Japanese (ja)
Inventor
Kenji Kobiyama
賢二 小檜山
Tatsuya Saito
達也 斉藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to JP2000371887A priority Critical patent/JP2002176659A/en
Publication of JP2002176659A publication Critical patent/JP2002176659A/en
Withdrawn legal-status Critical Current

Links

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)
  • Stereoscopic And Panoramic Photography (AREA)
  • Television Signal Processing For Recording (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a solid body observing device that can easily extract three-dimensional information with high definition from two-dimensional digital images which are objects of observation, so as to observe an area desirably observed from the observation objects as a stereoscopic image of high definition. SOLUTION: The solid body observing device has an image acquisition means that acquires digital images of the observation objects, an emission means that emits a light to a limited area, including a focal point of the observation objects, a moving means that relatively moves the observation objects to the image acquisition means and a stereoscopic image display means that extracts three-dimensional information from the digital images obtained, accompanied by the movement of the observation objects that is obtained accompanied with the objects of observation for displaying a stereoscopic image.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、市販のデジタルカ
メラやデジタル顕微鏡などの画像取得機器を通じて取得
された観察対象物のデジタル画像イメージにより立体構
造を表示する立体観察装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a three-dimensional observation apparatus for displaying a three-dimensional structure by a digital image image of an observation object obtained through an image acquisition device such as a commercially available digital camera or digital microscope.

【0002】[0002]

【従来の技術】デジタルカメラやデジタル顕微鏡におい
ては、立体的な構造を観察する場合、被写界深度により
観察対象物のほとんどの部分がぼやけてしまうことがあ
る。この場合には、観察対象物そのものを回転・移動さ
せ、再度焦点を合わせることにより、観察したい立体構
造を明らかにする作業を行わなければならない。
2. Description of the Related Art In a digital camera or a digital microscope, when observing a three-dimensional structure, most of the object to be observed may be blurred due to the depth of field. In this case, it is necessary to rotate and move the observation object itself and focus again, thereby performing an operation of clarifying a three-dimensional structure to be observed.

【0003】ところが、従来の技術において、顕微鏡な
どにおいては、被写界深度が極めて浅いため、観察対象
物の像がボケた部分がほとんどとなってしまい、観察対
象物に存在する3次元構造や表面の色構造を観察対象物
の全体に渡って観察することができない。そのため、従
来においては、まず、観察対象物全体について焦点のあ
った画像を得る技術への要求が存在した。
However, in the prior art, in a microscope or the like, since the depth of field is extremely shallow, an image of the object to be observed is mostly blurred, and a three-dimensional structure or the like existing in the object to be observed is distorted. The color structure of the surface cannot be observed over the entire observation object. Therefore, conventionally, first, there has been a demand for a technique for obtaining a focused image of the entire observation target.

【0004】さらに、小型の昆虫や機械部品等の細かく
入り組んだ観察対象物を、顕微鏡などを用いて観察する
場合、得られる2次元画像からその立体構造を観察する
ことは困難であった。
[0004] Further, when observing an intricate observation object such as a small insect or a mechanical part using a microscope or the like, it is difficult to observe the three-dimensional structure from the obtained two-dimensional image.

【0005】このような観察対象物の2次元画像から立
体的な画像を得る技術については、たとえば、論文、S
hree K.Nayar「Shape from focus system
」(Proc.of CVPR,pp.302-308,1992)に開示されて
いるように、観察対象物の合焦点部分を抽出することに
よって、顕微鏡等のレンズからの相対的位置を得るとい
った方法が存在する。この方法では観察対象物の合焦点
部分を抽出手段として、その2次元デジタル画像に複雑
なアルゴリズムを用いたコンピュータ処理をほどこして
合焦点のピクセルを求めようとしていた。
A technique for obtaining a three-dimensional image from a two-dimensional image of an observation target is described in, for example,
hree K. Nayar `` Shape from focus system
(Proc. Of CVPR, pp. 302-308, 1992), a method of obtaining a relative position from a lens of a microscope or the like by extracting a focused portion of an observation target is known. Exists. In this method, a focused point portion of the observation object is used as extraction means, and a two-dimensional digital image is subjected to computer processing using a complicated algorithm to obtain a focused pixel.

【0006】[0006]

【発明が解決しようとする課題】しかしながら、この方
法では合焦点の周囲の明るい部分から光が干渉等によっ
て合焦点部分に入り込み、その領域がボケるため、合焦
点部分へノイズとして影響してしまう。そのため、取得
された2次元画像より合焦点部分を鮮明な形で抽出する
ことは極めて難しかったのである。さらに、3次元化の
プロセス自体、合焦点部分抽出の精度に依存するため、
正確な3次元画像を生成することは困難であった。
However, in this method, light enters the focal point portion due to interference or the like from a bright portion around the focal point, and the region is blurred, thereby affecting the focal point portion as noise. . Therefore, it was extremely difficult to extract a focused portion from the acquired two-dimensional image in a clear form. Furthermore, since the three-dimensional process itself depends on the accuracy of the focal point extraction,
It has been difficult to generate an accurate three-dimensional image.

【0007】本発明は、上述の従来の技術の問題を鑑み
てなされたものであって、デジタルカメラやデジタル顕
微鏡によって取得される観察対象物の2次元デジタル画
像より、3次元情報を抽出し、観察対象物の観察したい
領域を、高精な立体画像として観察することを可能と
する立体観察装置を提供することを目的とする。
SUMMARY OF THE INVENTION The present invention has been made in view of the above-mentioned problems of the related art, and extracts three-dimensional information from a two-dimensional digital image of an observation object obtained by a digital camera or a digital microscope. the observed want area of the observation object, and an object thereof is to provide a three-dimensional observation apparatus capable of observing a high precision fine stereoscopic image.

【0008】[0008]

【課題を解決するための手段】請求項1の発明は、観察
対象物のデジタル画像を取得する画像取得手段と、観察
対象物の合焦点を含む限定された領域を照射する照明手
段と、観察対象物を前記画像取得手段に対して相対的に
移動する移動手段と、前記観察対象物の移動にともなっ
て得られた複数枚のデジタル画像から3次元情報を抽出
する3次元情報生成手段と、得られた3次元情報から立
体画像を表示する立体画像表示手段とを有する立体観察
装置である。これにより、合焦点を含む限定された領域
を照射するので、外乱光が合焦点部分に入り込んで、合
焦点部分がボケる事が無い。請求項2の発明は、請求項
1において前記3次元情報生成手段は、該デジタル画像
の各ピクセルについて、複数枚のデジタル画像のうちも
っとも焦点の合っているピクセルの属する画像を検出す
る合焦ピクセル検出手段と、前記最も焦点の合っている
ピクセルの属する画像の前記撮像手段からの距離にもと
づいて、該各ピクセルの深さ情報を検出する深さ情報検
出手段と、該各ピクセスの深さ情報を基に、前記観察対
象物の3次元画像データを生成する3次元画像データ生
成手段からなる立体観察装置である。これにより、合焦
点を含む限定された領域を照射するので、最も焦点の合
っているピクセルを容易に検出することができ、そのピ
クセルの深さ情報を正確かつ高速に取得することができ
る。
According to the first aspect of the present invention, there is provided an image acquisition unit for acquiring a digital image of an observation object, an illumination unit for irradiating a limited area including a focal point of the observation object, and an observation unit. Moving means for moving an object relative to the image acquisition means, three-dimensional information generating means for extracting three-dimensional information from a plurality of digital images obtained with the movement of the observation object, A stereoscopic image display device for displaying a stereoscopic image from the obtained three-dimensional information. Thus, a limited area including the focal point is irradiated, so that disturbance light does not enter the focal point portion and the focal point portion is not blurred. According to a second aspect of the present invention, in the first aspect, the three-dimensional information generating unit detects, for each pixel of the digital image, an image to which an in-focus pixel among a plurality of digital images belongs. Detecting means; depth information detecting means for detecting depth information of each pixel based on a distance of the image to which the most focused pixel belongs from the imaging means; and depth information of each pixel. And a three-dimensional image data generating means for generating three-dimensional image data of the observation object based on the three-dimensional image data. Thereby, since a limited area including the focal point is illuminated, the most in-focus pixel can be easily detected, and the depth information of the pixel can be obtained accurately and at high speed.

【0009】請求項3の発明は請求項2において、前記
合焦ピクセル検出手段は実質的に照射された領域に対す
る限定された複数のデジタル画像の内でもっとも輝度の
大なるピクセルの属する画像を検出することを特徴で請
求項3からなる合焦ピクセル検出手段は実質的に照射さ
れた領域に対する限定された複数のデジタル画像の内で
もっとも輝度の大なるピクセルの属する画像を検出する
ことを特徴とする請求項1記載の立体観察装置である。
これにより合焦したピクセルを含む画像を容易且つ高速
に検出できる。
According to a third aspect of the present invention, in the second aspect, the in-focus pixel detecting means detects an image to which a pixel having the highest luminance belongs from a plurality of digital images substantially limited to an illuminated area. The focused pixel detecting means according to claim 3 detects an image to which a pixel having the highest luminance belongs from among a plurality of limited digital images corresponding to a substantially illuminated area. The stereoscopic observation apparatus according to claim 1.
This makes it possible to easily and quickly detect an image including focused pixels.

【0010】請求項4の発明は請求項1において前記照
明手段は観察対象物より小さな幅の光を照射することを
特徴とする観察対象物のデジタル画像を取得する立体観
察装置である。これにより、従来のように観察対象物全
体を照射することにより合焦点部分に外乱光がまわり込
むことを避けることができる。
According to a fourth aspect of the present invention, there is provided the stereoscopic observation apparatus for acquiring a digital image of the observation object, wherein the illumination means irradiates light having a width smaller than that of the observation object. Thus, it is possible to prevent the disturbance light from circling around the focal point by irradiating the entire observation target as in the related art.

【0011】請求項8の発明は、請求項1において観察
対象物の背景部に対して拡散光を照射する拡散光源を有
する請求項1記載の観察対象物のデジタル画像を取得す
る立体観察装置である。これにより背景と観察対象物の
識別が容易になる。
The invention according to claim 8 is the stereoscopic observation apparatus for acquiring a digital image of an observation object according to claim 1, further comprising a diffusion light source for irradiating the background portion of the observation object with diffusion light. is there. This makes it easy to distinguish between the background and the observation target.

【0012】請求項10の発明は、請求項1において観
察対象物の前記デジタル画像取得手段からみた裏面につ
いても表面と同様に3次元画像データを作成する手段
と、前記対象物の表面と裏面との画像データの対応をつ
ける対応付け手段とからなる請求項2記載の立体観察装
置である。これにより、立体画を全体として合成できる
ので立体画を回転させて観察することができる。
According to a tenth aspect of the present invention, in the first aspect, a means for creating three-dimensional image data on the back side of the observation object as viewed from the digital image acquisition means in the same manner as the front side, 3. The stereoscopic observation apparatus according to claim 2, further comprising an associating means for associating the image data. Thus, the three-dimensional image can be synthesized as a whole, so that the three-dimensional image can be rotated and observed.

【0013】[0013]

【発明の実施の形態】以下図面を参照して本発明の一実
施例を説明する。図1に示すように本発明の立体観察装
置の1実施例は例えば、数mm〜数cmの小形の観察対
象物1を撮像する、例えばデジタルカメラからなる撮像
手段2と、この観察対象物1にこれより小さい、例えば
5mmの所定幅に対するスリット光を観察対象物1の両
方向から照射する1対のスリット光源3と、観察対象物
1のスリット光が照射している領域を撮像手段2の合焦
点領域に保持するとともに、例えば下方から上方へ所定
距離、例えば0.1mmずつ移動する移動手段4とを有
する。さらに、撮像手段2で得られた観察対象物1のデ
ジタル画像を構成する各ピクセルについて合焦点を見つ
け、合焦したピクセルの撮像手段2からの距離を求めて
深さ情報を得る。これから3次元情報を抽出し、この3
次元情報に基づいて立体画を表示する画像処理コンピュ
ータ5とを設ける。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS One embodiment of the present invention will be described below with reference to the drawings. As shown in FIG. 1, one embodiment of the stereoscopic observation apparatus of the present invention is an imaging unit 2 composed of, for example, a digital camera for imaging a small observation object 1 of several mm to several cm, and this observation object 1 A pair of slit light sources 3 for irradiating slit light having a predetermined width smaller than this, for example, 5 mm from both directions of the observation target 1, and an area of the observation target 1 illuminated by the slit light with the imaging means 2. It has a moving means 4 which is held in the focus area and moves a predetermined distance, for example, 0.1 mm from below to above. Further, a focal point is found for each pixel constituting the digital image of the observation target 1 obtained by the imaging unit 2, and the depth information is obtained by obtaining the distance of the focused pixel from the imaging unit 2. From this, three-dimensional information is extracted.
An image processing computer for displaying a three-dimensional image based on the dimensional information;

【0014】図1の実施例の動作を図2および図3を参
照して説明する。図2の初期化ステップS1において、
スリット光源3が観察対象物1の上部末端を照らすよう
に、移動手段4を用いて観察対象物1を移動させる。そ
して撮像手段2の合焦手段を用いてスリット光源3が照
明する観察対象物1の部位へ焦点を合わせる。
The operation of the embodiment shown in FIG. 1 will be described with reference to FIGS. In the initialization step S1 of FIG.
The observation object 1 is moved using the moving means 4 so that the slit light source 3 illuminates the upper end of the observation object 1. Then, focusing is performed on a portion of the observation target 1 illuminated by the slit light source 3 using the focusing unit of the imaging unit 2.

【0015】次に画像取得ステップS2において、撮像
手段2を用いて、第1枚目のデジタル画像イメージを取
得する。さらに、画像保存ステップS3で取得されたデ
ジタル画像イメージをデータ記憶手段を用いて、保持す
る。
Next, in an image acquiring step S2, the first digital image is acquired by using the image pickup means 2. Further, the digital image obtained in the image storing step S3 is stored using the data storage unit.

【0016】次に移動制御ステップS4において、移動
手段4を用いて、観察対象物1を立体化する際に必要と
する深度最小単位分に相当する量たとえば0.1mmだ
け観察対象物1を上方へ移動させる。次に再び画像取得
ステップS2において、撮像手段2により、第2枚目の
デジタル画像イメージを取得する。そして観察対象物1
の全ての部位を撮像するまでステップS2,S3,S4
を繰り返す。
Next, in the movement control step S4, the moving object 4 is used to raise the observation object 1 by an amount corresponding to the minimum depth unit required when the observation object 1 is made three-dimensional, for example, 0.1 mm. Move to Next, in the image acquisition step S2 again, the second digital image is acquired by the imaging unit 2. And observation object 1
Steps S2, S3, and S4 until all the parts are imaged.
repeat.

【0017】上記の繰り返しの処理により、それぞれ順
番に観察対象物1の上部から下部までの全ての部分がス
リット光源3からのスリット光により部分的に照明され
た複数のデジタル画像が例えば100枚取得される。
By the above-described repetitive processing, for example, a plurality of digital images are obtained, in which, for example, 100 pieces of digital images in which all the parts from the upper part to the lower part of the observation object 1 are partially illuminated by the slit light from the slit light source 3 Is done.

【0018】次に3次元抽出ステップS5で、複数の画
像イメージより3次元情報を抽出する。撮影された例え
ば100枚のデジタル画像のうちの一つのピクセルに関
する輝度の変化を図3の実線で示す。この図3には従来
方式による輝度の変化の一例も同時に点線で示してあ
る。横軸は撮影の順番であり、これが深さ方向の長さに
対応する(例えば0.1ミリずつ移動するとすると、1
0枚目は1ミリの深さになる)。本発明では、図3の実
施例に示すように合焦点を含む限定された合焦領域のみ
を照射する照明装置を備えているため、合焦点位置検索
に有用なデータは、上記限定された領域に対応する枚数
のデータ(例えば10枚)のみである。これに対して、
従来の方法では図3の点線で示すように撮影した全ての
領域で高い輝度の情報が存在するので、例えば100枚
すべてが合焦点位置検索のためのデータとなる。このた
め、本発明では従来方式に比べ、合焦点位置検索に要す
る計算時間の大幅な削減と周囲ピクセルからの干渉の除
去が可能となったのである。
Next, in a three-dimensional extraction step S5, three-dimensional information is extracted from a plurality of images. The solid line in FIG. 3 shows a change in luminance for one pixel of, for example, 100 captured digital images. In FIG. 3, an example of a change in luminance according to the conventional method is also indicated by a dotted line. The horizontal axis indicates the order of photographing, which corresponds to the length in the depth direction (for example, if it moves by 0.1 mm, 1
The 0th sheet is 1 mm deep). In the present invention, as shown in the embodiment of FIG. 3, the illumination device that irradiates only the limited in-focus area including the in-focus point is provided. Is only the data of the number of sheets corresponding to (for example, 10 sheets). On the contrary,
In the conventional method, as shown by the dotted line in FIG. 3, since there is high-brightness information in all of the photographed regions, for example, all 100 images become data for focus position search. Therefore, in the present invention, it is possible to greatly reduce the calculation time required for searching for the focal point position and remove interference from surrounding pixels as compared with the conventional method.

【0019】本発明の合焦点位置検索は、上記照明装置
に照射された限定された領域(例えば10枚)につい
て、例えばもっとも輝度の高いものを抽出するアルゴリ
ズムにより実施する。この検索をデジタルカメラのすべ
てのピクセルにおいて実施する。その結果、デジタルカ
メラのすべてのピクセルにおいて、最適合焦点位置にお
ける輝度情報・色情報及び合焦点位置より導き出される
深さ情報を得ることが出来る。従来は図3の点線に示す
ようにある1つのピクセルにおいて輝度が高いところ
(すなわち山部分)が合焦点となるとは限らないので、
100枚の画像の中から合焦点をみつけるアルゴリズム
も複雑であった。さらに、合焦点以外の観察対象物の全
領域からの外乱光が合焦部分に入射するので合焦点を正
確に見つけることもできなかった。
The search for the focal point according to the present invention is carried out by an algorithm for extracting, for example, the one with the highest luminance from a limited area (for example, 10) illuminated by the illumination device. This search is performed on every pixel of the digital camera. As a result, in all the pixels of the digital camera, it is possible to obtain the luminance information / color information at the optimum focus position and the depth information derived from the focus position. Conventionally, as shown by the dotted line in FIG. 3, in one pixel, the place where the luminance is high (that is, the mountain part) is not always the focal point,
The algorithm for finding the focal point from among 100 images was also complicated. Furthermore, since the disturbance light from the whole area of the observation object other than the focal point is incident on the focal point, the focal point cannot be found accurately.

【0020】次にステップS6で、ステップS5で得ら
れた3次元情報(合焦点位置における色情報、および、
深さ情報)より、3次元空間上にボクセル形成すること
により立体画像を取得表示する。この立体画像はモニタ
によって観察される。
Next, in step S6, the three-dimensional information obtained in step S5 (color information at the in-focus position, and
From the depth information), a three-dimensional image is acquired and displayed by forming voxels in a three-dimensional space. This stereoscopic image is observed by a monitor.

【0021】その様子を図4により説明する。ステップ
S5で得られた最適合焦点位置における輝度情報・色情
報及び合焦点位置より導き出される深さなどのデータ
を、深さ情報をパラメータに並べ替えてみよう。ピクセ
ルグループL1は、深さL1のピクセルの集合であり、
ピクセルグループL2は、深さL2のピクセルの集合で
ある。図4に示すようにピクセルグループL1により、
立体ボクセルV1が生成される。さらに、ピクセルグルー
プL2により立体ボクセルV2が生成される。このよう
にして、取得された全ての画像イメージより、立体ボク
セルを作り出す。立体ボクセルV2は立体ボクセルV1
よりも観察対象物1の1回の移動距離たとえば0.1m
mだけ、離れたデジタル画像から深度が0.1mmだけ
大きくなる値を有する。したがって、ボクセルV1,V
2・・・を合成することにより、立体情報として合成済
立体データV0を得ることが出来る。
This will be described with reference to FIG. Let us rearrange the brightness information and color information at the optimum focus position obtained in step S5 and data such as the depth derived from the focus position into depth information as parameters. The pixel group L1 is a set of pixels having a depth L1.
The pixel group L2 is a set of pixels having a depth L2. As shown in FIG. 4, by the pixel group L1,
A three-dimensional voxel V1 is generated. Further, a three-dimensional voxel V2 is generated by the pixel group L2. In this way, a three-dimensional voxel is created from all the acquired images. 3D voxel V2 is 3D voxel V1
Movement distance of the observation object 1 at one time, for example, 0.1 m
It has a value that increases the depth by 0.1 mm from a digital image distant by m. Therefore, voxels V1, V
.. Can be obtained as synthesized stereoscopic data.

【0022】図4では観察対象物1が円錐台形のものを
用いてるが観察対象物1が複雑な形状のときは、取得画
像イメージL1において全てのピクセルの輝度が最大と
なるわけではないので、立体ボクセルV1のうち、ピク
セルの輝度が最大となっていないピクセルに対応したボ
クセルは欠けることになる。これによって、撮像手段2
からの焦点深さに対応した3次元情報を生成できる。
In FIG. 4, the observation object 1 has a truncated cone shape. However, when the observation object 1 has a complicated shape, the brightness of all the pixels in the acquired image L1 does not become the maximum. In the three-dimensional voxel V1, voxels corresponding to pixels whose pixel luminance is not maximum are missing. Thereby, the imaging means 2
3D information corresponding to the focal depth from the object can be generated.

【0023】図5は観察対象物1のデジタル画像のうち
対象ピクセルP1とこれに対応したボクセルとの関係を
拡大して示したものである。観察対象物1が0.1mm
づつ移動するときには、対象ボクセルの高さは0.1m
mとなる。
FIG. 5 is an enlarged view showing the relationship between the target pixel P1 and the corresponding voxel in the digital image of the observation object 1. Observation target 1 is 0.1 mm
When moving one by one, the height of the target voxel is 0.1 m
m.

【0024】図6は本発明の他の実施例を示し、デジタ
ルカメラの処理に顕微鏡7を設けたものである。図1の
実施例と同様に動作する。図7は本発明の他の実施例を
示し、観察対象物1の撮像手段2と反対側に反射板8を
設けたものである。さらに、この反射板8に拡散光源9
から拡散光を照射する。これにより観察対象物の背景を
観察対象物と異ならせることにより観察対象物を容易に
識別できる。
FIG. 6 shows another embodiment of the present invention, in which a microscope 7 is provided for processing a digital camera. The operation is similar to that of the embodiment of FIG. FIG. 7 shows another embodiment of the present invention, in which a reflection plate 8 is provided on the observation object 1 on the side opposite to the imaging means 2. Further, a diffuse light source 9 is
Irradiates with diffused light. Thus, the observation target can be easily identified by making the background of the observation target different from the observation target.

【0025】図8は本発明の他の実施例を示す。第1図
に示した実施例に対して、対象物回転ステップS7にお
いて、観察対象物1を回転させ、その裏面についても撮
像することを追加したものである。表裏両面の対応する
部分を対応付けするためにステップS8で3次元画像処
理をすることにより観察対象物1の全体的な画像を生成
することができる。これにより観察対象物1を裏返して
観察することもできる。
FIG. 8 shows another embodiment of the present invention. The embodiment shown in FIG. 1 is different from the embodiment shown in FIG. 1 in that the observation object 1 is rotated in the object rotation step S7 and the back surface thereof is also imaged. By performing three-dimensional image processing in step S8 in order to associate corresponding portions on the front and back surfaces, an overall image of the observation target 1 can be generated. Thus, the observation target 1 can be turned over and observed.

【0026】図9は図8の実施例の回転部分を拡大して
示す。移動手段4の先端にモータを設け回転軸を回転さ
せて観察対象物1を回転させる。さらに、観察対象物1
を第1の実施例に示すように両方向から照射するだけで
はなく、90°、180°等の所定方向からスリット光
源3で照射することによって観察対象物1を複数の方向
から撮像にすることにより正確な立体像を生成できる。
FIG. 9 is an enlarged view of the rotating part of the embodiment of FIG. The observation object 1 is rotated by providing a motor at the tip of the moving means 4 and rotating the rotating shaft. Further, the observation object 1
Is not only radiated from both directions as shown in the first embodiment, but also by irradiating from a plurality of directions the observation object 1 by irradiating the slit light source 3 from a predetermined direction such as 90 ° or 180 °. An accurate three-dimensional image can be generated.

【0027】[0027]

【発明の効果】本発明によれば、外乱光による影響を減
少できたので、合焦点部分を正確かつ高速に検出し、こ
れによってその深さ情報を取得し、立体画像を正確かつ
高速に合成することができる。従来、立体画像の合成に
20時間位かかっていたものが、数分から数十分で合成
できる。
According to the present invention, since the influence of disturbance light can be reduced, the in-focus portion can be detected accurately and at high speed, thereby obtaining the depth information, and a stereoscopic image can be synthesized accurately and at high speed. can do. Conventionally, it took about 20 hours to synthesize a stereoscopic image, but it can be synthesized in a few minutes to several tens of minutes.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の立体観察装置の一実施例の構成図。FIG. 1 is a configuration diagram of an embodiment of a stereoscopic observation apparatus according to the present invention.

【図2】図1に示した立体観察装置の処理手順を示す
図。
FIG. 2 is a view showing a processing procedure of the stereoscopic observation apparatus shown in FIG. 1;

【図3】1つのピクセルについての画像枚数と輝度との
関係を示す図。
FIG. 3 is a diagram showing a relationship between the number of images and luminance for one pixel.

【図4】図2の処理手順の内3次元データ抽出プロセス
の説明図。
FIG. 4 is an explanatory diagram of a three-dimensional data extraction process in the processing procedure of FIG. 2;

【図5】図4において、3次元データ構造の拡大図。FIG. 5 is an enlarged view of a three-dimensional data structure in FIG.

【図6】本発明の立体観察装置の他の実施例の構成図。FIG. 6 is a configuration diagram of another embodiment of the stereoscopic observation apparatus of the present invention.

【図7】本発明の立体観察装置のさらに他の実施例の構
成図。
FIG. 7 is a configuration diagram of still another embodiment of the stereoscopic observation apparatus of the present invention.

【図8】本発明の立体観察装置の他の処理手順を示す
図。
FIG. 8 is a diagram showing another processing procedure of the stereoscopic observation apparatus of the present invention.

【図9】図8の処理手順を実行する立体観察装置の他の
例を示す図。
FIG. 9 is a view showing another example of the stereoscopic observation apparatus that executes the processing procedure of FIG. 8;

【符号の説明】[Explanation of symbols]

1 観察対象物 2 撮像手段 3 スリット光源 4 移動手段 5 画像処理用コンピュータ DESCRIPTION OF SYMBOLS 1 Observation object 2 Imaging means 3 Slit light source 4 Moving means 5 Image processing computer

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) H04N 5/225 H04N 7/18 Z 5C053 5/91 G01B 11/24 K 5C054 7/18 H04N 5/91 J 5C061 Fターム(参考) 2F065 AA52 AA53 DD04 DD10 FF04 FF10 HH05 HH14 JJ03 JJ09 JJ19 MM02 PP24 QQ03 QQ24 QQ29 2H059 AA18 AC01 5B050 AA02 BA04 BA09 BA13 DA07 EA08 EA19 FA02 FA06 5B057 AA10 BA02 BA15 BA17 BA19 CA08 CA12 CA16 CB08 CB13 CB16 CD14 CE08 DA16 DA17 DB02 DB09 DC22 5C022 AA01 AB15 AC26 AC42 5C053 FA08 LA01 LA20 5C054 AA01 AA05 CA04 CB03 CE02 CE16 CF01 CF07 DA01 DA08 EA05 FD01 HA01 5C061 AB06 AB12 AB24 ──────────────────────────────────────────────────続 き Continued on the front page (51) Int.Cl. 7 Identification symbol FI Theme coat ゛ (Reference) H04N 5/225 H04N 7/18 Z 5C053 5/91 G01B 11/24 K 5C054 7/18 H04N 5/91 J 5C061 F-term (reference) 2F065 AA52 AA53 DD04 DD10 FF04 FF10 HH05 HH14 JJ03 JJ09 JJ19 MM02 PP24 QQ03 QQ24 QQ29 2H059 AA18 AC01 5B050 AA02 BA04 BA09 BA13 DA07 EA08 EA19 CA02 BA10 BA08CB08BA08 DA16 DA17 DB02 DB09 DC22 5C022 AA01 AB15 AC26 AC42 5C053 FA08 LA01 LA20 5C054 AA01 AA05 CA04 CB03 CE02 CE16 CF01 CF07 DA01 DA08 EA05 FD01 HA01 5C061 AB06 AB12 AB24

Claims (11)

【特許請求の範囲】[Claims] 【請求項1】 観察対象物のデジタル画像を取得する画
像取得手段と、 観察対象物の合焦点を含む限定された領域を照射する照
明手段と、 観察対象物を前記画像取得手段に対して相対的に移動す
る移動手段と、 前記観察対象物の移動にともなって得られた複数枚のデ
ジタル画像から3次元情報を抽出する3次元情報生成手
段と、得られた3次元情報から立体画像を生成し表示す
る立体画像表示手段とを有する立体観察装置。
1. An image acquisition unit for acquiring a digital image of an observation target, an illumination unit for irradiating a limited area including a focal point of the observation target, and an observation target relative to the image acquisition unit. Moving means for moving the object, three-dimensional information generating means for extracting three-dimensional information from a plurality of digital images obtained by moving the observation object, and generating a three-dimensional image from the obtained three-dimensional information And a stereoscopic image display means for displaying the stereoscopic image.
【請求項2】 前記3次元情報手段は、該デジタル画像
の各ピクセルについて、 複数枚のデジタル画像のうちもっとも焦点の合っている
ピクセルの属する画像を検出する合焦ピクセル検出手段
と、 前記最も焦点の合っているピクセルの属する画像の前記
撮像手段からの距離にもとづいて、該各ピクセルの深さ
情報を検出する深さ情報検出手段と、 該各ピクセスの深さ情報を基に、前記観察対象物の3次
元画像データを生成する3次元画像データ生成手段から
なる請求項1記載の立体観察装置。
2. The in-focus pixel detecting means for detecting, for each pixel of the digital image, an image to which the most in-focus pixel of a plurality of digital images belongs; Depth information detecting means for detecting depth information of each pixel based on the distance of the image to which the matching pixel belongs from the imaging means, and the observation object based on the depth information of each pixel. 2. The stereoscopic observation apparatus according to claim 1, further comprising three-dimensional image data generating means for generating three-dimensional image data of the object.
【請求項3】 前記合焦ピクセル検出手段は実質的に照
射された領域に対する限定された複数のデジタル画像の
内でもっとも輝度の大なるピクセルの属する画像を検出
することを特徴とする請求項2記載の立体観察装置。
3. The apparatus according to claim 2, wherein said in-focus pixel detecting means detects an image to which a pixel having the highest luminance belongs from among a plurality of digital images defined substantially for an illuminated area. A stereoscopic observation device as described.
【請求項4】 前記照明手段は観察対象物より小さな幅
の光を照射することを特徴とする請求項1記載の観察対
象物のデジタル画像を取得する立体観察装置。
4. The stereoscopic observation apparatus for acquiring a digital image of an observation target according to claim 1, wherein the illumination unit irradiates light having a width smaller than that of the observation target.
【請求項5】 前記デジタル画像取得手段はデジタルカ
メラであることを特徴とする請求項1記載の観察対象物
のデジタル画像を取得する立体観察装置。
5. The stereoscopic observation apparatus for acquiring a digital image of an observation target according to claim 1, wherein said digital image acquisition means is a digital camera.
【請求項6】 前記照明手段は、スリット光源であるこ
とを特徴とする請求項1記載の観察対象物のデジタル画
像を取得する立体観察装置。
6. The three-dimensional observation apparatus according to claim 1, wherein the illumination means is a slit light source.
【請求項7】 前記スリット光源を複数設けることを特
徴とする請求項5記載の観察対象物のデジタル画像を取
得する立体観察装置。
7. The three-dimensional observation apparatus according to claim 5, wherein a plurality of the slit light sources are provided.
【請求項8】 観察対象物の背景部に対して拡散光を照
射する拡散光源を有する請求項1記載の観察対象物のデ
ジタル画像を取得する立体観察装置。
8. The three-dimensional observation apparatus for acquiring a digital image of an observation target according to claim 1, further comprising a diffusion light source for irradiating the background portion of the observation target with diffusion light.
【請求項9】 観察対象物の像を拡大する像拡大手段を
設けたことを特徴とする請求項1記載の観察対象物のデ
ジタル画像を取得する立体観察装置。
9. The stereoscopic observation apparatus for acquiring a digital image of an observation target according to claim 1, further comprising an image enlarging means for enlarging an image of the observation target.
【請求項10】 観察対象物の前記デジタル画像取得手
段からみた裏面についても表面と同様に3次元画像デー
タを作成する手段と、 前記対象物の表面と裏面との画像データの対応をつける
対応付け手段とからなる請求項2記載の立体観察装置。
10. A means for creating three-dimensional image data on the back side of the observation object as viewed from the digital image acquisition means in the same manner as the front side, and associating the image data between the front side and the back side of the object. The stereoscopic observation apparatus according to claim 2, comprising means.
【請求項11】 観察対象物のデジタル画像を取得し、 観察対象物の合焦点を含む限定された領域を照射し、 観察対象物を前記画像取得手段に対して相対的に移動
し、 該移動にともなって得られた複数枚のデジタル画像から
3次元情報を抽出し、 該得られた3次元情報から立体画像を生成し表示する立
体観察方法。
11. Obtaining a digital image of an observation object, irradiating a limited area including a focal point of the observation object, moving the observation object relative to the image acquisition means, A three-dimensional observation method for extracting three-dimensional information from a plurality of digital images obtained with the method, and generating and displaying a three-dimensional image from the obtained three-dimensional information.
JP2000371887A 2000-12-06 2000-12-06 Solid body observing device and method Withdrawn JP2002176659A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000371887A JP2002176659A (en) 2000-12-06 2000-12-06 Solid body observing device and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000371887A JP2002176659A (en) 2000-12-06 2000-12-06 Solid body observing device and method

Publications (1)

Publication Number Publication Date
JP2002176659A true JP2002176659A (en) 2002-06-21

Family

ID=18841529

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000371887A Withdrawn JP2002176659A (en) 2000-12-06 2000-12-06 Solid body observing device and method

Country Status (1)

Country Link
JP (1) JP2002176659A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009180708A (en) * 2008-02-01 2009-08-13 Nikon Corp Method and apparatus for shape measurement

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009180708A (en) * 2008-02-01 2009-08-13 Nikon Corp Method and apparatus for shape measurement

Similar Documents

Publication Publication Date Title
US20130335535A1 (en) Digital 3d camera using periodic illumination
CN110235045A (en) For carrying out the microscope and method of micrography to sample
EP1515174A3 (en) Three dimensional microscope system and image display method thereof
JPH10502177A (en) Imaging device and method for determining distance from focus and focus information
TW201118791A (en) System and method for obtaining camera parameters from a plurality of images, and computer program products thereof
JP2016212349A (en) Three-dimensional information acquisition apparatus and three-dimensional information acquisition method
JP2008194334A (en) Endoscope image display method, device, and program
JP3798161B2 (en) Fundus measurement device and recording medium recording fundus measurement program
JP2018082416A (en) Image creating device, image creating method, and program
TW202014993A (en) Information processing device, program, and information processing method
CN113115027A (en) Method and system for calibrating camera
CN113267141A (en) Microscopic three-dimensional information acquisition equipment
CN108463793A (en) Pattern recognition device, image-recognizing method and image identification unit
EP2826243B1 (en) Method and system for identifying depth data associated with an object
JP2004280776A (en) Method for determining shape of object in image
JP6409769B2 (en) 3D shape measuring apparatus, 3D shape measuring method, and 3D shape measuring program
US8736706B1 (en) Method and system for generating high resolution composite images
JPH0766436B2 (en) 3D model construction device using continuous silhouette images
JP3639869B2 (en) Stereoscopic observation apparatus and method for creating a stereoscopic image that reproduces the color of the surface of an object
KR20090110348A (en) Object shape generating method, object shape generating device and program
JP2002176659A (en) Solid body observing device and method
CN113472984B (en) Image acquisition method, device, system, storage medium and equipment
JP4885439B2 (en) Color image acquisition method and confocal laser microscope
JP2012083621A (en) Scan laser microscope
JP2005122330A (en) Three-dimensional measurement data processor and three-dimensional shape data processor

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20080304