JP2019525369A - 表面スキャン又はスライススキャンからの物体の三次元モデルの再構成であって、モーションブラーを補償する再構成 - Google Patents

表面スキャン又はスライススキャンからの物体の三次元モデルの再構成であって、モーションブラーを補償する再構成 Download PDF

Info

Publication number
JP2019525369A
JP2019525369A JP2019524121A JP2019524121A JP2019525369A JP 2019525369 A JP2019525369 A JP 2019525369A JP 2019524121 A JP2019524121 A JP 2019524121A JP 2019524121 A JP2019524121 A JP 2019524121A JP 2019525369 A JP2019525369 A JP 2019525369A
Authority
JP
Japan
Prior art keywords
scan
slice
image
scanner
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019524121A
Other languages
English (en)
Inventor
ビショップ・ロバート・ピー
サリバン・マイケル・ティー
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Image Recognition Technology LLC
Original Assignee
Image Recognition Technology LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Image Recognition Technology LLC filed Critical Image Recognition Technology LLC
Publication of JP2019525369A publication Critical patent/JP2019525369A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/003Reconstruction from projections, e.g. tomography
    • G06T11/008Specific post-processing after tomographic reconstruction, e.g. voxelisation, metal artifact correction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/73Deblurring; Sharpening
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/0016Operational features thereof
    • A61B3/0025Operational features thereof characterised by electronic signal processing, e.g. eye models
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/102Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for optical coherence tomography [OCT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/1025Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for confocal scanning
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/14Arrangements specially adapted for eye photography
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B21/00Measuring arrangements or details thereof, where the measuring technique is not covered by the other groups of this subclass, unspecified or not relevant
    • G01B21/20Measuring arrangements or details thereof, where the measuring technique is not covered by the other groups of this subclass, unspecified or not relevant for measuring contours or curvatures, e.g. determining profile
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10088Magnetic resonance imaging [MRI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10101Optical tomography; Optical coherence tomography [OCT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10132Ultrasound image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20172Image enhancement details
    • G06T2207/20201Motion blur correction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30041Eye; Retina; Ophthalmic

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Surgery (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Ophthalmology & Optometry (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biophysics (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Signal Processing (AREA)
  • Quality & Reliability (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Processing (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Analysis (AREA)

Abstract

【課題】物体の動きによるアーチファクトを阻止しながら物体の三次元モデルを生成する装置を提供する。【解決手段】物体の三次元表現を生成する装置は、物体の一連の二次元画像を生成するカメラと、スキャンを生成するスキャナと、プラットフォームと、制御手段とを備える。制御手段は、複数のサンプリング測定値をそれぞれ含む複数のスキャンラインを生成するためにスキャナを制御し、スキャンラインのそれぞれがカメラ画像を取込み、カメラ画像同士を、当該カメラ画像同士に共通する少なくとも1つの区別可能な視覚的特徴を重ね合わせることによって位置合わせすることで、スキャンラインについても、対応する量だけ画像平面上で位置調整し、スキャンラインごとに個々のサンプリング測定値同士を繋げることで、各スキャンラインの連続表現を三次元空間内に生成し、2つのスキャンラインからなるセットの少なくとも1つに対して、当該2つのスキャンラインの連続表現同士が交差する、画像平面上での点を突き止め、2つの当該連続スキャンライン表現同士が三次元空間内の共通点で交差するように少なくとも一方のスキャンラインを画像平面に対して垂直な平面上の撮像軸に沿って移動させることにより、スキャナの連続するスキャン間での物体の動きを補償する。【選択図】図10

Description

本願は、物体の三次元画像化に関し、特にはモーションブラーの補償に関する。
複数のラインスキャン又は画像スライスを組み合わせて物体の三次元形状を再構成(再構築)するためのスキャン技術が多数存在する。このようなスキャン技術は:(a)例えば表面CAD−CAM再構成用途等で用いられる、物体の表面ラインスキャンを生成するためのレーザ三角測量;ならびに(b)内部対象3D再構成用途のために物体の画像スライススキャンを生成する、光コヒーレントトモグラフィー(OCT)、磁気共鳴画像化(MRI)、超音波画像化、レーダー画像化及びソナー画像化;を含む。これらのどの用途においても、三次元空間内で物体を高精度に再構成するには、各スキャンライン間又は各画像スライス間の空間的関係の正確な知識を用いて複数の個々のスキャンライン又は画像スライスが組み合わされる必要がある。
図1〜図3に、このような画像スライスの例を示す。図1には、人間の脳のMRI画像スライス100の例が示されている。図2には、人間の眼の単一OCTスキャンスライス200が示されている。図3は、人間の腹部の単一超音波スキャンスライス300の例である。
複数のスキャン又はスライスの取得中又は取得間での物体の動きは、再構成後の三次元画像に深刻なアーチファクトをもたらす。例えば、図4に示す動かない階段である物体400と、図5に示す垂直方向に動く平坦な物体500とについて考える。図4の動かない階段である物体を前述のどの技術を用いてスキャンしても、当該物体が高さ「h」の段を有していると測定装置は正確に示す。しかし、図5に示す平坦な物体500が連続するスキャン間で垂直方向に距離h動いたとすると、その表面502が完全に平坦であるにもかかわらず、矢印510で示すように動いたことで、当該表面に高さ「h」の段が存在すると測定装置が誤って示す。そのため、図4の物体400は図5の物体500と区別されない可能性がある。
図6A及び図6Bは、人間の眼をスキャンした画像である。図6Aと図6Bでは、スキャン時のスキャンラインのx,y経路の空間位置が異なっている。図6Aは、時刻t=0秒に取り込まれたスキャン610の様子を示す1番目の画像600である。瞳孔を囲む「リング」620は、スキャナの白色光照射部の反射のアーチファクトである。図6Bは、時刻t=0.65秒に取り込まれたスキャン660の様子を示す25番目の画像650である。図7の画像700は、図6Aと図6Bとを重ね合わせたものであり、0.65秒のスキャン時間内に眼のランダムな動きによって当該眼730がx,y方向にどれほど動いたか分かる。
図7では、眼がカメラと平行な平面上で動いた量については分かるが、当該カメラと直交する垂直方向(z方向)の変位量については、当該カメラでは検出することができない。実際のところ、その垂直方向の変位量がカメラの光学系の被写界深度内である場合には、画像の焦点は合ったままなので、この垂直方向の動きがそもそも検出不可能となり得る。図8には、この状況の一例が描かれている。カメラレンズ805の被写界深度820と同じ軸心810に沿って物体が動くため、連続するスキャン間での当該物体800の動きが見て取れないこととなり得る。
以下に、各種実施形態の概要を説明する。参照図面を用いての各種実施形態の詳細な説明は、「発明を実施するための形態」という欄で述べる。
例示的な一実施形態では、上記の問題が、撮像軸に沿って方向付けられたカメラを備える装置および/または方法によって解決される。当該カメラは、区別可能な視覚的特徴を有する物体の一連の二次元画像を生成する。さらにスキャナが、前記物体についての複数のスキャンを生成する。各スキャンは前記物体についての複数のサンプリング測定値を含む。各スキャンには、二次元画像が対応しているのが望ましい。前記スキャナと前記カメラの間では、何らかの一定又は定められた空間的関係が守られている。
プログラム可能なデジタルコンピュータ、デジタルシグナルプロセッサなどのコントローラが、前記カメラ及び前記スキャナを制御するように且つ当該カメラ及び当該スキャナの出力を処理するように接続されている。前記コントローラは、複数のサンプリング測定値をそれぞれ含む複数のスキャンラインを生成するように前記スキャナを制御する。前記スキャナは、さらに、前記スキャンラインのそれぞれが前記カメラによって観測される画像平面上で少なくとも1つの他のスキャンラインと交差することで当該画像平面上において任意の1つのスキャンラインから任意の他のスキャンラインへのパスを作り出すように制御される。前記コントローラは、さらに、前記複数のスキャンラインのそれぞれについて、前記物体の画像であって、前記区別可能な視覚的特徴を含む画像を前記カメラから取り込むことにより、各スキャンラインに対して画像を取り込む。そして、取り込まれた前記画像同士が、前記区別可能な視覚的特徴を重ね合わせることによって位置合わせされることで、前記スキャンラインについても、対応する量だけ前記画像平面上で位置調整される。
そして、所与のスキャンラインごとに個々の前記サンプリング測定値同士が、各スキャンラインの連続表現を三次元空間内に生成するように繋げられる。2つのスキャンラインからなるセットの少なくとも1つに対して、前記コントローラが、前記画像平面像面上の点であって、当該2つのスキャンラインの前記連続表現同士が交差する点を突き止めた後、少なくとも一方のスキャンラインを前記画像平面に対して垂直な平面上の前記撮像軸に沿って移動させる。これにより、2つの前記連続スキャンライン表現同士が三次元空間内の共通点で交差し、そのため、前記スキャナの連続するスキャン間での前記物体の動きが補償される。
そして、2つ以上の交差する前記連続スキャンライン表現から、前記物体の三次元表現が生成され得る。
一部の具体化例では、取り込まれる前記画像が、前記物体の表面の二次元画像であって、前記区別可能な視覚的特徴を含む二次元画像であってもよい。
前記スキャナは、様々な種類のものであってもよい。一具体化例では、前記スキャナは表面高さスキャナであり、かつ、前記サンプリング測定値のそれぞれが、前記スキャンラインに沿った位置であって、選択された位置における、基準点から前記物体までの距離から求められる高さに相当する。
他の具体化例では、前記スキャナがスライススキャナであり、前記サンプリング測定値はスライススキャンである。この具体化例では、各スライススキャンから前記物体の表面が抽出される。スライススキャナの例は、OCT、CAT、超音波、MRI、ソナー、レーダー等を含む。
好ましい一実施形態において、前記スキャナで前記サンプリング測定値を取得する時間は、スキャンライン又はスライススキャンのサンプリング中に発生するモーションブラーが無視できるほどに短い。
他の態様では、装置および/または方法が、スライススキャンを生成するスキャナを用いて、物体の三次元表現を生成する。各スライススキャンはサンプルの二次元アレイを含み、各サンプルは前記物体についての検出された物理的特性の強度を表す。プログラム可能なデジタルコンピュータ、デジタルシグナルプロセッサなどのコントローラが、前記スキャナに接続されている。前記コントローラは、複数のスライススキャンを生成するために前記スキャナを制御し、連続するスライススキャン間で前記物体が動いたとしても各スライススキャンが少なくとも2つの他のスライススキャンと交差するように前記スライススキャンが配置される(位置関係を有する)。前記コントローラは、さらに、各スライススキャンから任意の他のスライススキャンへの連続パスが存在するよう当該スライススキャンが交差するように制御する。前記コントローラは、前記スキャナの出力を処理することにより、所与のスキャンスライスが、交差するスライスのうち選択したスライスと共通して有する、共通の強度値のセットを突き止めた後、前記所与のスライスと選択したスライスとが共通して有する前記強度値同士を位置合わせする。これにより、前記物体の三次元表現内での前記所与のスキャンスライスと選択したスライスの位置が調整される。
この実施形態において、前記コントローラは、さらに、前記スキャナの出力を処理することにより、前記所与のスライスが前記選択したスライスと共通して有する、共通の強度値のセットを2つ以上突き止めてもよい。その場合、前記コントローラは第3のスライスに対する前記所与のスライスの相対位置情報を用いて、共通の強度値の前記2つ以上のセットのうちのいずれのセットを前記所与のスキャンスライスと前記選択したスライスの位置を調整するのに使用するかを決定してもよい。
他の随意の具体化例では、前記制御手段が、さらに、(a)スライススキャン角度及びスライス位置、ならびに(b)スキャンスライス間での物体の動きの既知の最大速度を用いて、交差しているスライスを突き止めるための探索領域の大きさ及び位置を制限し得る。
また、この具体化例において、前記サンプルを取得する時間は、スライススキャンにおける連続するサンプル中に発生するモーションブラーが無視できるほどに短いものとされ得る。
以降の説明は、下記の添付の図面を参照しながら行う。
人間の脳の一連のMRI画像スライスである。 人間の眼の単一OCTスキャンである。 人間の腹部の単一超音波スキャンである。 動かない階段である物体について2回のスキャンが取り込まれる例示的な状況を示す図である。 動く平坦な物体について2回のスキャンが取り込まれる例示的な状況を示す図である。 第1のスキャン中に(時刻t=0秒で)取り込まれた眼の画像である。 後続のスキャン中に(時刻t=0.65秒で)取り込まれた眼の画像である。 図6Aの画像と図6Bの画像とを重ね合わせたものである。 被写界深度と平行な動きについては、画像同士を比較しても判別可能となり得ないことを示す図である。 例示的な一具体化例を示す図である。 Fig. 10A〜Fig. 10Dは、それぞれ、ラインスキャンされた物体を、モーションブラーを阻止しながら三次元(3D)再構成するための一連のステップを示す図である。 複数のアライメント特徴を用いて画像及びスキャンを位置合わせ(位置調整)する一例を示す図である。 複数のアライメント特徴を用いて画像及びスキャンを位置合わせ(位置調整)する一例を示す他の図である。 複数のアライメント特徴を用いて画像及びスキャンを位置合わせ(位置調整)する一例を示すさらなる他の図である。 位置合わせ(位置調整)前のスキャンパターンの一例を示す図である。 位置合わせ(位置調整)後の同スキャンパターンを示す図である。 図13Bに示す一つのスキャンラインに沿って測定された、z高さ表面プロファイルを示す図である。 図13Aに対応する画像である。 位置合わせ(位置調整)されていない120個のスキャン/画像を重ね合わせたものであり、画像特徴がぼやけている。 位置合わせ(位置調整)後の同じ120個のスキャン/画像を重ね合わせたものであり、画像特徴が鮮明である。 人間の眼の三次元モデルである。 Fig. 17A〜Fig. 17Cは、図16のモデルを回転させた図である。 Fig. 18Aは眼の画像であり、Fig. 18BはFig. 18Aと同じ眼のOCTスキャンスライスである。 眼の上面が特定される様子を示す図である。 第2の具体化例を示す図である。 Fig. 21A〜Fig. 21Dは、それぞれ、スライススキャンされた物体を、モーションブラーを阻止しながら3D再構成する方法を示す図である。 カメラを用いないスライススキャナを示す図である。 物体がスキャン中に動かない場合の交差スライススキャンを示す図である。 物体がスキャン中に動いた場合の交差スキャンスライスを示す図である。 スライス同士が強度値の共通セットを有している様子を示す図である。 スライス同士の交差が生じる空間領域を三次元で表した図である。 スライス同士の交差が生じる空間領域を二次元で表した図である。 スライスが接続されている箇所が未だ不明である際における、同一の強度ベクトルを示す図である。 一つのスライス及び当該スライスのベクトル強度位置を示す図である。 他のスライス及び当該スライスのベクトル強度位置を示す図である。 さらなる他のスライス及び当該スライスのベクトル強度位置を示す図である。 画像スライス1と画像スライス2とが共通のベクトルの箇所で接合されている様子を示す図である。 画像スライス3の位置候補と半径Dとを示す図である。 再構成後の最終的なモデルを示す図である。 機械的スキャンパターンを示す図である。 図34Aに対応する交差スライスを示す図である。 4つの小さい部分重複領域によって大きい領域をスキャンする様子を示す図である。 物体が相異なる角度からスキャンされる様子を示す図である。 異なる視線での眼の画像を複数撮像する一例を示す図である。 2つのアライメント特徴を有する物体の、正面からの図である。 複数の物体モデルにおいてアライメント特徴を突き止める様子を示す図である。 並進補正の前処理を示す図である。 並進後での2つのモデルの空間的関係を示す図である。 回転補正の前処理を示す図である。 回転補正を示す図である。 補正技術なしのスキャンの結果を示す図である。 補正技術ありのスキャンの結果を示す図である。
本明細書では、ラインスキャン画像及びスライススキャン画像における三次元(3D)モーションブラーを除去する、様々な装置および方法について記載する。これらの技術によって、スキャン中に物体がx,y,z方向に動くことによる不利な影響を受けずに、当該物体の3D形状が再構成される。
[具体化例1]
[[ラインスキャンされた物体の三次元再構成およびモーションブラーの阻止]]
この第1の具体化例(具体化例1)は、ラインスキャン装置を用いて3Dモデルを取得する。図9を参照して、これには下記の装置及び動作が必要となる:
1. 物体970の一連の画像を撮像するための、単一の二次元(2D)カメラ920。物体970は、その表面960上に少なくとも1つの特徴を含む。前記当該カメラは、テレビジョンカメラのような一連の画像を撮像することが可能なデジタルカメラであってもよい。
2. 一連のラインスキャン(符号960など)に沿って、物体970の表面までの距離を少なくとも測定する、スキャナ910(三角測量センサなど)。
3. 当該スキャナは、任意の一つのスキャンラインから任意の他のスキャンラインへと移動するパスを作り出すようスキャンライン同士が必ず交差するように、コントローラ940により制御される。
4. カメラ920とラインスキャン910装置との間には、定められた空間的関係が存在する。当該定められた空間的関係は、前記カメラ及びスキャナを共通のプラットフォームに取り付けることによって一定とされ得る。他の配置構成では、前記スキャナとカメラとが互いに動くものとされてもよいが、当該スキャナとカメラとの間隔は既知のパターンに従うものとする。
5. 一つのラインをスキャンするのに必要な時間は、1回のスキャンライン取得最中にモーションブラーが発生しないように十分に高速とされる。あるいは、ラインスキャン最中のモーションブラーは、無視可能なまでに著しく小さい。
6. デジタルシグナルプロセッサおよび/またはコンピュータ950は、カメラ920の出力とスキャナ910の出力とを処理するようにプログラムされており、かつ、コントローラ940と相互作用することによって当該カメラ及び当該スキャナの動作を制御し、下記の方法ステップを実行する。DSP/コンピュータ950は、さらに、ストレージ952、ディスプレイ954、および当該技術分野において知られている他の周辺機器を具備してもよい。
上記の要件が満たされていることを前提として、物体970の表面960は、ラインスキャン装置によって三次元空間内で再構成(再構築)されることが可能である。以下では、図10(Fig. 10A〜Fig. 10D)に示す方法ステップについて説明する。
ステップ1(Fig. 10A):スキャン1(1010−1)とスキャンP(1010−P)との少なくとも2つの表面ラインスキャンを行い、かつ、当該表面についての対応する画像を前記カメラで各スキャンと同時に撮像して、これらのラインスキャン及びカメラ画像データをさらなる処理のために記憶する。前記物体のその表面画像から、表面高さラインスキャンのx,yアライメント(位置合わせ、位置調整)に使用する少なくとも1つの特徴(1020−1,1020−P)を選択する。この例では、アライメント特徴として「+」記号を用いる。
ステップ2A(Fig. 10B):一方の表面画像を他方の表面画像に対してx,yに移動させることにより、両方の画像に存在する前記アライメント特徴(1020−1.1020−P)を重ね合わせる。さらに、前記表面高さラインスキャンについても、前記表面画像と同量だけ移動させることにより、前記表面画像内の前記アライメント特徴と各表面高さラインスキャンとの間の空間的関係を常に正確に維持する。
ステップ2B(Fig. 10B):同図において前記物体の上面の太線で示すように、各ラインスキャンにおける個々のサンプリング高さデータ点同士を数学的に繋げる。これらの点同士を繋げる手法の一つは、サンプリングデータ値1010−1,1010−Pのそれぞれに多項式をフィッティングすることである。ラインスキャン1(1010−1)とラインスキャンP(1010−P)との両方に共通する前記上面のx,y座標を突き止める。垂直方向の鎖線V1で示すように、この座標にて、それら2つのスキャンがx−y平面上で交差する。
ステップ3(Fig. 10B):この共通x,yデータ点が前記物体の表面上に存在しており、かつ、この表面が唯一の上面なので、前記2つのスキャンがx,y平面上で交差する(ステップ2Bの垂直方向の線V1で示す)箇所での双方の表面高さラインスキャンの(前記物体を基準とする)z高さ値は必ず同じになる。したがって、ラインスキャンP(1010−P)はラインスキャン1(1010−1)に対してこの表面x,y,z座標で結合可能となり、結合される。
ステップ4(Fig. 10C):前記物体について取得した後続の各ラインスキャン1010−N(スキャンラインNと称される)ごとに、付随する表面画像から、アライメント特徴1020−Nが突き止められる。これは、スキャンされる物体が動いている場合であっても静止している場合であっても行われる。
ステップ5(Fig. 10D):ステップ2Bで述べたものと同じ手順を用いて、スキャンラインNにおける個々のサンプリングデータ点同士を数学的に繋げる。処理済みのどのラインスキャン番号にラインスキャンNが交差するのか(同図ではラインスキャンP)を探し出す。ラインスキャンNとラインスキャンPとに共通するx,y座標を突き止める。垂直方向の鎖線V2で示すように、このx,y座標にて、それら2つのスキャンがx−y平面上で交差する。
ステップ6(Fig. 10D):ラインスキャンNとラインスキャンPとに共通する(Fig. 10D(ステップ5)の垂直方向の線V2で示す)交差x,y表面座標にて、これらのラインスキャン同士を垂直方向に結合する。これにより、ラインスキャンNとラインスキャンPとは、これら2つのラインスキャン同士が交差する箇所で同一のx,y,z座標値を有することになる。
垂直方向のz高さ軸において全ての交差スキャンライン同士が結合されるまで、ステップ4、ステップ5及びステップ6の処理を続ける。
図10(Fig. 10A〜Fig. 10D)では、2つのスキャン間の前記物体をx,yカメラ面上において空間的に位置合わせするのにカメラ画像中の1つのアライメント特徴しか用いていないが、アライメントを達成するのに物体表面上の複数の特徴を用いることが必要又は有用となる場合もある。特に、物体の動きが原因となって、全カメラ画像に共通する特徴が一つも存在しない場合にそうである。図11A、図11B及び図11Cには、複数のアライメント特徴が連続する画像間でのアライメントに使用される様子が描かれている。一例として、図11Aのカメラ画像には「+」(プラス記号1110)のみが存在する。図11Bのカメラ画像には「+」と「*」(アスタリスク1111)との両方が存在し、図11Cのカメラ画像には「*」アスタリスクのみが存在する。この例では、「+」記号が図11Aと図11Bとを位置合わせするのに用いられることができ、「*」アスタリスクが図11Bと図11Cとを位置合わせするのに用いられることができる。これにより、図11A〜図11Cは、全てに共通する特徴が存在しないにもかかわらず自然に位置合わせされる。このようにして、全ての画像及びスキャンがx,yカメラ像面上で互いに位置合わせ(位置調整)されることが可能となる。一般的に述べると、任意の一つの画像は任意の他の画像へと、双方の画像に共通する特徴を直接含んでいることによって位置合わせ可能であり得るか、あるいは、(図11A、図11B及び図11Cに示すように)これらの画像を繋ぎ合わせる介在画像(中間画像)中において共通の特徴のペアを見つけ出すことによって位置合わせ可能であり得る。
なお、2つの画像同士をx,y平面上で位置合わせする方法は、当該技術分野においてよく知られている。本具体化例の新規性は、z軸でのラインスキャンアライメント(位置調整)によってラインスキャン間での物体の動きを補償するという、完成された方法にあると考えられる。
図12Aは、人間の眼の複数の交差ラインスキャンの一例1201である。対応する表面画像が、重ね合わされている。これは、図7で示した眼の動きを補償するのに必要となるx,yアライメント前のパターンである。図12Bには、図10のFig. 10A〜Fig. 10Bで説明した方法ステップによる位置合わせ済みの表面画像を用いた場合の、x,y平面1202上での位置調整後のスキャン同士の相対位置関係が示されている。
図13Aには、例示的な一つのスキャンライン1300(図13Bに、対応する画像が示されている)に沿って測定された、Z高さ表面プロファイルの一例が示されている。
図14は、3秒間の総スキャン期間中に取得された、眼についての位置合わせされていない120個のスキャン画像(それぞれの画像は、対応するZ高さスキャンラインプロファイルを有する)を重ね合わせたもの1400である。図14には実際のスキャンパターン1410が示されており、眼の瞳孔上にデータ点が集中している。図14では特徴がぼやけている点(つまりモーションブラーが発生している点)に留意されたい。図15には、図10のFig. 10A〜Fig. 10Dで説明した方法を用いて位置合わせ(位置調整)を行いx,y方向のモーションブラーを阻止した後、前記120個のスキャン/画像1510を重ね合わせたもの1500が示されている。図15では特徴が鮮明である点に留意されたい。
眼の他のスキャンでは、図14に示した前記120個の交差スキャンラインが瞼(まぶた)を越えて放射状に拡張されると共に、図10のFig. 10A〜Fig. 10Dで説明した再構成方法を用いることで、Z方向での動きを補償して図16に示す眼の三次元モデルが生成された。
当該三次元モデルは、コンピュータ画面954(図9を参照)上で回転されることにより、図17のFig. 17A〜Fig. 17Cに示すように所望の様々な表示角度1701,1702,1703で表示されることが可能であり得る。
[具体化例2]
[[物体のスライススキャンからの三次元再構成およびモーションブラーの阻止]]
この具体化例では、物体のスライススキャンからの三次元再構成及びモーションブラーの阻止のための方法について説明する。スライススキャンは、物体の画像スライスを生成する。物体の画像スライスを生成するには、光コヒーレントトモグラフィー(OCT)、磁気共鳴画像化(MRI)、超音波画像化、レーダー画像化、ソナー画像化などのスキャン技術が用いられ得る。これらのどの用途の場合にも、三次元空間内で物体を再構成するには、各スライスとスキャン対象の物体との間の空間的関係の正確な知識を用いて複数の個々の画像スライスが組み合わされる必要がある。
この新規の3D物体再構成アルゴリズムを説明するにあたって、眼のOCTスキャンを一例として使用する(具体化例2)。図18のFig. 18Aは、眼のOCTスキャンスライスの一例の相対位置を表す、当該眼の画像1800である。図18のFig. 18Bは、当該眼の光コヒーレントトモグラフィー(OCT)画像スライスの一例1810である。
図19に示すように、各画像スライス1900における物体(眼)の上面は、例えばz軸方向に「下がっていく」と現れる「最初」の高コントラスト境界1910を特定すること等によって簡単に特定され得る。そのような上面が特定されると、画像スライスが下記の条件を満たすことを前提として、前記物体は、図21(Fig. 21A〜Fig. 21D)で述べる方法ステップを用いて三次元空間内で再構成されることが可能である。
具体化例2は、スライススキャン装置を用いて3Dモデルを得る。このアプローチには、(図20に示す)下記の装置及び動作が必要となる:
1. 当該物体2020の画像を取り込むための、単一の二次元(2D)カメラ2020。物体2020は、その表面上に少なくとも1つのアライメント特徴を含む。当該カメラ2020は、テレビジョンカメラのような一連の画像を撮像することが可能な任意のカメラであってもよい。
2. 前記物体の表面2070までの距離、および一連のスライススキャン(OCT、CAT、超音波、MRI、ソナー、レーダー、同様の装置など)内に含まれる内部特徴までの距離を少なくとも測定する、スライススキャナ2010。
3. 当該スキャナは、任意の一つのスキャンスライスから任意の他のスキャンスライスへと移動するパスを作り出すようスキャンスライス2060同士が必ず交差するように制御2040される。
4. カメラ2020とスライススキャン装置2010との間には、定められた空間的関係が存在する。当該空間的関係は、例えば前記カメラ及び前記スキャナを共通のプラットフォームに取り付けること等によって一定とされてもよい。あるいは、(当該空間的関係が既知であることを条件として、経時的に変化するものとされてもよい。
5. 一つのスライス2060をスキャンするのに必要な時間は、1回のスキャンスライス取得最中にモーションブラーが発生しないように十分に高速とされる。あるいは、スライススキャン最中のモーションブラーは、無視可能なまでに著しく小さい。
6. カメラ2020及びスキャナ2010を制御し、前記画像及びスキャンを処理し、下記のステップを実行するための、プログラムされたデジタルコンピュータおよび/またはシグナルプロセッサ2050。コンピュータ/DSP2050は、ストレージ2052、ディスプレイ2054、図示しない他の構成品などの周辺機器を具備してもよい。
上記の要件が満たされていることを前提として、図21(Fig. 21A〜Fig. 21D)を参照しながら、OCT、CAT、超音波、MRI、ソナー、レーダー、同様の装置などのスライススキャン装置についての3D物体再構成の方法について説明する。
ステップ1(Fig. 21A):スライス1(2110−1)とスライスP(2110−P)との少なくとも2つのスライススキャンを行い、かつ、当該表面についての対応する画像を前記カメラで各スキャンと同時に撮像して、これらのスライススキャン及びカメラ画像データをさらなる処理のために記憶する。前記物体のその表面画像から、スキャンした画像スライスのx,yアライメントに使用する少なくとも1つの特徴(2120−1,2120−P)を選択する。この例では、アライメント特徴として+記号を用いる。
ステップ2A(Fig. 21A):一方の表面画像を他方の表面画像に対してx,yに移動させることにより、前記アライメント特徴(2120−1.2120−P)を重ね合わせる。さらに、前記画像スライスについても、前記表面画像と同量だけ互いに相対移動させることにより、前記表面画像内の前記アライメント特徴と各画像スライスとの間の空間的関係を常に正確に維持する。
ステップ2B(Fig. 21B):各画像スライスの上面端縁に位置する、スキャンされたx,yデータ点及び座標のセットを特定する。これらの点は、前記物体の前記表面画像にも存在するはずである。これらは、前記撮像カメラに最も近い表面点である。同図において前記物体の上面の太線で示すように、各スライスにおける個々のスキャンされた表面データ点同士を数学的に繋げる。
各画像スライスの前記上縁から、2つのスライスに共通するx,yデータ点を突き止める。垂直方向の鎖線V1で示すように、このx,y座標にて、それら2つのスライスがx−y平面上で交差する。
ステップ3(Fig. 10B):この共通x,yデータ点が前記物体の表面上に存在しており、かつ、この表面が唯一の上面なので、前記2つのスライスが交差する表面x,y座標での双方のスライス2110−1,2110−Pの(前記物体を基準とする)表面z値は必ず同じになる。したがって、図21のFig. 21Bに示すように、画像スライスPは画像スライス1に対してこの表面x,y,z座標で結合可能となる。
ステップ4(Fig. 10C):前記物体についてスキャンした後続の各画像スライス2110−N(スライスNと称される)ごとに、付随する表面画像から、アライメント特徴2120−Nが突き止められる。これは、物体が静止している場合であっても動いている場合であっても行われる。
ステップ5(Fig. 21D):ステップ2Bで述べたものと同じ手順を用いて、スライスNの上縁に沿った個々のサンプリング表面データ点同士を数学的に繋げる。
処理済みのどの画像スライス番号にスライスNが交差するのか(同図ではスライスP)を探し出す。スキャンスライスNとスキャンスライスPとに共通するx,y座標を突き止める。垂直方向の鎖線V2で示すように、このx,y座標にて、それら2つのスキャンがx−y平面上で交差する。
ステップ6(Fig. 21D):スライスNとスライスPとに共通する(ステップ5の垂直方向の線V2で示す)交差x,y座標にて、これら2つのスライスを、当該2つのスライスの上面端縁同士が交差する点で結合する。これにより、スライスNの上縁とスライスPの上縁とは、その交差箇所で同一のx,y,z座標値を有することになる。
当該交差スライス(交差しているスライス)の上面端縁同士が交差する箇所で全ての交差スライスが結合されるまで、ステップ4、ステップ5及びステップ6の処理を続け、これらの結合後のスライスから3Dモデルを構築する。
図21(Fig. 21A〜Fig. 21D)では、2つのスライススキャン間の前記物体をx,yカメラ面上において空間的に位置合わせするのにカメラ画像中の1つのアライメント特徴しか用いていないが、用途によっては、アライメントを達成するのに物体表面上の複数の特徴を用いることが必要又は有用となる場合もある。特に、物体の動きが原因となって、全カメラ画像に共通する特徴が一つも存在しない場合にそうである。スライススキャン用途の場合にも、ラインスキャン用途に関して既述したものと同様の様式で、x,yカメラ像面上において前記物体をアライメントするのに複数の特徴が用いられることが可能である。既述したように、図11A、図11B及び図11Cには、複数のアライメント特徴が連続する画像間でのアライメントに使用される様子が描かれている。一例として、図11Aのカメラ画像には「+」(プラス記号)のみが存在する。図11Bのカメラ画像には「+」記号と「*」(アスタリスク)との両方が存在し、図11Cのカメラ画像には「*」アスタリスクのみが存在する。この例では、「+」記号が図11Aと図11Bとを位置合わせするのに用いられることができ、「*」アスタリスクが図11Bと図11Cとを位置合わせするのに用いられることができる。これにより、図11A〜図11Cは、全てに共通する特徴が存在しないにもかかわらず自然に位置合わせされる。このようにして、全ての画像及びスキャンがx,yカメラ像面上で互いに位置合わせ(位置調整)されることが可能となる。一般的に述べると、任意の一つの画像は任意の他の画像へと、双方の画像に共通する特徴を直接含んでいることによって位置合わせ可能であり得るか、あるいは、(図11A、図11B及び図11Cに示すように)これらの画像を繋ぎ合わせる介在画像中において共通の特徴のペアを見つけ出すことによって位置合わせ可能であり得る。
[具体化例3]
[[物体内部に存在し得る構造のスライススキャンからの、カメラを用いない三次元再構成およびモーションブラーの阻止]]
このスライススキャン3D再構成方法は、カメラを必要としなくとも、例えば体内の腫瘍等といった、物体内部の深いところにある構造を再構成することができる。図22は、この種のスキャナ2200を表す。ただし、各画像スライスが少なくとも1つの他のスライスと交差していればよい具体化例2とは異なり、本具体化例では各画像スライス2210が少なくとも2つの他の画像スライスと交差することが要求される。
物体内部に存在し得る構造のスライススキャンからの、カメラを用いない三次元再構成およびモーションブラーの阻止には、下記の事項が必要となる:
1. 各画像スライスが少なくとも2つの他の画像スライスと交差すること。
2. 図22の物体2270が静止している場合だけでなく、所定の空間領域内で当該物体が動く場合にも、画像スライス同士が必ず交差すること。
3. 任意の一つの画像スライスから任意の他の画像スライスへと移動するパスを作り出すよう画像スライス同士が必ず交差すること。
4. 交差スライス同士が、交差の線に沿って強度値の共通セット(共通の強度ベクトルと称される)を必ず共有していること。
5. 一つのスライスをスキャンするのに必要な時間は、1回のスキャンスライス取得最中にモーションブラーが発生しないように十分に高速とされる。あるいは、スライススキャン最中のモーションブラーは、無視可能なまでに著しく小さい。
6. 図22のプログラム可能なデジタルコンピュータ又はデジタルシグナルプロセッサ2230が、スライススキャナ2220を制御し、当該スライススキャナ2220の出力を処理してディスプレイ2250および/またはストレージ2260に出力すること。
上記の要件が満たされていることを前提として、図22〜図34を参照しながら、OCT、CAT、超音波、MRI、ソナー、レーダー、同様の装置などのスライススキャン装置2220についての3D物体再構成のこの方法について説明する。そのような装置は、図22に示すように物体の内部をスキャンすることが可能である。
図23Aは、スキャンスライス同士が交差する放射状スキャンパターンの一例である。各スキャンは、前記物体の二次元画像「スライス」を表す画像スライススキャンを生成する。図22の各スキャンスライス2210や図23Aのスライス2301,2302,2303の位置は、前記スキャン機の枠(フレームワーク)2280に対する位置であり、スキャンフィールド2280内のどこに物体2260が位置しているのかについては分からない。前記画像スライスの位置は、物体の動きの有無にかかわらず、当該スキャンスライスが実際にスキャンされた前記物体上の位置に相当する。物体の動きがないと仮定すると、当該物体2300に対する各画像スライス2301,2302,2303の相対位置(すなわち、各画像スライスがスキャン時において実際に撮られた前記物体上の位置)は、図23Aに示す機械的スキャンパターンの様になるであろう。これに対して、異なるスキャンスライスが取得される際に前記物体が動いていたとすると、これらの画像スライスは、図23Aに示すような想定位置で前記物体と交差するのではなく、図23Bに示すような位置で前記物体と交差することになるであろう。強調すべき点は、スキャン中に物体2300が動いて且つこのような動きが不明である場合、補正なしではこれらの画像スライスの位置が不正確になるということである。
つまり、図23Aには、物体の動きがないと仮定した場合に前記画像スライス同士の相対位置になると予想される、物理的スキャンパターンが示されている。
図23Bには、物体2300がスキャン中に動いたことで前記画像スライスが実際に取得された、前記物体上の位置が示されている。
この再構成アルゴリズムの目標は、スキャンされた画像スライスを、物体の動きを把握していない想定静止位置から、前記物体が動いたときに当該物体上で実際にスキャンが行われた正確な場所へとシフトさせることである。この再構成過程にとって重要なのは、交差する画像スライス同士が、図24に示すように交差の線に沿ってx,y,zにおいて強度値の共通セットを必ず共有しているという点である。
交差スライス同士は、交差の線に沿って強度値の共通セット(共通の強度ベクトルと称される)を必ず共有している。図24の例では:
12=画像スライス1(2401)と画像スライス2(2402)とが共通して有している強度値;
13=画像スライス1(2401)と画像スライス3(2403)とが共通して有している強度値;および
23=画像スライス2(2402)と画像スライス3(2403)とが共通して有している強度値;
が該当する。
用途によっては、前記共通の強度ベクトルが、100%のマッチ(合致)を要求するものではなく、高い割合(%)の合致データ点で構成されるものとされてもよい。
分かり易くするために、この再構成過程を三次元ではなく二次元空間内で説明する。これを踏まえたうえで、図26は、図25に示す三次元モデルの二次元平面図である。図26の鎖線は、物体の再構成を可能にするための、画像スライス同士の交差が生じる空間領域2510を画定している。
この再構成例をより現実的なものにするために、画像スライス2(2402)が、共通の強度ベクトルI23と同じ値のセットである2つの強度ベクトルをさらに有していると仮定する。図27に、これら同一強度ベクトルI23の位置を示す。
この3D再構成は、下記のようにして進められる:
ステップ1:各画像スライス2401,2402,2403ごとに、画像スライスのペア間での全てのマッチ(合致)有り強度ベクトルを探し出すことで、許容の探索領域内において、交差画像スライス候補を見つけて記録する。各スライス内の前記マッチ(合致)有り強度ベクトルの位置を記録する。
なお、本再構成過程中のこのステップでは、前記スライス同士がどのように結合しているのかは不明である。
このステップで判明しているのは、図28、図29及び図30に示すような強度ベクトル位置を有する、3つのスライスが存在しているということである。
本再構成過程中のこのステップでは、I23ベクトル位置のうち、画像スライス2と画像スライス3との正確な交差を表すI23ベクトル位置がどれなのかが分かっていない。
ステップ2:下記の条件が満たされるようにしながら、前記画像スライス同士を組み立てて前記物体の最終的なモデルを生成する:
1. スキャンデータ内の交差画像スライスの各ペアが、再構成後の最終的なモデルにおいても必ず交差していること。
2. 最終的なモデルにおいても、各スライス内の全ての強度ベクトル位置が維持されるように、特には、前記共通のベクトルの位置が交差スライス間で共有されるように、スライス同士が必ず交差していること。
3. 2つの画像スライスが共通の強度ベクトルを有している場合に、当該画像スライス内にその共通の強度ベクトルと同じものが複数の位置で出現したときには、これらの位置の一つのみが、最終的なモデルにおいて当該画像スライス間の交差として使用可能であること。
4. 画像スライスのペアが2種類以上の、相異なる値の共通の強度ベクトルを有している場合(この場合は、一つのスライス内に同じ値のものが複数の異なる位置に存在している場合とは異なる)、最終的なモデルではそれらのうちの1種類の共通の強度ベクトルのみが使用可能であること。
5. 共通のベクトルにより特定される線に沿って2つの交差画像スライス同士を結合すると、画像スライス1(2401)の強度値と画像スライス2(2402)の値とが位置合わせされるため、z高さ軸においても当該2つのスライス同士が位置合わせされるようになること。
ステップ2のルールが下記のようにして適用されることで、最終的なモデルが構築される:
1. 画像スライス1と画像スライス2とが、共通のベクトルI12で接合される(図31を参照)。
2. 画像スライス3(図30の2403)が画像スライス2(図29の2402)と交差し得る位置の候補は3つ存在する。図32では、これらの3つの位置が鎖線3201,3202,3203で表されている。これらの位置は、I23−1,I23−2,I23−3である。ステップ2によれば、最終的なモデルではこれら3つの位置候補のうちの一つのみが使用可能であると共に、取得データ内での交差スライスは最終的なモデルにおいても全て使用されていなければならない。正確な交差を求めるには、まず、画像スライス3(図30の2403)が図28のスライス1へと共通のベクトルI13で接合される。スキャンで取得した画像スライスから、スライス3でのベクトルI13とI23との間の距離は図30に示すようにDであることが分かっている。図32に示すように、ベクトルI13を中心として半径Dの円3200を描くと、I23−1が結合可能な唯一の位置であることが分かるので、当該I23−1を画像スライス2と画像スライス3との正確な交差として選択する。すなわち、画像スライス2(図32の2402)ではI23−1のみが、I13とI23との間の距離をDとした場合に画像スライス3(図32の3202)と交差することが可能である。図33を参照されたい。一般的に言って、交差画像スキャン及び対応する画像スライスの数が増えるほど、全てのスライスを正確な位置付けに定めるのに役立つ空間的制約が多くなる。
上記の例では並進運動を補償しているが、前記アルゴリズムは、斜め方向に沿って共通のベクトルを探索することで回転運動を補償することも可能である。また、測定したパラメータから、スライス交差の探索の開始位置を示すための追加のシステム・物体情報が外挿されることも可能であり得る。
この情報は:
1. 図34A及び図34Bに示すような、システムの機械的スライススキャン角度及び機械的スライス位置についての知識(情報);ならびに
2. スライス間での物体の動きの最大速度;
を含む。
i. 前記物体の最初のスキャンが画像スライス1であり(1番目のスキャンスライス=画像スライス1)であり、前記物体についての時間的及び空間的に連続するスライスがN秒間隔で取得されて、かつ、
ii. 物体の動きの最大速度がMミリメートル/秒である、
と仮定すると、1番目のスキャンスライスからの、時間的に2番目のスライスの最大探索領域は、半径:M(mm/秒)×N(秒)の球となる。
b. 物理的スキャン角度及びスキャン位置(図34A)についての知識と物体の動きの最大速度とを組み合わせることにより、連続する各スキャンについての探索領域を(内径円3410と外円3210との間に)制限することが可能となり得る。
強調すべき点は、最初の幾つかの(例えば、3つ又は4つ等)画像スライスが正確な前記共通のベクトル位置で結合されれば、この情報により、連続して取得される次の画像スライスの探索領域3410を制限できるということである。
この再構成アルゴリズムの主要なその他の特徴は、スキャンスライスの取得最中にモーションブラーが発生した場合にも、このブラーが軽減又は解消されることが可能となり得る点である。これは、各スキャンの領域及び時間を減らし且つ前記物体内部のスキャンされる交差スライスの総数を増やすことによって達成され得る。言い換えれば、各スキャンの大きさが、当該スキャンスライスの取得最中のモーションブラーを阻止又は抑制するように調節される。一例として、図34Cには、スライス3450でスキャンされる大きい領域を、4つの小さい部分重複領域(交差領域)3410,3420,3430,3440によってスキャンする様子が示されている。この例では、当該小さい領域のそれぞれをスキャンするのに必要な時間が、大きい領域3450をスキャンするのに必要な時間の約4分の1となることで、モーションブラーを軽減している。
[[三次元サブ断面を組み合わせることによって生成される全体モデル]]
物体の全表面へのアクセスを得るために、しばしば、図35に示すように相異なる角度3501,3502,3503から物体をスキャンすることが必要となる。
例えば、瞼(まぶた)で普段覆われている強膜の部分を含む、眼についての三次元モデルを生成するには、しばしば、図36に示すように当該眼3600を異なる向きつまり視線(3610,3620,3630,3640,3650,3660)にして取得した複数のスキャンを組み合わせることが必要となる。以下では、図37〜図42を参照しながら、同じ物体を異なる向きつまり異なる視線にして取得した複数のサブ断面を継ぎ合わせて全体3Dモデルを生成するためのアルゴリズムについて説明する。
図37は、2つのアライメント特徴(同図の2つの点3701,3702)を有する物体の、正面からの図である。
複数のサブ断面を継ぎ合わせるには、下記のステップを実行する:
ステップ1(図37):同じ物体からの2つの3D断面を位置合わせする場合を考える。各3D断面のカメラ画像内に存在する少なくとも2つのアライメント特徴(3701,3702)を選択し、各カメラ画像内の各特徴のx,yセントロイド(中心)を見つけ出す。各カメラ画像は、図37に示すように両方のアライメント特徴を含む必要がある。前記x,yセントロイド位置を用いて、前記3Dモデル断面から当該x,yセントロイド位置のz位置を抽出する。
ステップ2(図38):前記物体の双方の3D断面から、対応するアライメント特徴を突き止める。図38において、丸点(〇)付きの鎖線は物体断面1を示し、黒点(●)付きの実線は回転後物体断面2を示す。
長さ=D1のベクトルA(3801)および長さ=D2のベクトルB(3802)は、それら2つの断面間での、同じアライメント特徴の位置の差を表す(なお、この例ではD1>D2とする)。
ステップ3a(図39):並進の前処理
図39には、並進前の空間的関係が示されている。図39において、丸点(〇)付きの鎖線は物体断面1を示し、黒点(●)付きの実線は回動後物体断面2を示す。
このステップでは、第1のアライメント特徴の並進に関するベクトルA(3901)を選択する場合を考える。次に、断面2のモデルを、特徴1R(3902)と特徴1とが同じX,Y,Z座標になるようにベクトルAに沿って並進させる。
ステップ3b(図40):この図には、ステップ3aで述べた並進処理後の前記2つのモデルの空間的関係が示されている。
図40において、鎖線の画像4001は、3D物体断面1の処理前(元々)の位置である。
実線4002は、3D物体断面2の特徴1R(図39の3902)が図40の3D物体断面1の特徴1に重ね合わされた後の、前記回転後物体断面の位置を表している。
ステップ4a(図41):回転補正の前処理
図41では、実線の物体断面4101(位置合わせが済んでいる特徴4003を含む)の、回転処理前の様子が描かれている。
回転を補正するには、X,Y平面上に、位置合わせが済んでいない同一特徴2(4112),2R(4112R)を通る直線としてのベクトル1を定義する。
次に、位置合わせが済んでいる特徴4003の(X,Y,Z)を通り且つベクトル1と直交する直線としてのベクトル2を定義する。
回転を補正するには、モデル(実線)全体を、位置合わせが済んでいない2つの特徴2と特徴2R(それぞれ4112、4112R)とが同じX,Y,Z位置になるまでベクトル2周りに回転させる。
ステップ4b(図42):ステップ4aで述べた回転処理を実行する。
図42では、特徴1が特徴1Rに重ね合わされ(4003)、特徴2が特徴2Rに重ね合わされた(4203)後の様子が示されている。
図42に示すように、前記回転処理の完了後は全ての特徴及び前記2つのモデルがX,Y,Zにおいて位置合わせされている。
本明細書に記載した技術により可能となる改良は、簡単なテストで明らかになった。まず、ラインスキャナを用いて、参照特徴としての赤点を有する球体をスキャンした。一連の子午線スキャンが行われるときに、この球体を前記スキャナの正面に垂直な方向へと、当該スキャナから離れるように動かした。当該スキャン中にその球体が動いた総距離は15ミリメートルであった。システムには、この球体の経路についての情報を一切与えなかった。図43Aは、子午線スキャンのみが用いられた場合の結果である。得られた点がばらばらになっている点に注目されたい。
次に、赤点を有する同じ球体を、各子午線スキャンと同時に画像を撮像しながら再びスキャンした。さらに、図10(Fig. 10A〜Fig. 10D)を参照しながら前述したラインスキャンアルゴリズムを、前記赤点を参照特徴に利用して実行した。ここでも、システムにはこの球体の経路についての情報を与えず、かつ、当該スキャン中にその球体が動いた総距離を15ミリメートルとした。図43Bがその結果であり、前記球体がカメラに対して動いたとしても当該球体の詳細な形状を高精度に検出できるという、能力の顕著な改良を立証している。

Claims (20)

  1. 少なくとも1つの区別可能な視覚的特徴を有する物体の三次元表現を生成する装置であって、
    A)撮像軸に沿って方向付けられ、前記物体の一連の二次元画像を生成するカメラであって、各カメラ画像が前記少なくとも1つの区別可能な視覚的特徴の少なくとも1つを含む、カメラと、
    B)スキャンを生成するスキャナであって、各スキャンが前記物体についての複数のサンプリング測定値を含む、スキャナと、
    C)前記スキャナと前記カメラの間の定められた空間的関係を守るプラットフォームと、
    D)前記カメラ及び前記スキャナに接続された制御手段と、
    を備え、前記制御手段が、
    i)複数のサンプリング測定値をそれぞれ含む複数のスキャンラインを生成するために前記スキャナを制御することであって、前記スキャンラインのそれぞれが前記カメラによって観測される画像平面上で少なくとも1つの他のスキャンラインと交差することで当該画像平面上において任意の1つのスキャンラインから任意の他のスキャンラインへのパスを作り出す、前記スキャナを制御することと、
    ii)前記複数のスキャンラインのそれぞれについて、前記物体の画像であって、少なくとも1つの区別可能な視覚的特徴を含む画像を前記カメラから取り込むことにより、各スキャンラインに対してカメラ画像を取り込むことと、
    iii)前記カメラ画像同士を、当該カメラ画像同士に共通する前記区別可能な視覚的特徴を重ね合わせることによって位置合わせすることで、前記スキャンラインについても、対応する量だけ前記画像平面上で位置調整することと、
    iv)所与のスキャンラインごとに個々の前記サンプリング測定値同士を繋げることで、各スキャンラインの連続表現を三次元空間内に生成することと、
    v)2つのスキャンラインからなるセットの少なくとも1つに対して、
    (i)前記画像平面上の点であって、当該2つのスキャンラインの前記連続表現同士が交差する点を突き止め、
    (ii)当該2つのスキャンラインの前記連続表現同士が三次元空間内の共通点で交差するように少なくとも一方のスキャンラインを前記画像平面に対して垂直な平面上の前記撮像軸に沿って移動させることにより、前記スキャナの連続するスキャン間での前記物体の動きを補償することとを実行する、装置。
  2. 請求項1に記載の装置において、前記制御手段が、さらに、前記カメラ画像が別のカメラ画像と共通する少なくとも1つの区別可能な特徴を直接共有しているか、あるいは、前記カメラ画像が、先行するカメラ画像に位置合わせされた中間カメラ画像と共通する少なくとも1つの特徴を共有していることで、任意の1つのカメラ画像が少なくとも1つの他のカメラ画像に確実に位置合わせされることにより、前記カメラ画像同士を位置合わせする、装置。
  3. 請求項1に記載の装置において、前記制御手段が、さらに、2つ以上のスキャンラインの前記連続表現から前記物体の前記三次元表現を生成する、装置。
  4. 請求項1に記載の装置において、取り込まれる前記画像が、前記物体の表面の二次元画像であって、少なくとも1つの区別可能な視覚的特徴を含む二次元画像である、装置。
  5. 請求項1に記載の装置において、前記スキャナが表面高さスキャナであり、前記サンプリング測定値のそれぞれが、前記スキャンラインに沿った位置であって、選択された位置における、基準点から前記物体までの距離から求められる高さに相当する、装置。
  6. 請求項1に記載の装置において、前記スキャナが、三角測量センサ、ソナーユニット又はレーダーユニットである、装置。
  7. 請求項1に記載の装置において、前記サンプリング測定値を取得する時間は、スキャンラインのサンプリング中に発生するモーションブラーが無視できるほどに短い、装置。
  8. 少なくとも1つの区別可能な視覚的特徴を有する物体の三次元表現を生成する装置であって、
    A)撮像軸に沿って方向付けられ、前記物体の一連の二次元画像を生成するカメラであって、各カメラ画像が前記少なくとも1つの区別可能な視覚的特徴の少なくとも1つを含む、カメラと、
    B)スキャンを生成するスキャナであって、各スキャンが前記物体についての複数のサンプリング測定値を含む、スキャナと、
    C)前記スキャナと前記カメラの間の定められた空間的関係を守るプラットフォームと、
    D)前記カメラ及び前記スキャナに接続された制御手段と、
    を備え、前記制御手段が、
    i)複数のサンプリング測定値をそれぞれ含む複数のスキャンスライスを生成するために前記スキャナを制御することであって、当該スキャンスライスのそれぞれが前記カメラによって観測される画像平面上で少なくとも1つの他のスキャンスライスと交差することで当該像面上において任意の1つのスキャンスライスから任意の他のスキャンスライスへのパスを作り出す、前記スキャナを制御することと、
    ii)前記複数のスキャンスライスのそれぞれについて、前記物体の画像であって、少なくとも1つの区別可能な視覚的特徴を含む画像を前記カメラから取り込むことにより、各スキャンスライスに対してカメラ画像を取り込むことと、
    iii)任意の1つのカメラ画像が、別のカメラ画像と共通する少なくとも1つの区別可能な特徴を直接共有しているか、又は、先行するカメラ画像に位置合わせされた中間カメラ画像と共通する少なくとも1つの特徴を共有していることで、少なくとも1つの他のカメラ画像に確実に位置合わせされるようにすることと、
    iv)取り込まれた前記カメラ画像同士を、当該カメラ画像同士に共通する前記区別可能な視覚的特徴を重ね合わせることによって位置合わせすることで、前記スキャンスライスについても、対応する量だけ前記画像平面上で位置調整することと、
    v)各スライススキャンから前記物体の表面を抽出し、かつ、当該スライススキャンの前記表面における個々の前記サンプリング測定値同士を繋げることで、表面ラインを指す連続表現であって、物体表面の連続表現を生成することと、
    vi)2つの物体表面ラインからなるセットの少なくとも1つに対して、
    (i)前記画像平面上の点であって、当該2つの物体表面ラインの前記連続表現同士が交差する点を突き止め、
    (ii)当該2つの表面ラインの前記連続表現同士が三次元空間内の共通点で交差するように、少なくとも一方の表面ラインをそのスライススキャンと共に、前記画像平面に対して垂直な平面上の前記撮像軸に沿って移動させることにより、前記スキャナの連続するスライススキャン間での前記物体の動きを補償することとを実行する、装置。
  9. 請求項8に記載の装置において、前記制御手段が、さらに、2つ以上の前記スキャンスライスから前記物体の前記三次元表現を生成する、装置。
  10. 請求項8に記載の装置において、取り込まれる前記画像が、前記物体の表面の二次元画像であって、少なくとも1つの区別可能な視覚的特徴を含む二次元画像である、装置。
  11. 請求項8に記載の装置において、前記スキャナが二次元スキャナ又は三次元スキャナであり、前記サンプリング測定値のそれぞれが、物体から返ってきた信号の強度であって、前記スキャナにおける特定のx,y又はx,y,z座標で測定された強度に相当する、装置。
  12. 請求項8に記載の装置において、前記スキャナが、OCT、CAT、超音波、MRI、ソナー又はレーダーである、装置。
  13. 請求項8に記載の装置において、前記サンプリング測定値を取得する時間は、スキャンスライスのサンプリング中に発生するモーションブラーが無視できるほどに短い、装置。
  14. 物体の三次元表現を生成する装置であって、
    A)スライススキャンを生成するスキャナであって、各スライススキャンがサンプルの二次元アレイを含み、各サンプルが前記物体についての検出された物理的特性の強度を表す、スキャナと、
    B)前記スキャナに接続された制御手段と、
    を備え、前記制御手段が、
    i)複数のスライススキャンを生成するために前記スキャナを制御することであって、連続するスライススキャン間で前記物体が動いたとしても各スライススキャンが少なくとも2つの他のスライススキャンと交差するように前記スライススキャンが配置され、かつ、各スライススキャンから任意の他のスライススキャンへの連続パスが存在するように前記スライススキャンが交差する、前記スキャナを制御することと、
    ii)所与のスキャンスライスが、交差するスライスのうち選択した交差スライスと共通して有する、共通の強度値のセットを突き止めることと、
    iii)前記所与のスキャンスライスと前記選択した交差スライスが共通して有する前記強度値同士を位置合わせすることにより、前記物体の前記三次元表現内での前記所与のスキャンスライスと前記選択した交差スライスの位置を調整することとを実行する、装置。
  15. 請求項14に記載の装置において、前記制御手段が、さらに、
    iv)前記所与のスライスが前記選択したスライスと共通して有する、共通の強度値のセットを2つ以上突き止めることと、
    v)第3のスライスに対する前記所与のスライスの相対位置情報を用いて、共通の強度値の2つ以上の前記セットのうちのいずれのセットを前記所与のスキャンスライスと前記選択した交差スライスの位置を調整するのに使用するかを決定することとを実行する、装置。
  16. 請求項14に記載の装置において、前記制御手段が、さらに、(a)スライススキャン角度及びスライス位置、ならびに(b)スキャンスライス間での物体の動きの既知の最大速度を用いて、交差しているスライスを突き止めるための探索領域の大きさ及び位置を制限することを実行する、装置。
  17. 請求項14に記載の装置において、前記サンプルを取得する時間は、スライススキャンにおける連続するサンプル中に発生するモーションブラーが無視できるほどに短い、装置。
  18. 請求項14に記載の装置において、前記スキャナが、OCT、CAT、超音波、MRI、ソナー又はレーダーである、装置。
  19. 請求項14に記載の装置において、前記制御手段が、さらに、各スキャンスライスの大きさを、当該スキャンスライスの取得最中のモーションブラーを阻止又は抑制するように調節することを実行する、装置。
  20. 請求項8に記載の装置において、前記制御手段が、さらに、各スキャンスライスの大きさを、当該スキャンスライスの取得最中のモーションブラーを阻止する又は抑制するように調節することを実行する、装置。
JP2019524121A 2016-07-19 2017-07-06 表面スキャン又はスライススキャンからの物体の三次元モデルの再構成であって、モーションブラーを補償する再構成 Pending JP2019525369A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US15/213,709 2016-07-19
US15/213,709 US9489753B1 (en) 2016-07-19 2016-07-19 Reconstruction of three dimensional model of an object from surface or slice scans compensating for motion blur
PCT/US2017/040801 WO2018017327A1 (en) 2016-07-19 2017-07-06 Reconstruction of three dimensional model of an object from surface or slice scans compensating for motion blur

Publications (1)

Publication Number Publication Date
JP2019525369A true JP2019525369A (ja) 2019-09-05

Family

ID=57211193

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019524121A Pending JP2019525369A (ja) 2016-07-19 2017-07-06 表面スキャン又はスライススキャンからの物体の三次元モデルの再構成であって、モーションブラーを補償する再構成

Country Status (7)

Country Link
US (2) US9489753B1 (ja)
EP (1) EP3488421A4 (ja)
JP (1) JP2019525369A (ja)
CN (1) CN110023998A (ja)
AU (1) AU2017299445A1 (ja)
CA (1) CA3031345A1 (ja)
WO (1) WO2018017327A1 (ja)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10054802B2 (en) 2011-10-17 2018-08-21 Eydeal Scanning, LLC Topology guided ocular lens design
US9489753B1 (en) * 2016-07-19 2016-11-08 Eyedeal Scanning, Llc Reconstruction of three dimensional model of an object from surface or slice scans compensating for motion blur
US10803634B2 (en) * 2016-07-19 2020-10-13 Image Recognition Technology, Llc Reconstruction of three dimensional model of an object compensating for object orientation changes between surface or slice scans
EP3644830A4 (en) * 2017-06-27 2021-10-27 Eyedeal Scanning, LLC TOPOLOGY GUIDED EYE LENS DESIGN
US10740645B2 (en) * 2018-06-29 2020-08-11 Toyota Research Institute, Inc. System and method for improving the representation of line features
JP7417981B2 (ja) * 2019-10-15 2024-01-19 株式会社トーメーコーポレーション 眼科装置
US11563899B2 (en) 2020-08-14 2023-01-24 Raytheon Company Parallelization technique for gain map generation using overlapping sub-images
US11889049B2 (en) 2020-08-14 2024-01-30 Raytheon Company Gain map generation with rotation compensation
WO2022165753A1 (zh) * 2021-02-05 2022-08-11 中国科学院深圳先进技术研究院 一种用于眼睑翻开的软体装置及方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110235884A1 (en) * 2010-03-25 2011-09-29 Emory University Atlas-Assisted Synthetic Computed Tomography Using Deformable Image Registration
JP2014530086A (ja) * 2011-10-17 2014-11-17 アイディールスキャニングリミテッド ライアビリティカンパニー 眼のトポグラフィを特定するための方法及び装置

Family Cites Families (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB1562199A (en) * 1975-12-02 1980-03-05 Emi Ltd Radiography
US4582404A (en) 1984-07-16 1986-04-15 Hamilton C B Sagometer
US4761071A (en) 1984-11-06 1988-08-02 Baron William S Apparatus and method for determining corneal and scleral topography
DE69227902T3 (de) 1991-04-29 2010-04-22 Massachusetts Institute Of Technology, Cambridge Vorrichtung für optische abbildung und messung
US5473392A (en) 1992-05-01 1995-12-05 Summit Technology, Inc. Method and system for topographic measurement
AU716040B2 (en) 1993-06-24 2000-02-17 Bausch & Lomb Incorporated Ophthalmic pachymeter and method of making ophthalmic determinations
US5493109A (en) 1994-08-18 1996-02-20 Carl Zeiss, Inc. Optical coherence tomography assisted ophthalmologic surgical microscope
US5491524A (en) 1994-10-05 1996-02-13 Carl Zeiss, Inc. Optical coherence tomography corneal mapping apparatus
US7246905B2 (en) 1998-11-13 2007-07-24 Jean Benedikt Method and an apparatus for the simultaneous determination of surface topometry and biometry of the eye
BR0015065B1 (pt) 1999-10-21 2010-10-05 sistema para determinar aberrações refrativas de um olho.
JP4067825B2 (ja) 1999-10-21 2008-03-26 テクノラス ゲーエムベーハー オフタルモロギッシェ システム 光処置のための虹彩の認識とトラッキング
US6634751B2 (en) 2001-09-10 2003-10-21 Bausch & Lomb Incorporated Intraocular lens derivation system
CN100438819C (zh) 2001-12-14 2008-12-03 博士伦公司 改进的顺序扫描的波阵面像差测量和视网膜地形图测量
US6741359B2 (en) 2002-05-22 2004-05-25 Carl Zeiss Meditec, Inc. Optical coherence tomography optical scanner
US6816567B2 (en) * 2002-07-15 2004-11-09 Ge Medical System Global Technology Company, Llc System and method for acquiring x-ray data
DE10333558A1 (de) 2003-07-23 2005-03-17 Technovision Gmbh Hornhautkeratoskopie beruhend auf einer Hornhaut- Wellenfrontmessung
US6996206B2 (en) * 2004-04-12 2006-02-07 General Electric Company Method, system and storage medium for reference normalization for blocked reference channels
US20060004291A1 (en) * 2004-06-22 2006-01-05 Andreas Heimdal Methods and apparatus for visualization of quantitative data on a model
US8317327B2 (en) 2005-03-16 2012-11-27 Lc Technologies, Inc. System and method for eyeball surface topography as a biometric discriminator
US7756325B2 (en) * 2005-06-20 2010-07-13 University Of Basel Estimating 3D shape and texture of a 3D object based on a 2D image of the 3D object
US20070167784A1 (en) * 2005-12-13 2007-07-19 Raj Shekhar Real-time Elastic Registration to Determine Temporal Evolution of Internal Tissues for Image-Guided Interventions
JP5448198B2 (ja) 2007-12-21 2014-03-19 サイファイ メドテック エッセ.エッレ.エッレ. 眼の3次元解析用デュアルシャインプルーフシステム
WO2009124040A1 (en) 2008-04-01 2009-10-08 Scientific Optics, Inc. Universal contact lens posterior surface construction
US20120018828A1 (en) 2010-07-23 2012-01-26 Stion Corporation Sodium Sputtering Doping Method for Large Scale CIGS Based Thin Film Photovoltaic Materials
ES2937241T3 (es) 2010-10-15 2023-03-27 Lensar Inc Sistema y método de iluminación controlada por barrido de estructuras dentro de un ojo
EP2654606B1 (en) * 2010-12-21 2021-05-26 3Shape A/S Motion blur compensation
US9489753B1 (en) * 2016-07-19 2016-11-08 Eyedeal Scanning, Llc Reconstruction of three dimensional model of an object from surface or slice scans compensating for motion blur
CN110464301A (zh) * 2013-01-24 2019-11-19 凯内蒂科尔股份有限公司 用于在医学成像扫描期间追踪和补偿患者运动的***、设备和方法
CN104958061B (zh) * 2015-07-28 2016-09-14 北京信息科技大学 双目立体视觉三维成像的眼底oct成像方法及其***

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110235884A1 (en) * 2010-03-25 2011-09-29 Emory University Atlas-Assisted Synthetic Computed Tomography Using Deformable Image Registration
JP2014530086A (ja) * 2011-10-17 2014-11-17 アイディールスキャニングリミテッド ライアビリティカンパニー 眼のトポグラフィを特定するための方法及び装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
KIO KIM, 外5名: ""Intersection Based Motion Correction of Multislice MRI for 3-D in Utero Fetal Brain Image Formation", IEEE TRANSACTIONS ON MEDICAL IMAGING, vol. 第29巻, 第1号, JPN6021033672, January 2010 (2010-01-01), pages 146 - 158, ISSN: 0004753420 *

Also Published As

Publication number Publication date
EP3488421A4 (en) 2020-07-29
AU2017299445A1 (en) 2019-02-28
US9489753B1 (en) 2016-11-08
CN110023998A (zh) 2019-07-16
US20170169588A1 (en) 2017-06-15
WO2018017327A1 (en) 2018-01-25
US9972101B2 (en) 2018-05-15
EP3488421A1 (en) 2019-05-29
CA3031345A1 (en) 2018-01-25

Similar Documents

Publication Publication Date Title
JP2019525369A (ja) 表面スキャン又はスライススキャンからの物体の三次元モデルの再構成であって、モーションブラーを補償する再構成
CN105783726B (zh) 一种基于线结构光视觉检测的曲线焊缝三维重建方法
JP4245963B2 (ja) 較正物体を用いて複数のカメラを較正するための方法およびシステム
US20220117696A1 (en) Optical coherence tomography augmented reality-based surgical microscope imaging system and method
JP5580164B2 (ja) 光学情報処理装置、光学情報処理方法、光学情報処理システム、光学情報処理プログラム
CN102670168B (zh) 眼科设备及其控制方法
JP5858433B2 (ja) 注視点検出方法及び注視点検出装置
Brolly et al. Implicit calibration of a remote gaze tracker
IL286401B (en) Creating one or more edges of light intensity to create 3D models of objects
US10803634B2 (en) Reconstruction of three dimensional model of an object compensating for object orientation changes between surface or slice scans
JP7218435B2 (ja) キャリブレーション装置、キャリブレーション用チャート、およびキャリブレーション方法
JP2007171092A (ja) 三次元計測用マーカとこれを用いた三次元計測方法
JP6469360B2 (ja) 眼の画像処理の改良
JPWO2017033692A1 (ja) 3次元形状データの作成方法及びプログラム
US20180232886A1 (en) Image processing apparatus, image processing method, and image processing program
Horvath et al. Towards an ultrasound probe with vision: structured light to determine surface orientation
US20180293764A1 (en) Reconstruction of three dimensional model of an object compensating for object orientation changes between surface or slice scans
CN109785375A (zh) 基于3d建模的距离检测方法及装置
US10674902B2 (en) Information processing apparatus, operation method thereof, and computer program
US11849996B2 (en) Method of processing optical coherence tomography (OCT) data, method of OCT imaging, and OCT data processing apparatus
JP6305502B2 (ja) 眼科装置及び眼科装置の作動方法
Santini et al. Depth perception in an anthropomorphic robot that replicates human eye movements
CN112419361B (zh) 一种目标追踪方法和仿生视觉装置
JP7133900B2 (ja) 撮影位置特定システム、撮影位置特定方法、及びプログラム
Kahmen et al. 3D object sensing using rotating CCD cameras

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200706

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210817

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210831

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20211110

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20220419