JP7438555B2 - 三次元計測方法および三次元計測装置 - Google Patents

三次元計測方法および三次元計測装置 Download PDF

Info

Publication number
JP7438555B2
JP7438555B2 JP2021516082A JP2021516082A JP7438555B2 JP 7438555 B2 JP7438555 B2 JP 7438555B2 JP 2021516082 A JP2021516082 A JP 2021516082A JP 2021516082 A JP2021516082 A JP 2021516082A JP 7438555 B2 JP7438555 B2 JP 7438555B2
Authority
JP
Japan
Prior art keywords
phase
temporal
time
camera
depth
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021516082A
Other languages
English (en)
Other versions
JPWO2020218208A1 (ja
Inventor
貴弘 櫛田
賢一郎 田中
卓哉 舩冨
康博 向川
隆仁 青砥
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nara Institute of Science and Technology NUC
Original Assignee
Nara Institute of Science and Technology NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nara Institute of Science and Technology NUC filed Critical Nara Institute of Science and Technology NUC
Publication of JPWO2020218208A1 publication Critical patent/JPWO2020218208A1/ja
Application granted granted Critical
Publication of JP7438555B2 publication Critical patent/JP7438555B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electromagnetism (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Description

本発明は、三次元計測方法および三次元計測装置に関し、特に、アクティブ照明を使用して物体の三次元形状を計測する技術に関する。
現在、三次元計測技術が三次元再構成、物体検知、ロボティクス、自動運転などのさまざまなアプリケーションに広く用いられている。コンピュータビジョンの分野では、対象物に変調照明を照射するアクティブ照明を使用した三次元計測技術として、時間変調を利用したToF(Time of Flight)法と空間変調を利用した位相シフト法とが知られている。
ToF法は、時間的な変調が施された照明(例えば、連続パルス光)を空間に照射して空間内の物体からの反射光を受光し、照明を照射してから反射光を受光するまでの時間、すなわち、時間位相から当該物体の三次元形状を求めるものである(例えば、下記非特許文献1を参照)。一方、位相シフト法は、空間的な変調が施された照明(例えば、正弦波縞パターン)を空間に照射して空間内の物体に投影された光パターンの変形の様子から空間位相を検出し、視差による三角測量原理に基づいて当該物体の三次元形状を求めるものである(例えば、下記非特許文献2を参照)。
また、ToF法と位相シフト法とを組み合わせたToFアシスト・ストラクチャード・ライト(ToF assisted structured light)法という方法も知られている。例えば、空間内の物体に複数の高周波ストラクチャード・ライト・パターンを位相シフトしながら投影してそれを時間相関カメラで撮像し、各撮像画像の明領域から得られる断片的なToF情報を組み合わせて全体的なToF奥行マップを生成し、当該ToF奥行マップを用いて位相シフト法における後述する位相曖昧性を解消する手法が提案されている(例えば、下記特許文献1を参照)。また、局所領域内の対象物にストラクチャード・ライトの変調パターンを照射して検出器が反射光を捕捉するまでの時間に基づいて当該対象物までの距離を決定し、個々の時間に検出器の各画素群により捕捉された光からストラクチャード・ライトのパターンを含むフレームを生成する手法が提案されている(例えば、下記特許文献2を参照)。
米国特許第10061028号明細書 国際公開第2017/123452号
R. Lange and P. Seitz, "Solid-State Time-of-Flight Range Camera," IEEE Journal of Quantum Electronics, vol. 37, no. 3, pp. 390-397, MARCH 2001. M. Gupta and S. Nayer, "Micro Phase Shifting," in Proc. CVPR, 2012, pp. 813-820.
ToF法にせよ位相シフト法にせよアクティブ照明を使用した三次元計測で問題となるのは位相曖昧性である。すなわち、位相は2πで一周することから観測される時間位相あるいは空間位相は0から2πまでの範囲にラッピング(wrapping)されてしまい、位相2πn+φ(ただし、nは自然数であり、0≦φ<2πである。)はすべて位相φとして観測される。このため、観測された位相φから実際の位相2πn+φを推定してその推定位相に対応する奥行きを算出する位相アンラッピング(unwrapping)が必要になるが、「n」が一意に決定できないことにより奥行きの候補が複数存在するというのが位相曖昧性の問題である。上記特許文献1、2に記載の従来技術ではToF法と位相シフト法とを組み合わせているものの、先にToF法を適用し、その後位相シフト法を適用するといったようにToF法と位相シフト法をそれぞれ別個に適用しているため、依然として位相曖昧性の問題が残る。
このような位相曖昧性問題を解決する方法の一つが照明の変調周波数を下げることである。照明の変調周波数を下げると0から2πまでの一位相でカバーできる奥行きレンジが広くなるため位相曖昧性問題は解消される。しかし、その一方で、照明の変調周波数を下げると奥行き計測精度が下がってしまうという別の問題が生じる。すなわち、高精度の三次元計測が必要なアプリケーションでは照明の変調周波数を下げる方法は採用し難い。
位相曖昧性問題を解決する別の方法は変調周波数をさまざまに切り替えながら照明を変調することである。この方法の利点は、各変調周波数では位相曖昧性があっても複数の変調周波数による観測位相から実際の位相を一意に決定することができる点にある。すなわち、照明の変調周波数を下げずに位相曖昧性を解消できるため、高精度な三次元計測が実現できる。しかし、この方法は照明の変調周波数を切り替えて何度も照明を照射する必要があるため計測速度の低下が避けられず、時々刻々と形状が変化する動体物の三次元形状をリアルタイムに計測する用途には不向きである。
このように変調照明を使用した三次元計測には、位相曖昧性の存在により、計測精度と計測範囲および計測速度との間にトレードオフが存在する。すなわち、計測範囲を広げるまたは計測速度を上げようとすると計測精度が下がってしまい、逆に計測精度を上げようとすると今度は計測範囲が狭くなるかまたは計測速度が低下してしまう。
上記問題に鑑み、本発明は、上記のトレードオフを克服して高精度、広い奥行き範囲、高フレームレートで物体の三次元形状を計測することができる三次元計測方法および三次元計測装置を提供することを目的とする。
本発明の一局面に従うと、プロジェクタから時間的および空間的に変調された時空間変調照明を空間に照射して時間相関カメラで空間を撮像する第1のステップと、前記時間相関カメラの撮像画像の各ピクセルについて、当該ピクセルの時間相関値から時間位相および空間位相を算出する第2のステップと、前記時間相関カメラの撮像画像の各ピクセルについて、前記算出された時間位相および空間位相のペアに対応する奥行きを求める第3のステップと、を備えた三次元計測方法が提供される。
また、本発明の一局面に従うと、時間的および空間的な変調を施した時空間変調照明を生成して空間に照射するプロジェクタと、前記時空間変調照明が照射された空間を撮像する時間相関カメラと、前記プロジェクタおよび前記時間相関カメラの動作を制御するコントローラと、を備え、前記コントローラは、前記時間相関カメラの撮像画像の各ピクセルについて、当該ピクセルの時間相関値から時間位相および空間位相を算出し、当該算出した時間位相および空間位相のペアに対応する奥行きを求めるものであることを特徴とする三次元計測装置が提供される。
本発明によると、時間および空間の各ドメインでの位相曖昧性を相互に補完・補償して位相曖昧性の問題が解消される。これにより、高精度、広い奥行き範囲、高フレームレートで物体の三次元形状を計測することができる。
本発明の一実施形態に係る三次元計測装置のハードウェア構成図 各種変調照明を使用した三次元計測の模式図 時間位相および空間位相のそれぞれと奥行き候補との関係を表すグラフ 本発明の一実施形態に係る三次元計測方法のフローチャート 検証実験1に係る三次元計測のシチュエーションを説明する図 図5AのシチュエーションについてのToF法、位相シフト法および本実施形態の各方法で生成された奥行きマップ 図5Bの各奥行きマップに記した水平方向線分についてのToF法、位相シフト法および本実施形態の各方法で算出された奥行き候補を表すグラフ 検証実験2に係る三次元計測のシチュエーションを説明する図 図6AのシチュエーションについてのToF法、位相シフト法および本実施形態の各方法で生成された奥行きマップ 図6Bの各奥行きマップに記した水平方向線分についてのToF法、位相シフト法および本実施形態の各方法で算出された奥行き候補を表すグラフ
以下、適宜図面を参照しながら、実施の形態を詳細に説明する。ただし、必要以上に詳細な説明は省略する場合がある。例えば、既によく知られた事項の詳細説明や実質的に同一の構成に対する重複説明を省略する場合がある。これは、以下の説明が不必要に冗長になるのを避け、当業者の理解を容易にするためである。
なお、発明者は、当業者が本発明を十分に理解するために添付図面および以下の説明を提供するのであって、これらによって特許請求の範囲に記載の主題を限定することを意図するものではない。
≪装置構成例≫
図1は、本発明の一実施形態に係る三次元計測装置100のハードウェア構成図である。本実施形態に係る三次元計測装置100は、プロジェクタ10と、時間相関カメラ20と、コントローラ30とを備えている。プロジェクタ10および時間相関カメラ20は、プロジェクタ10から照射された照明で照らされた空間をカメラ20が撮像可能なように図略の支持部材に位置決めされて固定されている。プロジェクト10および時間相関カメラ20とはケーブルで接続されている。
プロジェクタ10は、コリメートレンズ付きの近赤外レーザーダイオード101と、拡大光学系102と、DMD(Digital Micromirror Device)103と、投影光学系104とを備え、時間的および空間的な変調が施された時空間変調照明105を生成して空間に照射する。具体的には、レーザーダイオード101は、コントローラ30の制御により連続レーザーパルス光106を発生させる。拡大光学系102は、レーザーダイオード101から射出されるコリメートビーム(連続レーザーパルス光106)を受けてそのビーム径をDMD103の有効領域に拡大してDMD103に拡大連続レーザーパルス光107を入射する。DMD103は、CMOS(Complementary Metal Oxide Semiconductor)プロセスで作られた半導体集積回路上に多数の可動式の微小鏡面(マイクロミラー)を平面状に配列したMEMS(Micro Electro Mechanical Systems)デバイスであり、個々のマイクロミラーの動作を制御することで拡大光学系102からの拡大連続レーザーパルス光107を所望のパターンで反射させて正弦波縞状の空間光パターン108を生成する。投影光学系104は、DMD103で生成された空間光パターン108を受けてそれを拡散して空間に時空間変調照明105を投射する。
時間相関カメラ20は、図略の結像光学系により結像された光学像を撮像して時間相関画像を生成する時間相関イメージセンサ201と、メモリ202とを備えている。時間相関イメージセンサ201は、撮像画像の各ピクセルについて、経時変化する入射光信号と全ピクセル共通の参照信号との時間相関値を出力することができる。時間相関値とは入射光信号と参照信号との積を短時間積分した値のことである。メモリ202は、時間相関イメージセンサ201により生成される時間相関画像を一時的に記憶する。
コントローラ30は、図略のプロセッサ、メモリ、インターフェイスなどを備えたコンピュータ装置であり、プロジェクタ10および時間相関カメラ20の動作を制御し、また、時間相関カメラ20から適宜時間相関画像を取得してそれを処理する。具体的には、コントローラ30は、プロジェクタ10のレーザーダイオード101の発光制御、DMD103による空間光パターン108の生成に関する制御、時間相関カメラ20のシャッター制御などを行う。また、コントローラ20は、時間相関カメラ20のメモリ202から任意のピクセルの時間相関値を読みだして下述の三次元計測方法を実行して、時間相関カメラ20の撮像画像に写った物体の三次元形状を計測する。
≪時空間変調照明を使用した三次元計測方法≫
次に、本実施形態に係る三次元計測装置100による時空間変調照明を使用した三次元計測方法について、時間変調照明を使用するToF法および空間変調照明を使用する位相シフト法と対比して説明する。
図2は、各種変調照明を使用した三次元計測を模式的に表したものであり、(a)は時間変調照明を使用したToF法を、(b)は空間変調照明を使用した位相シフト法を、(c)は時空間変調照明を使用した本実施形態に係る三次元計測方法を表す。
ToF法は、図2(a)に示したように、光源から空間に時間変調した照明(例えば、連続パルス光)を照射してカメラで反射光を受光し、カメラに入射された光の振幅減衰および位相遅延すなわち時間位相を計測する。この計測された時間位相は光源から照射された光が空間内の物体に反射してカメラに戻ってくるまでの往復時間を表している。ToF法では光源から空間に照射され空間内の物体に反射してカメラに入射された光信号の時間相関値が算出される。具体的には、カメラとしてToFセンサを用いて、撮像画像の各ピクセルについて、経時変化する入射光信号と全ピクセル共通の参照信号との時間相関値を算出する。そして、カメラに入射された光信号と位相シフトされたN個の参照信号との時間相関から時間位相を算出することができる。例えば、k番目の参照信号について、ピクセルxの時間相関値c(x)は次式のように表される。
Figure 0007438555000001
ただし、g(t+2πk/N)は2πk/Nだけ位相シフトされた参照信号を、sはカメラへの入射光信号を、*は時間位相計算の演算子を、Aは振幅減衰を、φは時間位相を、Oは環境光を表す。例えば、N=4の場合、入射光信号の時間位相φおよび振幅減衰Aは、参照信号の位相をπ/2ずつシフトさせながら入射光を複数回観測することで次式のように直接算出することができる。
Figure 0007438555000002
そして、この算出した時間位相φを用いて、ピクセルxの奥行きdは次式のように表される。
Figure 0007438555000003
ただし、ωは時間変調周波数を、cは光速を表す。
位相シフト法は、図2(b)に示したように、プロジェクタから空間に空間変調した照明(例えば、正弦波縞パターン)を照射してカメラで反射光を受光し、空間内の物体に投影された光パターンの変形の様子から各ピクセルの空間位相を検出し、視差による三角測量原理に基づいてそのピクセルの奥行きを求める。例えば、l番目の位相シフトパターンについて、ピクセルxにおける入射光強度I(x)は次式で表される。
Figure 0007438555000004
ただし、Aは振幅減衰を、φはプロジェクタとカメラの視差による投射光パターンの空間位相を、Nは光パターン数を、Oはオフセットを表す。上式ではオフセットO、振幅減衰A、および空間位相φの3つが未知であるが、Nを3以上にして投射光パターンの位相をシフトしながら入射光を観測することでこれら3つの未知パラメータを求めることができる。例えば、N=4の場合、空間位相φおよび振幅減衰AはToF法のときと同様に次式で算出することができる。
Figure 0007438555000005
そして、この算出した空間位相φすなわち視差から三角測量原理に基づいて奥行きを求めることができる。例えば、平行ステレオ法に従うと、ピクセルxの奥行きdは次式のように表される。
Figure 0007438555000006
ただし、x-φ(x)/ωは視差を、ωは空間変調周波数を、fは焦点距離を、bはプロジェクタとカメラとのベースライン距離を表す。
上記のToF法および位相シフト法に対して、本実施形態に係る三次元計測装置100による三次元計測方法(以下、本方法という)は、図2(c)に示したように、プロジェクタ10から空間に時間変調と空間変調とを組み合わせた時空間変調照明を照射し、時間相関カメラ20でその反射光を受光して撮像画像の各ピクセルの時間位相および空間位相を求めてそのピクセルの奥行きを算出する。すなわち、本方法は、時間および空間の各ドメインでの位相曖昧性を相互に補完・補償して位相曖昧性の問題を解消するものである。
図3は、時間位相および空間位相のそれぞれと奥行き候補との関係を表すグラフである。縦軸は位相を、横軸は奥行きを表す。位相曖昧性のため、時間位相および空間位相のいずれについてもある位相に関して候補となる奥行きが複数存在する。時間位相に関する奥行き候補は、式(5)からわかるように、位相一周期内で時間位相に比例して増加し、位相一周期分の奥行き幅は奥行きの近い位置および遠い位置にかかわらず一定である。一方、空間位相に関する奥行き候補は、式(9)からわかるように、位相一周期内で空間位相に反比例して増加し、位相一周期分の奥行き幅は奥行き位置が遠くなるにつれて大きくなる。このため、時間位相と空間位相とでは奥行き位置に応じて位相一周期分の奥行き幅にずれが生じる。数式を用いて説明すると、時間位相φに関する奥行き候補dおよび空間位相φに関する奥行き候補dは、それぞれ、次の各式で表される。
Figure 0007438555000007
ここで、上述したように時間位相と空間位相とでは奥行き位置に応じて位相一周期分の奥行き幅にずれが生じるため、d=dを満たす整数ペア(n,n)は2つ以上存在しない。すなわち、近い位置から遠い位置までの幅広い奥行きレンジにおいて任意の奥行き候補に対応する時間位相および空間位相のペアは一意に絞り込まれる。
図4は、本発明の一実施形態に係る三次元計測方法のフローチャートである。まず、プロジェクタ10から時間的および空間的に変調された時空間変調照明105を空間に照射して時間相関カメラ20で空間を撮像する(S1)。ここで、時間相関イメージセンサ201における入射光信号の蓄積期間中は時空間変調照明105の空間位相を固定する、すなわち、DMD103による空間光パターン107の位相シフトは行わないようにする。このとき、時間相関カメラ20の撮像画像のピクセルxについて、k番目の参照信号およびl番目の位相シフトパターンに係るピクセルxの時間相関値c(x,k,l)は次式で表される。
Figure 0007438555000008
例えば、N=4、N=2の場合、時間位相φおよび空間位相φは次式で算出される。
Figure 0007438555000009
このように、ピクセルxの一連の6つの時間相関値からピクセルxの時間位相および空間位相を一度に算出することができる(S2)。
これら一連の6つの時間相関値は2タップ出力の時間相関カメラ20を使用すると3つのサブフレームで取得することができる。例えば、あるサブフレームでc(x,0,l)およびc(x,2,l)が取得され、次のサブフレームでc(x,1,l)およびc(x,3,l)が取得される。これは時間的および空間的な変調が施された時空間変調照明105を使用することによるメリットである。時空間変調照明105の照射回数をさらに削減するには、ベイヤーパターンに倣って、隣接する2つのピクセルまたはサブピクセルをまとめて1フレームにおける空間位相としてもよい。隣接ピクセル間で奥行きおよび反射率が同じであると仮定すると、隣接するピクセルでは投射光パターンの空間位相が1/ωだけずれている。この場合、空間位相の算出に必要なサブフレーム数はToF法と同じ2つにまで削減することができる。ToF法では2つのサブフレームで時間位相のみを算出するが、本実施形態に係る方法では2つのサブフレームで時間位相および空間位相の2つを一度に算出することができる。
算出された時間位相および空間位相のペアをキーとしてルックアップテーブルをサーチすることで、算出された時間位相および空間位相に対応する奥行きを求めることができる(S3)。奥行きdに対応する時間位相φ(d)および空間位相φ(d,x)は次式で表される。
Figure 0007438555000010
ただし、xは水平方向のピクセル位置である。空間位相は水平方向のピクセル位置に応じて異なるため、ルックアップテーブルはカメラ20の撮像画像における水平方向のピクセル位置ごとに用意しておく。例えば、水平方向のピクセル位置xのルックアップテーブルTxは、次式のように、奥行き候補Dに対応する時間位相φ(D)および空間位相φ(D,x)からなる位相ベクトルΦDi,x=[φ(D),φ(D,x)]の集合として定義することができる。
Figure 0007438555000011
そして、時間相関カメラ20の撮像画像のピクセルxについて、次式で表されるように、ルックアップテーブルに登録された位相ベクトルの中から、式(13)で算出された時間位相φ(x)および空間位相φ(x)からなる位相ベクトル[φ(x),φ(x)]とのユークリッド距離が最も近い位相ベクトルを見つける。
Figure 0007438555000012
こうして見つかった位相ベクトルに対応づけられた奥行きがピクセルxの奥行きである。上記の手順を時間相関カメラ20の撮像画像の各ピクセルについて実施することで、時間相関カメラ20の撮像画像に写った物体の三次元形状を計測することができる。
以上のように、本実施形態に係る三次元計測装置100よると、広い奥行き範囲で高精度に物体の三次元形状を計測することができる。さらに、本実施形態に係る三次元計測装置100は、時間および空間の各ドメインにおいてそれぞれ複数の変調周波数で変調された照明を使用することなく各ドメインにつき一つの変調周波数で変調された時空間変調照明105を使用して三次元計測を行うため、変調周波数を切り替えて何度も照明を照射しなくて済むことから、高フレームレートで物体の三次元形状を計測することができる。
なお、時間変調周波数および空間変調周波数をできるだけ高くすることで計測精度が向上する。しかし、時間変調周波数に対して空間変調周波数を高くし過ぎると位相曖昧性が解消できなくなってしまうため適切な周波数を選択する必要がある。詳しい途中計算式は省略するが、次式の条件を満たすように時間変調周波数ωおよび空間変調周波数ωを選択するとよい。
Figure 0007438555000013
ただし、dmaxは計測可能な最大奥行きを、dminは計測可能な最小奥行きを、Δdは時間位相による奥行き計測精度を表す。
≪実験結果≫
次に、本実施形態に係る三次元計測方法の効果を検証するために行った実験とその結果について説明する。検証実験は2つ行った。一つは白色の平面板の三次元計測、もう一つは石膏製の胸像の三次元計測である。
図5Aは、検証実験1に係る三次元計測のシチュエーションを説明する図である。検証実験1では、カメラからおよそ350mm離れた位置に白色の平面板を、向かって右側が左側に対して相対的にカメラから遠ざかるようにわずかに傾けて置き、その三次元形状をToF法、位相シフト法および本実施形態の各方法で計測した。ToF法では単一の低変調周波数で時間変調された照明を用いた。位相シフト法では単一の高変調周波数で空間変調された照明を用いた。本実施形態に係る方法では照明の時間変調周波数は60MHzとし、プロジェクタから照射される空間変調された照明(縞パターン)のパターン間隔は60ピクセルとした。プロジェクタとカメラとのベースライン距離は70mmであり、プロジェクタの投影光学系の焦点距離は35mmである。
図5Bは、図5AのシチュエーションについてのToF法、位相シフト法および本実施形態の各方法で生成された奥行きマップであり、図5Cは、図5Bの各奥行きマップに記した水平方向線分についてのToF法、位相シフト法および本実施形態の各方法で算出された奥行き候補を表すグラフである。図5Bからわかるように、ToF法および本実施形態に係る方法ではなだらかに変化する奥行きが計測できているが、位相シフト法では奥行きがステップ状になって現れている。また、図5Cからわかるように、位相シフト法では位相曖昧性が解消できずに奥行き候補が複数存在し、ToF法では計測結果にノイズが多く含まれる。これに対して、本実施形態に係る方法では位相曖昧性が解消されているとともに実際の対象物の奥行き変化を反映した滑らかな計測結果が得られている。
図6Aは、検証実験2に係る三次元計測のシチュエーションを説明する図である。検証実験2は、上記の白色の平面板に代えて、カメラからおよそ400mm離れた位置に石膏製の胸像を置き、その三次元形状をToF法、位相シフト法および本実施形態の各方法で計測した。計測対象物を代えたこと以外は検証実験1と同じである。
図6Bは、図6AのシチュエーションについてのToF法、位相シフト法および本実施形態の各方法で生成された奥行きマップであり、図6Cは、図6Bの各奥行きマップに記した水平方向線分についてのToF法、位相シフト法および本実施形態の各方法で算出された奥行き候補を表すグラフである。検証実験1の結果と同様に、ToF法および本実施形態に係る方法ではなだらかに変化する奥行きが計測できているが、位相シフト法では奥行きがステップ状になって現れている。また、位相シフト法では位相曖昧性が解消できずに奥行き候補が複数存在し、ToF法では計測結果にノイズが多く含まれるのに対して、本実施形態に係る方法では位相曖昧性が解消されているとともに実際の対象物の奥行き変化を反映した滑らかな計測結果が得られている。
≪変形例≫
プロジェクタ10から照射される時空間変調照明105は空間的に明るい部分と暗い部分とが交互に現れる明暗パターンであることから、暗い部分については時間相関カメラ20が反射光を受光できずに時間相関値が得られないおそれがある。そこで、時空間変調照明105における最も暗い部分を真っ暗にするのではなく、時間相関カメラ20が当該部分の反射光を検出できる程度の明るさを有するようにしてもよい。あるいは、時空間変調照明105の明暗パターンの間隔を時間相関カメラ20の解像度よりも細かくしてもよい。これより、時間相関カメラ20が撮像画像のすべてのピクセルで時間相関値を取得できるようになり、計測精度を良好に保つことができる。
本実施形態では空間光パターン108を生成するデバイスとしてDMD103を用いたが、これに代えてLCD(Liquid Crystal Display)やLCOS(Liquid Crystal On Silicon)などを用いてもよい。また、空間光パターン108は正弦波縞パターンに限定されず、格子パターン、ドットパターンなどのさまざまなパターンを使用することができる。
本実施形態では算出された時間位相および空間位相のペアに対応する奥行きを見つけるのにルックアップテーブルを使用したが、ルックアップテーブルに代えて、時間位相および空間位相を引数とする関数により奥行きを算出するようにしてもよい。
以上のように、本発明における技術の例示として、実施の形態を説明した。そのために、添付図面および詳細な説明を提供した。
したがって、添付図面および詳細な説明に記載された構成要素の中には、課題解決のために必須な構成要素だけでなく、上記技術を例示するために、課題解決のためには必須でない構成要素も含まれ得る。そのため、それらの必須ではない構成要素が添付図面や詳細な説明に記載されていることをもって、直ちに、それらの必須ではない構成要素が必須であるとの認定をするべきではない。
また、上述の実施の形態は、本発明における技術を例示するためのものであるから、特許請求の範囲またはその均等の範囲において種々の変更、置き換え、付加、省略などを行うことができる。
100…三次元計測装置、10…プロジェクタ、20…時間相関カメラ、30…コントローラ、105…時空間変調照明

Claims (10)

  1. プロジェクタから時間的および空間的に変調された時空間変調照明を空間に照射して時間相関カメラで空間を撮像する第1のステップと、
    前記時間相関カメラの撮像画像の各ピクセルについて、当該ピクセルの時間相関値から時間位相および空間位相を算出する第2のステップと、
    前記時間相関カメラの撮像画像の各ピクセルについて、前記算出された時間位相および空間位相のペアに対応する奥行きを求める第3のステップと、
    を備えた三次元計測方法。
  2. 前記第2のステップにおいて、一連の複数の時間相関値から時間位相および空間位相を一度に算出する、請求項1に記載の三次元計測方法。
  3. 前記第3のステップにおいて、時間位相、空間位相および奥行きの対応関係が特定されたルックアップテーブルを参照して前記算出された時間位相および空間位相のペアに対応する奥行きを見つける、請求項1または請求項2に記載の三次元計測方法。
  4. 前記時空間変調照明における最も暗い部分が、前記時間相関カメラが当該部分の反射光を検出できる程度の明るさを有する、請求項1ないし請求項3のいずれかに記載の三次元計測方法。
  5. 前記時空間変調照明の明暗パターンの間隔が、前記時間相関カメラの解像度よりも細かく設定されている、請求項1ないし請求項3のいずれかに記載の三次元計測方法
  6. 時間的および空間的な変調を施した時空間変調照明を生成して空間に照射するプロジェクタと、
    前記時空間変調照明が照射された空間を撮像する時間相関カメラと、
    前記プロジェクタおよび前記時間相関カメラの動作を制御するコントローラと、を備え、
    前記コントローラは、前記時間相関カメラの撮像画像の各ピクセルについて、当該ピクセルの時間相関値から時間位相および空間位相を算出し、当該算出した時間位相および空間位相のペアに対応する奥行きを求めるものである
    ことを特徴とする三次元計測装置。
  7. 前記コントローラが、一連の複数の時間相関値から時間位相および空間位相を一度に算出するものである、請求項6に記載の三次元計測装置。
  8. 前記コントローラが、時間位相、空間位相および奥行きの対応関係が特定されたルックアップテーブルを参照して前記算出した時間位相および空間位相のペアに対応する奥行きを見つけるものである、請求項6または請求項7に記載の三次元計測装置。
  9. 前記時空間変調照明における最も暗い部分が、前記時間相関カメラが当該部分の反射光を検出できる程度の明るさを有する、請求項6ないし請求項8のいずれかに記載の三次元計測装置。
  10. 前記時空間変調照明の明暗パターンの間隔が、前記時間相関カメラの解像度よりも細かく設定されている、請求項6ないし請求項8のいずれかに記載の三次元計測装置。
JP2021516082A 2019-04-22 2020-04-17 三次元計測方法および三次元計測装置 Active JP7438555B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2019081347 2019-04-22
JP2019081347 2019-04-22
PCT/JP2020/016921 WO2020218208A1 (ja) 2019-04-22 2020-04-17 三次元計測方法および三次元計測装置

Publications (2)

Publication Number Publication Date
JPWO2020218208A1 JPWO2020218208A1 (ja) 2020-10-29
JP7438555B2 true JP7438555B2 (ja) 2024-02-27

Family

ID=72942706

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021516082A Active JP7438555B2 (ja) 2019-04-22 2020-04-17 三次元計測方法および三次元計測装置

Country Status (2)

Country Link
JP (1) JP7438555B2 (ja)
WO (1) WO2020218208A1 (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150062558A1 (en) 2013-09-05 2015-03-05 Texas Instruments Incorporated Time-of-Flight (TOF) Assisted Structured Light Imaging
JP2019504313A (ja) 2016-01-15 2019-02-14 フェイスブック・テクノロジーズ・リミテッド・ライアビリティ・カンパニーFacebook Technologies, Llc 構造化光およびタイムオブフライトを用いた深度マッピング

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150062558A1 (en) 2013-09-05 2015-03-05 Texas Instruments Incorporated Time-of-Flight (TOF) Assisted Structured Light Imaging
JP2019504313A (ja) 2016-01-15 2019-02-14 フェイスブック・テクノロジーズ・リミテッド・ライアビリティ・カンパニーFacebook Technologies, Llc 構造化光およびタイムオブフライトを用いた深度マッピング

Also Published As

Publication number Publication date
WO2020218208A1 (ja) 2020-10-29
JPWO2020218208A1 (ja) 2020-10-29

Similar Documents

Publication Publication Date Title
US20200166333A1 (en) Hybrid light measurement method for measuring three-dimensional profile
US10234561B2 (en) Specular reflection removal in time-of-flight camera apparatus
JP6309459B2 (ja) ストライプ照明の飛行時間型カメラ
KR102191688B1 (ko) 동적 위상 보상을 가진 레이저 빔 투사 시스템
US10724960B2 (en) Inspection system and inspection method
JP6120611B2 (ja) ビーム走査型表示装置
US20130148102A1 (en) Method to Compensate for Errors in Time-of-Flight Range Cameras Caused by Multiple Reflections
US9267790B2 (en) Measuring device of measurement object, calculating device, measurement method, and method for producing item
US20120307260A1 (en) Hybrid system
JP7228690B2 (ja) 対向配置チャネルを有する三次元センサ
KR101562467B1 (ko) 스마트 폰을 이용한 3차원 형상 측정 장치
JP2020144136A (ja) 深度感知システムおよび方法
WO2019008330A1 (en) MOTION COMPENSATION IN PHASE SHIFT STRUCTURED LIGHT LIGHT FOR MEASURING DIMENSIONS OF OBJECTS LIKELY TO MOVE FREELY
JP2017201760A (ja) 撮像装置および測距装置
JP2007240344A (ja) 動的形状計測方法及び動的形状計測装置
EP3552044B1 (en) Time-of-flight imaging apparatus and method
KR100982051B1 (ko) Dmd를 이용한 모아레 측정 장치
JP7438555B2 (ja) 三次元計測方法および三次元計測装置
KR100982050B1 (ko) Dmd를 이용한 모아레 측정 장치
JP6362058B2 (ja) 被検物の計測装置および物品の製造方法
JP3672731B2 (ja) レンジファインダ装置
JP2023001122A (ja) 撮像装置
Nobuhara et al. A single-shot multi-path interference resolution for mirror-based full 3D shape measurement with a correlation-based ToF camera
JP2016008837A (ja) 形状測定方法、形状測定装置、構造物製造システム、構造物製造方法、及び形状測定プログラム
Kushida et al. Spatio-temporal phase disambiguation in depth sensing

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230414

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231205

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231207

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240109

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240206

R150 Certificate of patent or registration of utility model

Ref document number: 7438555

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150