JP6132510B2 - 三次元映像獲得装置、及び三次元映像獲得装置における奥行き情報の算出方法 - Google Patents

三次元映像獲得装置、及び三次元映像獲得装置における奥行き情報の算出方法 Download PDF

Info

Publication number
JP6132510B2
JP6132510B2 JP2012233225A JP2012233225A JP6132510B2 JP 6132510 B2 JP6132510 B2 JP 6132510B2 JP 2012233225 A JP2012233225 A JP 2012233225A JP 2012233225 A JP2012233225 A JP 2012233225A JP 6132510 B2 JP6132510 B2 JP 6132510B2
Authority
JP
Japan
Prior art keywords
light
sub
depth information
image
time
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012233225A
Other languages
English (en)
Other versions
JP2013093847A (ja
Inventor
勇 和 朴
勇 和 朴
長 雨 柳
長 雨 柳
熙 善 尹
熙 善 尹
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of JP2013093847A publication Critical patent/JP2013093847A/ja
Application granted granted Critical
Publication of JP6132510B2 publication Critical patent/JP6132510B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/271Image signal generators wherein the generated image signals comprise depth maps or disparity maps
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/2224Studio circuitry; Studio devices; Studio equipment related to virtual studio applications
    • H04N5/2226Determination of depth image, e.g. for foreground/background separation
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • G01S17/32Systems determining position data of a target for measuring distance only using transmission of continuous waves, whether amplitude-, frequency-, or phase-modulated, or unmodulated
    • G01S17/36Systems determining position data of a target for measuring distance only using transmission of continuous waves, whether amplitude-, frequency-, or phase-modulated, or unmodulated with phase comparison between the received signal and the contemporaneously transmitted signal
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • G01S17/8943D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4816Constructional features, e.g. arrangements of optical elements of receivers alone
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/491Details of non-pulse systems
    • G01S7/4912Receivers
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/491Details of non-pulse systems
    • G01S7/4912Receivers
    • G01S7/4915Time delay measurement, e.g. operational details for pixel components; Phase measurement
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/491Details of non-pulse systems
    • G01S7/4912Receivers
    • G01S7/4918Controlling received signal intensity, gain or exposure of sensor
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/491Details of non-pulse systems
    • G01S7/493Extracting wanted echo signals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/97Determining parameters from multiple pictures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/254Image signal generators using stereoscopic image cameras in combination with electromagnetic radiation sources for illuminating objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/296Synchronisation thereof; Control thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Remote Sensing (AREA)
  • Electromagnetism (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of Optical Distance (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Description

本発明は、三次元映像獲得装置、及び前記三次元映像獲得装置における奥行き情報を算出する方法に関する。
最近、奥行きのある映像を表示できる3Dディスプレイ装置の発展及び需要増加と共に、3Dコンテンツの重要性が高くなっている。これによって、一般のユーザが3Dコンテンツを直接制作できる3Dカメラのような三次元映像獲得装置が研究されている。かかる3Dカメラは、一回の撮影で既存の二次元カラー映像情報と共に奥行き情報も得なければならない。
被写体の表面と3Dカメラとの距離に関する奥行き情報は、二台のカメラを利用した両眼立体視法や、構造化光とカメラとを利用した三角測量法を利用して得られる。しかし、かかる方法は、被写体の距離が遠くなるほど、奥行き情報についての正確度が急激に低下し、被写体の表面状態に依存的であるので、精密な奥行き情報を得がたい。
かかる問題を改善するために、タイム・オブ・フライト(Time-of-Flight: TOF)法が導入された。TOF技術は、照明光を被写体に照射した後、被写体から反射される光が受光部で受光されるまでの光の伝播時間を測定する方法である。TOF技術によれば、発光ダイオード(Light-Emitting Diode: LED)またはレーザーダイオード(Laser Diode: LD)を含む照明光学系を利用して、特定の波長の光(例えば、850nmの近赤外線)を被写体に投射し、被写体から反射された同じ波長の光を受光部で受光した後、奥行き情報を算出するための一連の処理過程を経る。かかる一連の光処理過程によって、多様なTOF技術が紹介されている。
しかし、前述したTOF法では、ノイズのない理想的な環境を仮定して、奥行き情報を算出する。しかし、3Dカメラを使用する場合、室内では照明、室外では太陽光などの外光が周辺に常に存在する。かかる外光は、カメラに入射されて、奥行き情報の算出過程でノイズとなる。
したがって、奥行き情報の算出過程でノイズとなる外光を除去する必要がある。
本発明の目的は、外光を除去して、奥行き情報を算出する方法及びその三次元映像獲得装置を提供することである。
本発明の一実施形態にかかる三次元映像獲得装置は、N個(ここで、Nは、3以上の自然数)の光が一定の時間間隔で順次、被写体に向けて投射されたときに、当該被写体から反射された光を変調させる光変調器と、前記光変調器により変調された光を撮影して、N個のサブ映像を生成する撮像素子と、前記N個のサブ映像を利用して、被写体との距離を表す奥行き情報を算出する信号処理部と、を備え、1個の前記サブ映像を生成する際に、前記撮像素子は、前記光の投射時間露光されて、前記変調された光を撮影し、他のサブ映像のための次の投射開始時刻までに撮影により生成した前記サブ映像を出力することを特徴とする。
前記N個の投射された光は、相異なる光であり、一つ以上の光源により発光されてもよい。
前記光変調器の駆動時間は、前記N個の光の投射時間にそれぞれ同期されてもよい。
前記駆動時間は、前記光の投射時間より短くてもよい。
前記撮像素子の露光時間は、前記駆動時間に同期されてもよい。
前記撮像素子のあらゆるピクセルは、前記光の投射時間の間、前記変調された光に露光されてもよい。
前記N個の光は、周期が同じであり、振幅と位相のうち少なくとも一つが相違なる周波数であってもよい。
前記光変調器は、同じ変調信号で反射光を変調してもよい。
前記N個の光は、同じ周期波であってもよい。
前記光変調器は、異なる変調信号で反射光を変調してもよい。
前記N個の光のうち、隣接した時間帯に投射される光の位相差は、360°をN個に等分した値であってもよい。
前記反射された光は、前記N個の光のうち、前記被写体から反射されるN個の反射光を含んでもよい。
前記撮像素子で生成されたN個のサブ映像は、前記N個の反射光と、順次、一対一マッチングされてもよい。
前記信号処理部は、前記N個のサブ映像に第1加重値をそれぞれ乗じた後で平均して第1平均映像を生成し、前記N個のサブ映像に第2加重値をそれぞれ乗じた後で平均して第2平均映像を生成し、前記第1及び第2平均映像から前記奥行き情報を算出してもよい。
前記奥行き情報は、第1平均映像と第2平均映像との比率についてのアークタンジェント値から算出されてもよい。
本発明の他の実施形態にかかる奥行き情報の算出方法は、N個(ここで、Nは、3以上の自然数)の光が一定の時間間隔で順次、被写体に向けて投射されたときに、当該被写体から反射された光を変調させるステップと、前記変調された光を撮影して、N個のサブ映像を生成するステップと、前記N個のサブ映像を利用して、被写体との距離を表す奥行き情報を算出するステップと、を含み、前記N個のサブ映像を生成するステップは、1個の前記サブ映像を生成するサブステップをN個含み、前記サブステップは、1個の前記サブ映像を生成する際に、前記光の投射時間露光されて、前記変調された光を撮影し、他のサブ映像のための次の投射開始時刻までに撮影により生成した前記サブ映像を出力する。
前記N個の投射された光は、相異なる光であり、一つ以上の光源により発光されてもよい。
前記光を変調させる光変調器の駆動時間は、前記N個の光の投射時間にそれぞれ同期されてもよい。
前記駆動時間は、前記光の投射時間より短くてもよい。
前記光を撮影する撮像素子の露光時間は、前記駆動時間に同期されてもよい。
前記撮像素子のあらゆるピクセルは、前記光の投射時間の間、前記変調された光に露光されてもよい。
前記N個の光は、周期が同じであり、振幅と位相のうち少なくとも一つが相異なる周期波であり、前記変調された光は、同じ変調信号で変調されてもよい。
前記N個の光は、同じ周期波であり、前記変調された光は、異なる変調信号で変調されてもよい。
前記N個の光のうち、隣接した時間帯に投射される光の位相差は、360°をN個に等分した値であってもよい。
前記生成されたN個のサブ映像は、前記N個の反射光と、順次、一対一マッチングされてもよい。
前記N個のサブ映像に第1加重値をそれぞれ乗じた後で平均して第1平均映像を生成し、前記N個のサブ映像に第2加重値をそれぞれ乗じた後で平均して第2平均映像を生成し、前記第1及び第2平均映像から前記奥行き情報を算出してもよい。
前記奥行き情報は、第1平均映像と第2平均映像との比率についてのアークタンジェント値から算出されてもよい。
本発明によれば、光の光投射時間と光変調器の駆動時間とを同期させて、外光が除去された反射光を獲得することができる。
また、撮像素子の露出時間も、光変調器の駆動時間と同期されて、外光が除去されたサブ映像を獲得することができる。
さらに、撮影されたサブ映像に対して単純に乗算及び加算のみを適用して、不規則なノイズを除去できるため、不規則なノイズを除去するのに必要なメモリ使用量及び演算量を大きく減少させることができる。
本発明の一実施形態にかかる三次元映像獲得装置を概略的に示す図である。 本発明の一実施形態にかかるN個の異なる反射光を変調した後、N個の異なるサブ映像を生成する過程を示す図である。 本発明の一実施形態にかかる一つの同じ投射光とN個の異なる光変調信号とで、N個の異なるサブ映像を生成する過程を示す図である。 投射光のデューティ比が100%である場合の三次元映像を撮影するタイムチャートを示す図である。 投射光のデューティ比が20%である場合の三次元映像を撮影するタイムチャートを示す図である。 本発明の一実施形態にかかる光源、光変調器及び撮像素子が同期して映像を撮影するタイムチャートを示す図である。 撮像素子のあらゆるピクセルが光変調器の単一駆動時間で露出されない場合、映像を撮影するタイムチャートを示す図である。 本発明の一実施形態にかかるN個の異なる映像から奥行き情報を算出する過程を概略的に示す図面である。 本発明の一実施形態にかかる加重値A,Bを例示的に示す表である。 本発明の一実施形態にかかる奥行き情報の算出方法を説明するフローチャートである。
以下、添付された図面を参照して、本発明の実施形態を詳細に説明する。添付された図面に示す層や領域の幅及び厚さは、明細書の明確性のために多少誇張されて示される。詳細な説明の全体にわたって、同じ参照番号は、同じ構成要素を表す。
図1は、本発明の一実施形態にかかる三次元映像獲得装置100を概略的に示す図である。図1を参照すれば、三次元映像獲得装置100は、所定の波長を有する光を発生させる光源101と、被写体200から反射された光を光変調させる光変調器103と、光変調器103により変調された光からサブ映像を生成する撮像素子105と、撮像素子105の出力に基づいて奥行き情報を算出し、奥行き情報が含まれた映像を生成する信号処理部106と、前記光源101、光変調器103、撮像素子105及び信号処理部106の動作を制御するための制御部107と、を備える。
また、三次元映像獲得装置100は、被写体200から反射された光のうち、所定の波長を有する光のみを透過させるフィルタ108をさらに備え、光変調器103の光入射面には、反射光を光変調器103の領域内に集光させる第1レンズ109、及び光変調器103と撮像素子105との間に変調されたサブ映像を撮像素子105の領域内に集光させる第2レンズ110がさらに配置される。
光源101は、例えば、安全のために人間の目には見えない約850nmの近赤外線(Near Infrared: NIR)の波長を有する光を放出させる発光ダイオード(Light-Emitting Diode: LED)またはレーザーダイオード(Laser Diode: LD)であるが、波長の帯域及び光源101の種類は制限されない。
光源101から被写体200に投射される投射光は、所定の周期を有する周期的な連続関数の形態を有する。例えば、投射光は、サイン波、ランプ波、四角波のように特殊に定義された波形を有してもよいが、定義されていない一般的な形態の波形を有してもよい。また、光源101は、制御部107の制御下で周期的に一定時間の間だけ光を被写体200に集中して投射する。光が被写体200に投射される時間を、光投射時間という。
光変調器103は、被写体200から反射された光を制御部107の制御によって変調する。例えば、光変調器103は、所定の波形を有する光変調信号によって利得を変化させて、反射光のサイズを変調させる。このために、光変調器103は、可変利得を有する。
光変調器103は、距離による光の位相差または移動時間を識別するために、数十ないし数百MHzの高い変調速度で動作する。これに符合する光変調器103として、例えば、MCP(Multi-Channel Plate)を備えるサブ映像増倍管、GaAs系の固体光変調器103、電光(Electro-Optic)物質を利用した薄型の光変調器103などが使われる。図1には、光変調器103が透過型であると示されているが、反射型の光変調器を使用してもよい。
また、光変調器103も、光源101と同様に、一定時間の間駆動されて、被写体200から反射された光を変調させる。光変調器103が駆動されて、光を変調させる時間を、光変調器の駆動時間という。光源101の光投射時間と光変調器103の駆動時間とは同期される。これにより、光変調器103の駆動時間は、光源101の光投射時間と同じであるか、または光源101の光投射時間より短い。
撮像素子105は、光変調器103により変調された反射光を制御部107の制御によって検出して、サブ映像を生成する役割を担う。被写体200のある一点までの距離だけを測定しようとする場合、撮像素子105は、例えば、フォトダイオードや積分器のような単一の光センサーを使用することも可能である。しかし、被写体200上の複数の点までの距離を同時に測定しようとする場合、撮像素子105は、複数のフォトダイオードまたは他の光検出器の二次元または一次元アレイを有してもよい。例えば、前記撮像素子105は、二次元アレイを有するCCD(Charge-Coupled Device)イメージセンサー、またはCMOS(Complimentary Metal-Oxide Semiconductor)イメージセンサーであってもよい。撮像素子105は、反射光別にサブ映像を生成する。
信号処理部106は、撮像素子105の出力に基づいて奥行き情報を算出し、奥行き情報が含まれた三次元映像を生成する。信号処理部106は、例えば、専用の集積回路(Integrated Circuit: IC)で具現されてもよく、三次元映像獲得装置100内に設置されたソフトウェアで具現されてもよい。ソフトウェアで具現される場合、信号処理部106は、別途、可搬性の記録媒体に保存されてもよい。
以下では、前述した構造を有する三次元映像獲得装置100の動作を概略的に説明する。
まず、光源101は、制御部107の制御によって、所定の周期及び波形を有するN個の異なる投射光を順次に被写体200に向けて投射する。ここで、Nは、3以上の自然数である。光源101は、N個の投射光を連続して順次に投射してもよく、一定の時間間隔でN個の投射光を順次に投射してもよい。
例えば、四つの異なる投射光を使用する場合、光源101は、時間T1の間投射光1を発生させて、被写体200に投射し、次の時間T2の間投射光2を発生させて、被写体200に投射し、時間T3の間投射光3を発生させて、被写体200に投射し、次いで、時間T4の間投射光4を発生させて、被写体200に投射する。このように、被写体200に順次に投射される投射光は、サイン波のような特定の周期を有する連続関数の形態を有する。例えば、投射光1ないし4は、同じ周期及び波形を有しつつ、サイズまたは位相が異なる周期波であってもよい。
投射光が複数個である場合、隣接した時間帯で投射される投射光の位相差は、360/Nであり、各投射光の周期は、光源101の駆動時間より短い。光源101の駆動時間内に、N個の投射光がいずれも順次に被写体200に投射される。
被写体200に投射された投射光は、被写体200の表面で反射された後、第1レンズ109に入射する。一般的に、被写体200は、三次元映像獲得装置100からの距離、すなわち、奥行きが異なる複数の表面を有する。図1には、説明の単純化のために、奥行きが異なる五つの表面P1〜P5を有する被写体200が例示されている。奥行きが異なる五つの表面P1〜P5からそれぞれ投射光が反射されて、異なる時間分遅延された(すなわち、位相が異なる)五つの反射光がそれぞれ発生する。
例えば、投射光1が被写体200の五つの表面P1〜P5からそれぞれ反射されて、位相が異なる五つの反射光1が発生し、投射光2が被写体200の五つの表面P1〜P5からそれぞれ反射されて、位相が異なる五つの反射光2が発生し、同様に投射光Nも被写体200の五つの表面P1〜P5からそれぞれ反射されて、位相が異なる五つの反射光Nが発生する。三次元映像獲得装置100からの距離が最も遠い表面P1から反射された反射光は、基準となる位相から、ΦP1ほどの位相遅延後に第1レンズ109に達し、三次元映像獲得装置100からの距離が最も近い表面P5から反射された反射光は、ΦP1より小さいΦP5ほどの位相遅延後に第1レンズ109に達する。
第1レンズ109は、反射光を光変調器103の領域内にフォーカシングする。第1レンズ109と光変調器103との間には、使用波長以外の背景光などの外光を除去するために、所定の波長を有する光のみを透過させるフィルタ108が配置される。例えば、光源101が約850nmの近赤外線(NIR)の波長を有する光を放出する場合、前記フィルタ108は、約850nmの近赤外線の波長帯域を通過させる近赤外線帯域通過フィルタである。したがって、光変調器103に入射する光は、光源101から放出されて、被写体200から反射された光が支配的となる。図1には、第1レンズ109と光変調器103との間にフィルタ108が配置されていると示されているが、第1レンズ109とフィルタ108との位置は互いに変わってもよい。例えば、フィルタ108を先に通過した近赤外線光が、第1レンズ109により光変調器103にフォーカシングされてもよい。
これにより、光変調器103は、所定の波形を有する光変調信号に反射光を変調する。説明の便宜上、被写体200の五つの表面P1〜P5が、撮像素子105の五つの領域に区分されるピクセルに対応すると仮定する。光変調器103での利得波形の周期は、投射光の波形周期と同じである。図1に示す例において、光変調器103は、被写体200の五つの表面P1〜P5からそれぞれ反射された五つの反射光1を変調して、撮像素子105に提供し、次いで、五つの反射光2ないし5の反射光Nを順次に変調して、撮像素子105に提供する。反射光は、光変調器103を通過しつつ、そのサイズが光変調信号を乗じた量ほど変調される。光変調信号は、その周期を投射光と同一にする。
光変調器103によりサイズが変調された光は、第2レンズ110を通過して、倍率調整及び再フォーカシングされた後、撮像素子105に達する。したがって、変調された光は、第2レンズ110により撮像素子105の領域内に集光される。撮像素子105は、光源101及び光変調器103と同期されて、前記変調された光を一定の時間受光することで、サブ映像を生成する。撮像素子105が露出されて、変調された光を受光する時間を、撮像素子105の露光時間という。
以下、N個の反射光からN個のサブ映像を生成する方法について説明する。
図2は、本発明の一実施形態によるN個の異なる反射光を変調した後、N個の異なるサブ映像を生成する過程を示す図である。
撮像素子105は、図2の(A)で表示されたように、被写体200の五つの表面P1〜P5からそれぞれ反射された後、変調された五つの反射光1を所定の露光時間受光して、サブ映像1を生成する。次いで、図2の(B)で表示されたように、撮像素子105は、被写体200の五つの表面P1〜P5からそれぞれ反射された後、変調された五つの反射光2を所定の露光時間受光して、サブ映像2を生成する。かかる過程を反復して、最後に、図2の(C)で表示されたように、撮像素子105は、被写体200の五つの表面P1〜P5からそれぞれ反射された後、変調された五つの反射光Nを所定の露光時間受光して、サブ映像Nを生成する。かかる方式により、図2の(D)で表示されたように、N個の異なるサブ映像が順次に得られる。
このように得たそれぞれのサブ映像1〜Nは、奥行き情報を有する一つのフレームの映像を生成するためのサブフレーム映像である。例えば、一つのフレームの周期をTとするならば、N個のサブ映像1〜Nのそれぞれを得るための撮像素子105の露光時間は、約Td/Nである。
一方、図2では、N個の異なる投射光と反射光とを使用して、異なるN個のサブ映像を生成する場合について説明した。しかし、あらゆるサブ映像で同じ投射光を使用し、それぞれのサブ映像ごとに光変調器103が異なる利得波形で反射光を変調することも可能である。
図3は、本発明の一実施形態にかかり、一つの同じ投射光とN個の異なる光変調信号とで、N個の異なるサブ映像を生成する過程を示す図である。図3を参照すれば、被写体200から反射された反射光は、あらゆるサブ映像で同じ波形と位相とを有する。各サブ映像の反射光には、前述したように、被写体200の表面P1〜P5によって異なる位相遅延ΦP1〜ΦP5が存在する。図3の(A)ないし(C)にそれぞれ示すように、光変調器103は、光変調信号1を用いて反射光を変調し、光変調器103は、光変調信号1と異なる光変調信号2を用いて反射光を変調し、光変調器103は、さらに異なる光変調信号Nを用いて反射光を変調する。ここで、光変調信号1〜Nは、完全に異なる波形の信号であってもよいが、周期と波形とは同じであり、単に位相のみが異なる信号であってもよい。これにより、図3の(D)に示すように、撮像素子105は、異なるN個のサブ映像1〜Nが得られる。
以下では、信号波形を利用して、サブ映像を生成する方法について説明する。
説明の便宜上、光源101がN個の異なる投射光を被写体200に投射し、光変調器103が一つの同じ光変調信号を使用する実施形態を中心に記述する。しかし、一つの同じ投射光とN個の異なる光変調信号とを使用する場合にも、以下の理論的な説明は同様に適用される。また、撮像素子105の出力が二次元アレイサブ映像である場合でも、それぞれの画素に適用される奥行き情報の算出方法は同一であるので、一つの画素に適用される方法のみを説明する。ただし、二次元アレイサブ映像で複数の画素から奥行き情報を同時に算出する場合に、データ管理及びメモリ割り当てなどを効率的に処理して、重複処理する部分を省略することで、計算量を減らすことができる。
まず、周期Tを有する一般的な投射光の波形Pは、次の数式1のように表現される。
前記のような投射光が被写体200から反射された後、位相差ΦTOFを有して三次元映像獲得装置100に戻る反射光の波形Pは、次の数式2のように表現される。
光変調器103を通過して撮像素子105に達する光の波形は、数式2の反射光と数式3の光変調信号とを乗じた値である。したがって、撮像素子105に達する光の瞬間的な波形Iinst.は、次の数式4のように表現される。
撮像素子105は、所定の露光時間Tの間入射光を受光して、サブ映像を生成する。したがって、撮像素子105で生成されたサブ映像は、数式4で表現された瞬間的な波形を時間Tの間に積分したものと同じである。ここで、露光時間Tは、サブフレームの周期と同じである。例えば、秒当たり30フレームの速度で撮影し、各フレーム当たりN個のサブフレームが存在する場合、露光時間Tは、約0.033/N秒となる。撮像素子105の感度によって、撮像素子105に達する光量と撮像素子105の出力値との間に、所定の変換比率が存在するが、便宜上、それを単純化して、撮像素子105のサブ映像I(s)は、下記の数式5で定義される。
前記数式5に表示されたように、出力サブ映像I(s)には、外光成分が存在する。外光は、太陽光や照明灯として基本的に常時均一な量で存在する特徴がある。一方、光源101の投射光は、その波形を任意に調節可能である。これにより、光源101と光変調器103とを同期させて、投射光を一定の時間集中して投射させ、前記一定の時間光変調器103が駆動されて反射された光を光変調させる。そして、投射光が投射されていない時間区間では、光変調器103が駆動せず、最小の透過率を維持することで、撮像素子105に外光が受光されることを防止できる。これにより、数式5の外光成分が減る。ここで、投射光の投射時間と投射光が投射されていない時間との比率をデューティ比と称する。デューティ比が100%未満である場合、光は、不連続的に投射される。
図4Aは、投射光のデューティ比が100%である場合の三次元映像を撮影するタイムチャートを示す図であり、図4Bは、投射光のデューティ比が20%である場合の三次元映像を撮影するタイムチャートを示す図である。図4A及び図4Bには、四つの投射光によって、光源、光変調器及び撮像素子が動作する。光源から出力される光は、赤外線光と仮定し、同じ光量が光変調器103に入射されるように、図4Bでの光源101は、一定時間の間だけ瞬間出力を高めて、光を被写体200に向けて投射すると仮定する。ただし、図面での外光と赤外線光とのサイズは、例示的なものであり、これに限定されない。デューティ比が100%である場合の赤外線光が、外光より大きくてもよい。例えば、室内、曇った天気、暗い所などでは、赤外線光が外光より大きく、海浜または晴天などでは、外光が赤外線光より大きい。
図4Aにおいて、光変調器103は、光源101の光投射時間と同期されて、被写体200から反射された光を光変調させる。そして、撮像素子105は、光変調された光を利用して、サブ映像を生成する。光変調器103に入射された光は、光源101から投射されて、被写体200から反射された光だけでなく、外光も含むため、光変調器103は、外光を含む光を光変調させ、撮像素子105が生成したサブ映像にも外光成分が含まれる。
一方、図4Bでの光源101は、一定時間の間だけ瞬間出力を高めて、光を被写体200に向けて投射する。そして、光変調器103の駆動時間は、光源101の光投射時間と同期されて、被写体200から反射された光を光変調させ、光が投射されていない時間には駆動せず、最小の透過率を維持することで、外光の流入を遮断させる。結果として、撮像素子105で撮影された外光成分は減り、光源101の投射光成分が維持される。これにより、投射光のデューティ比が100%から20%に減る時、外光成分も1/5に減少し、外光成分に対するS/N比は、5倍向上する。
このように、外光成分を減らすために、光源は、100%未満のデューティ比で光を投射しなければならない。そして、光変調器103の駆動時間は、光投射時間と同期されると共に、光変調器103は、数十ないし数百MHzの高い変調速度で動作しなければならない。これに符合する光変調器103として、例えば、MCPを備えるサブ映像増倍管、GaAs系の固体の光変調器103、電光物質を利用した薄型の光変調器103などが使われる。
一方、本発明に適用される撮像素子105は、グローバルシャッタとして動作するか、ローリングシャッタとして動作する。ここで、グローバルシャッタの動作原理は、一つのサブ映像の生成時、あらゆるピクセルが同時に露出される。したがって、それぞれのピクセル間の露光時刻差がない。一方、ローリングシャッタの動作原理は、一つのサブ映像の生成時、各ピクセルが順次に露出される。したがって、各ピクセル間の露光時刻差がある。
撮像素子105の露光時間も、光源101の光出射時間及び光変調器103の駆動時間と同期される。撮像素子105がグローバルシャッタとして動作する場合、制御部107は、撮像素子105の露出時間を光変調器103の駆動時間に同期させる。そして、撮像素子105がローリングシャッタとして動作する場合にも、撮像素子105のあらゆるピクセルに対する露光時間が、光変調器103の駆動時間以上であれば、制御部107は、撮像素子105の露光時間を光変調器103の駆動時間に同期させる。
図5は、本発明の一実施形態による光源101、光変調器103及び撮像素子105が同期して、映像を撮影するタイムチャートを示す図である。図5では、便宜上、位相差が異なる四つの投射光によって映像を撮影する方法が示されている。
図5に示すように、撮像素子105がローリングシャッタとして動作する場合、ライン別に撮像素子105の露光時間及び出力(read out)時間が異なる。すなわち、撮像素子105は、各ライン別に時間遅延をおいてサブ映像が撮影及び出力される。
図5において、光源101の光投射時間、光変調器103の駆動時間、及び撮像素子105の露光時間は、互いに同期されており、撮影素子105のあらゆるピクセルが露光時間で露光される。これにより、撮像素子105で出力されるN個のサブ映像それぞれは、N個の反射光と順次に一対一マッチングされる。
一方、光変調器103の単一駆動時間が、撮像素子105内のあらゆるピクセルの共通露光時間より短い場合、光変調器103の単一駆動時間で、撮像素子105のあらゆるピクセルが露光されていない。
図6は、撮像素子105のあらゆるピクセルが、光変調器103の単一駆動時間で露光されない場合に、映像を撮影するタイムチャートを示す図である。図6では、便宜上、位相差が異なる四つの投射光によって映像を撮影する方法が示されている。
図6に示すように、撮像素子105のピクセル領域が、光変調器103の単一駆動時間にいずれも露光されていない。これにより、N個の反射光それぞれは、撮像素子105で出力されるサブ映像とラインで順次に一対一マッチングされていない。この場合、信号処理部106は、光変調器103で各ライン別に出力されるラインサブ映像I´,I´,I´,I´を、N個の反射光0°,90°,180°,270°と一対一マッチングされるラインサブ映像I,I,I,Iに変換させる。
このために、信号処理部106は、下記の数式6のような変換マトリックスを、光変調器103で各ライン別に出力されるラインサブ映像に適用する。下記の数式6は、四つの反射光に係わる四つのラインサブ映像 I´,I´,I´,I´を変換させる4*4変換マトリックスが示されている。N個のラインサブ映像には、N*N変換マトリックスが適用されることはいうまでもない。
ここで、kは、撮像素子105のラインを表し、Aijは、変換値であって、撮像素子105の露光時間とサブ映像の出力時間とによって既に定義されて既に保存された値である。
例えば、図6において、最初のラインの変換式は、下記の数式7の通りである。
最後の1238番目のラインの変換式は、下記の数式8の通りである。
変換マトリックスにより変換されたサブ映像I(s)は、前記数式5に適用される。
N個のラインサブ映像それぞれがN個の位相差と一対一マッチングされた後、信号処理部106は、ラインサブ映像それぞれをライン別に結合して、N個のサブ映像を生成する。これにより、信号処理部106は、N個のサブ映像から奥行き情報を算出する。
図7は、本発明の一実施形態によるN個の異なる映像から奥行き情報を算出する過程を概略的に示す図である。図7を参照すれば、信号処理部106は、N個のサブ映像にそれぞれ加重値A〜Aを乗じ、それらの加重されたサブ映像を平均して、一つの第1平均映像Vを生成する。そして、信号処理部106は、同じN個のサブ映像に他の加重値B〜Bをそれぞれ乗じ、それらの加重されたサブ映像を平均して、第1平均映像Vとは異なる第2平均映像Uを生成する。
本発明に適用される加重値A〜A,B〜Bは、サブ映像の個数Nによって定義されており、予め保存されている。例えば、加重値A,Bは、下記の数式9A、9Bの通りである。
前記数式9A、9Bにおいて、i,jは、自然数1ないしNのうちkを除いたいずれか一つの数(i≠k,j≠k)であり、a(i)は、投射光iのサイズであり、位相θ(i)は、投射光iの位相差である。
かかる加重値A,Bは、既定の投射光のサイズa(i)及び位相θ(i)を利用して数値化した後、三次元映像獲得装置100の動作時に奥行き情報を算出するために使用される。
図8は、本発明の一実施形態による加重値A,Bを例示的に示す表である。
図8の表において、投射光のサイズは、あらゆる場合について同一であると仮定し、位相は、360°を均等にN等分して決まると仮定した。例えば、N=3の場合、位相θ(1)、θ(2)、θ(3)は、それぞれ0°、120°、240°である。
図8の表のように、あらかじめ計算された加重値が、三次元映像獲得装置100のメモリ(図示せず)内に保存されている場合、信号処理部106は、奥行き情報を算出する度に加重値を新たに計算する必要がない。撮影されたサブ映像の個数によって、信号処理部106は、メモリから適切な加重値を読み込んで、それぞれのサブ映像に乗じる演算のみを行えばよい。したがって、奥行き情報のリアルタイム算出が可能である。また、不規則なノイズを除去するのに必要なメモリ使用量及び演算量を大きく減少させるので、三次元映像獲得装置100のサイズ及び製造コストを低減させることができる。
図8の表には、一つの組み合わせの投射光のサイズ及び位相に係わる加重値が例示されているが、実際使用時、多様な組み合わせの投射光のサイズ及び位相に係わる加重値の組み合わせをあらかじめ計算しておいてもよい。これにより、奥行き情報を算出する時、信号処理部106は、使われた投射光のサイズと位相との組み合わせ、及び撮影されたサブ映像の個数に対応する組み合わせの加重値をメモリから読み込む。ここで、メモリは、制御部107内に、または信号処理部106内にあっても、それらと分離された別途の保存装置であってもよい。
前記のような加重値を利用すれば、複雑な平均化アルゴリズムを行わなくても、乗算及び加算のみを利用した加重平均化方式で、不規則なノイズが除去された奥行き情報を求めることが可能である。
そして、信号処理部106は、第1平均映像Vと第2平均映像Uとの比率V/Uについてのアークタンジェント(arctan=tan−1)の値から奥行き情報を算出する。奥行き情報depthは、下記の数式10の通りである。
前記数式10において、Cは、光の速度であり、Teは、投射光の波形の周期である。
一方、図7に、信号処理部106は、N個のサブ映像をそれぞれ得た後、一つのフレームの映像についての奥行き情報を算出し、次いで、再びN個の新たなサブ映像をそれぞれ得た後、次のフレームの映像についての奥行き情報を算出するものとした。しかし、これに限定されない。信号処理部106は、フレームの映像ごとに奥行き情報を更新することも可能である。
例えば、最初のN個のサブ映像で得たN個のサブ映像から奥行き情報を算出する方式は、図3に示す方式と同じである。次いで、サブ映像N+1を得れば、サブ映像1を除去し、サブ映像2ないしサブ映像N+1を利用して、前述した加重平均化方式により、奥行き情報を新たに算出する。同様に、サブ映像N+2を得れば、サブ映像2を除去し、サブ映像3ないしサブ映像N+2を利用して、奥行き情報を新たに算出する。このように、先入れ先出し(First-In First-Out: FIFO)方式によりメモリ内にN個のサブ映像を維持しつつ、サブ映像ごとに新たな奥行き情報を算出することも可能である。
また、新たなサブ映像を一つずつ追加すると共に、既存のサブ映像を一つずつ除去する方法について説明したが、複数の新たなサブ映像を追加すると共に、同数の既存のサブ映像を除去してもよい。例えば、N個未満の新たなサブ映像を追加し、同数の最も古いサブ映像を除去しつつ、全体的にN個のサブ映像を維持することも可能である。
または、第1平均映像V及び第2平均映像Uを算出するにあたって、信号処理部106は、下記の数式11A、11Bのような再帰的合算を利用して、第1平均映像V及び第2平均映像Uを算出することも可能である。
この時、信号処理部106は、N番目のサブ映像が撮影された時点で、第1平均映像V及び第2平均映像Uをアップデートし、N−1番目のサブ映像が撮影された時点で生成された第1平均映像Vn−1及び第2平均映像Un−1を削除する。前記のように再帰的合算により第1平均映像及び第2平均映像を生成すれば、N個のサブ映像をいずれも保存する必要がないので、メモリ空間を節約できる。前記メモリ空間は、奥行き情報が含まれたサブ映像が百万ピクセル以上の高解像度へ行くほど問題となる。
本実施形態では、ピクセルが二次元アレイ形態で配列された撮像素子105で、サブ映像を生成する方法について説明した。しかし、本サブ映像の生成方法は、ピクセルが一次元アレイであるか、単一ピクセルであるかに関係なく適用される。
図9は、これまで説明した奥行き情報の算出方法を整理して説明するフローチャートである。図9を参照すれば、まず、光源101は、制御部107により駆動されつつ、N個の異なる投射光を被写体200に順次に投射する(S1)。ここで、Nは、3以上の自然数である。N個の異なる投射光は、周期が同じであり、サイズまたは位相が異なる波形を有する。N個の投射光は、被写体200の表面から反射された後、N個の異なる反射光として光変調器103に順次に入射される。これにより、光変調器103は、駆動時間が光源101の光投射時間と同期されて、被写体200の表面から反射されたN個の異なる反射光を、それぞれ所定の利得波形を有する光変調信号を用いて変調する(S2)。ここで、光変調信号は、投射光と同じ周期を有する周期波である。このように、光源101の光投射時間と光変調器103の駆動時間とが同期されて、一定時間の間だけ光が投射され、投射された光を変調させれば、変調後の光に含まれる外光が最小化される。
撮像素子105は、変調されたN個の反射光をそれぞれ順次に撮影して、N個のサブ映像を生成する(S3)。撮像素子105の露光時間も、光変調器103の駆動時間と同期される。このように生成されたN個のサブ映像は、信号処理部106に伝達される。
一方、撮像素子105で生成されたN個のサブ映像は、N個の反射光と順次に一対一マッチングされる。しかし、N個のサブ映像がN個の反射光と順次に一対一マッチングされていない場合、信号処理部106は、ライン別にN個のサブ映像を変換させて、ライン別のN個のサブ映像それぞれをN個の反射光と一対一マッチングさせる。
信号処理部106は、あらかじめ用意されている所定の加重値A,Bをメモリ(図示せず)から読み込む(S4)。前述したように、前記加重値A,Bは、使われた投射光の個数N、投射光のサイズ及び投射光の位相によって決定される。メモリには、投射光の個数N、投射光のサイズ及び投射光の位相に対する多様な組み合わせによる多様な加重値A,Bがあらかじめ計算されて保存されている。信号処理部106は、メモリに保存されている多様な加重値A,Bのうち、実際に使われた投射光の個数N、投射光のサイズ及び投射光の位相に対応する加重値を検索して読み込む。
信号処理部106は、N個の反射光と一対一マッチングされたN個のサブ映像に、それに対応する第1加重値Aをそれぞれ乗じて平均して、第1平均映像Vを算出する(S5)。同様に、信号処理部106は、N個のサブ映像に、それに対応する第2加重値Bをそれぞれ乗じて平均して、第2平均映像Uを算出する(S6)。次いで、信号処理部106は、第1平均映像Vと第2平均映像Uとの比率V/Uについてのアークタンジェント値から、三次元映像獲得装置100から被写体200までの距離である奥行き情報を算出する(S7)。かかる本発明の一実施形態によれば、サブ映像の個数Nが増加するとしても、第1平均映像Vと第2平均映像Uとを算出するための乗算及び加算のみが比例的に増加するため、演算量の増加が非常に小さい。したがって、不規則なノイズが除去された非常に正確な奥行き情報を、比較的少ない演算量で求めることができる。
図9のフローチャートでは、N個の異なる投射光を使用する実施形態を中心に説明したが、前述したように、N個の同じ投射光を使用する代わりに、N個の異なる光変調信号を使用することも可能である。例えば、N個の異なる光変調信号は、周期と波形とが同じであり、サイズまたは位相が異なる周期波であってもよい。この場合にも、撮像素子105からN個の異なるサブ映像が得られ、以後の奥行き情報を算出する過程は、同一に適用される。ただし、第1及び第2加重値は、光変調信号のサイズ及び光変調信号の位相によって決定される。
一方、前述した演算を行って、不規則なノイズが除去された奥行き情報を計算する信号処理部106は、前述したように、専用の集積回路(IC)で具現されてもよく、個人用コンピュータのような一般的なコンピュータ装置内に設置されたソフトウェアで具現されてもよい。ソフトウェアで具現される場合、信号処理部106は、コンピュータにより実行可能な形式で別途の移動可能な記録媒体に保存されてもよい。
以上、本発明の理解を助けるために、三次元映像獲得装置、及び前記三次元映像獲得装置における奥行き情報を算出する方法についての例示的な実施形態が説明され、添付された図面に示された。しかし、かかる実施形態は、単に本発明を例示するためのものであり、これを制限しないという点が理解されなければならない。そして、本発明は、図示されて説明された内容に限定されないという点が理解されなければならない。これは、多様な他の変形が当業者にとって行われるためである。
本発明は、例えば、3Dディスプレイ関連の技術分野に適用可能である。
100 三次元映像獲得装置、
101 光源、
103 光変調器、
105 撮像素子、
106 信号処理部、
107 制御部、
108 フィルタ、
109 第1レンズ、
110 第2レンズ、
200 被写体。

Claims (27)

  1. N個(ここで、Nは、3以上の自然数)の光が一定の時間間隔で順次、被写体に向けて投射されたときに、当該被写体から反射された光を変調させる光変調器と、
    前記光変調器により変調された光を撮影して、N個のサブ映像を生成する撮像素子と、
    前記N個のサブ映像を利用して、被写体との距離を表す奥行き情報を算出する信号処理部と、を備え、
    1個の前記サブ映像を生成する際に、前記撮像素子は、前記光の投射時間露光されて、前記変調された光を撮影し、他のサブ映像のための次の投射開始時刻までに撮影により生成した前記サブ映像を出力することを特徴とする三次元映像獲得装置。
  2. 前記N個の投射された光は、相異なる光であり、一つ以上の光源により発光されることを特徴とする請求項1に記載の三次元映像獲得装置。
  3. 前記光変調器の駆動時間は、前記N個の光の投射時間にそれぞれ同期されることを特徴とする請求項1又は2に記載の三次元映像獲得装置。
  4. 前記駆動時間は、前記光の投射時間より短いことを特徴とする請求項に記載の三次元映像獲得装置。
  5. 前記撮像素子の露光時間は、前記駆動時間に同期されることを特徴とする請求項又はに記載の三次元映像獲得装置。
  6. 前記撮像素子のあらゆるピクセルは、前記光の投射時間の間、前記変調された光に露光されることを特徴とする請求項のいずれか1項に記載の三次元映像獲得装置。
  7. 前記N個の光は、周期が同じであり、振幅と位相のうち少なくとも一つが相異なる周期波であることを特徴とする請求項1〜のいずれか1項に記載の三次元映像獲得装置。
  8. 前記光変調器は、同じ変調信号で反射光を変調することを特徴とする請求項に記載の三次元映像獲得装置。
  9. 前記N個の光は、同じ周期波であることを特徴とする請求項1〜のいずれか1項に記載の三次元映像獲得装置。
  10. 前記光変調器は、異なる変調信号で反射光を変調することを特徴とする請求項に記載の三次元映像獲得装置。
  11. 前記N個の光のうち、隣接した時間帯に投射される光の位相差は、360°をN個に等分した値であることを特徴とする請求項1〜10のいずれか1項に記載の三次元映像獲得装置。
  12. 前記反射された光は、前記N個の光のうち、前記被写体から反射されるN個の反射光を含むことを特徴とする請求項1〜11のいずれか1項に記載の三次元映像獲得装置。
  13. 前記撮像素子で生成されたN個のサブ映像は、前記N個の反射光と、順次、一対一マッチングされることを特徴とする請求項1〜12の何れか1項に記載の三次元映像獲得装置。
  14. 前記信号処理部は、
    前記N個のサブ映像に第1加重値をそれぞれ乗じた後で平均して第1平均映像を生成し、前記N個のサブ映像に第2加重値をそれぞれ乗じた後で平均して第2平均映像を生成し、前記第1及び第2平均映像から前記奥行き情報を算出することを特徴とする請求項1〜13の何れか1項に記載の三次元映像獲得装置。
  15. 前記奥行き情報は、第1平均映像と第2平均映像との比率についてのアークタンジェント値から算出されることを特徴とする請求項14に記載の三次元映像獲得装置。
  16. N個(ここで、Nは、3以上の自然数)の光が一定の時間間隔で順次、被写体に向けて投射されたときに、当該被写体から反射された光を変調させるステップと、
    前記変調された光を撮影して、N個のサブ映像を生成するステップと、
    前記N個のサブ映像を利用して、被写体との距離を表す奥行き情報を算出するステップと、を含み、
    前記N個のサブ映像を生成するステップは、1個の前記サブ映像を生成するサブステップをN個含み、
    前記サブステップは、1個の前記サブ映像を生成する際に、前記光の投射時間露光されて、前記変調された光を撮影し、他のサブ映像のための次の投射開始時刻までに撮影により生成した前記サブ映像を出力することを特徴とする奥行き情報の算出方法。
  17. 前記N個の投射された光は、相異なる光であり、一つ以上の光源により発光されることを特徴とする請求項16に記載の奥行き情報の算出方法。
  18. 前記光を変調させる光変調器の駆動時間は、前記N個の光の投射時間にそれぞれ同期されることを特徴とする請求項16又は17に記載の奥行き情報の算出方法。
  19. 前記駆動時間は、前記光の投射時間より短いことを特徴とする請求項18に記載の奥行き情報の算出方法。
  20. 前記光を撮影する撮像素子の露光時間は、前記駆動時間に同期されることを特徴とする請求項18又は19に記載の奥行き情報の算出方法。
  21. 前記撮像素子のあらゆるピクセルは、前記光の投射時間の間、前記変調された光に露光されることを特徴とする請求項1820の何れか1項に記載の奥行き情報の算出方法。
  22. 前記N個の光は、周期が同じであり、振幅と位相のうち少なくとも一つが相異なる周期波であり、
    前記変調された光は、同じ変調信号で変調されることを特徴とする請求項1621の何れか1項に記載の奥行き情報の算出方法。
  23. 前記N個の光は、同じ周期波であり、
    前記変調された光は、異なる変調信号で変調されることを特徴とする請求項1621の何れか1項に記載の奥行き情報の算出方法。
  24. 前記N個の光のうち、隣接した時間帯に投射される光の位相差は、360°をN個に等分した値であることを特徴とする請求項19〜23のいずれか1項に記載の奥行き情報の算出方法。
  25. 前記生成されたN個のサブ映像は、前記N個の反射光と、順次、一対一マッチングされることを特徴とする請求項1624の何れか1項に記載の奥行き情報の算出方法。
  26. 前記N個のサブ映像に第1加重値をそれぞれ乗じた後で平均して第1平均映像を生成し、前記N個のサブ映像に第2加重値をそれぞれ乗じた後で平均して第2平均映像を生成し、前記第1及び第2平均映像から前記奥行き情報を算出することを特徴とする請求項1625の何れか1項に記載の奥行き情報の算出方法。
  27. 前記奥行き情報は、第1平均映像と第2平均映像との比率についてのアークタンジェント値から算出されることを特徴とする請求項26に記載の奥行き情報の算出方法。
JP2012233225A 2011-10-25 2012-10-22 三次元映像獲得装置、及び三次元映像獲得装置における奥行き情報の算出方法 Active JP6132510B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2011-0109431 2011-10-25
KR1020110109431A KR101854188B1 (ko) 2011-10-25 2011-10-25 3차원 영상 획득 장치 및 3차원 영상 획득 장치에서 깊이 정보 산출 방법

Publications (2)

Publication Number Publication Date
JP2013093847A JP2013093847A (ja) 2013-05-16
JP6132510B2 true JP6132510B2 (ja) 2017-05-24

Family

ID=47221902

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012233225A Active JP6132510B2 (ja) 2011-10-25 2012-10-22 三次元映像獲得装置、及び三次元映像獲得装置における奥行き情報の算出方法

Country Status (5)

Country Link
US (1) US9418425B2 (ja)
EP (1) EP2587276A1 (ja)
JP (1) JP6132510B2 (ja)
KR (1) KR101854188B1 (ja)
CN (1) CN103079085B (ja)

Families Citing this family (45)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101722641B1 (ko) * 2010-12-23 2017-04-04 삼성전자주식회사 3차원 영상 획득 장치 및 상기 3차원 영상 획득 장치에서 깊이 정보를 추출하는 방법
US9678209B2 (en) * 2012-09-13 2017-06-13 The United States Of America As Represented By The Secretary Of The Army System for laser detection with enhanced field of view
EP2946336B1 (en) 2013-01-15 2023-06-21 Mobileye Vision Technologies Ltd. Stereo assist with rolling shutters
US9962244B2 (en) 2013-02-13 2018-05-08 3Shape A/S Focus scanning apparatus recording color
WO2014132767A1 (ja) * 2013-02-28 2014-09-04 株式会社テクノロジーハブ 距離画像センサ
LU92173B1 (en) * 2013-03-20 2014-09-22 Iee Sarl Distance determination method
KR102056904B1 (ko) 2013-05-22 2019-12-18 삼성전자주식회사 3차원 영상 획득 장치 및 그 구동 방법
CN105247852B (zh) * 2013-06-07 2019-03-08 松下知识产权经营株式会社 图像获取装置、图像获取方法以及记录介质
KR102163728B1 (ko) * 2013-12-05 2020-10-08 삼성전자주식회사 거리영상 측정용 카메라 및 이를 이용한 거리영상 측정방법
KR102101864B1 (ko) 2014-01-29 2020-04-20 엘지이노텍 주식회사 깊이 정보 추출 장치
JP6693880B2 (ja) 2014-01-29 2020-05-13 エルジー イノテック カンパニー リミテッド 深さ情報抽出装置および方法
TWI511079B (zh) * 2014-04-30 2015-12-01 Au Optronics Corp 三維影像校正裝置及三維影像校正方法
US10419703B2 (en) * 2014-06-20 2019-09-17 Qualcomm Incorporated Automatic multiple depth cameras synchronization using time sharing
KR102194237B1 (ko) 2014-08-29 2020-12-22 삼성전자주식회사 깊이 영상 촬영 장치 및 깊이 정보 획득 방법
KR101610512B1 (ko) 2014-09-23 2016-04-07 현대자동차주식회사 스테레오 카메라 및 그 작동 방법
KR102277900B1 (ko) * 2014-11-13 2021-07-15 삼성전자주식회사 3차원 이미지 센서 모듈을 포함하는 전자 장치
DE112015005163T5 (de) * 2014-11-14 2017-07-27 Denso Corporation Flugzeitabstandsmessvorrichtung
US10061029B2 (en) * 2015-01-06 2018-08-28 Samsung Electronics Co., Ltd. Correction of depth images from T-O-F 3D camera with electronic-rolling-shutter for light modulation changes taking place during light integration
US10024966B2 (en) * 2015-01-28 2018-07-17 Texas Instruments Incorporated Efficient implementation of distance de-aliasing for ranging systems using phase domain computation
CN107534049B (zh) * 2015-04-24 2021-07-20 索尼公司 固态图像元件、半导体装置和电子设备
CN107615093B (zh) 2015-05-28 2021-07-06 新唐科技日本株式会社 测距摄像装置、其测距方法以及固体摄像装置
KR102114969B1 (ko) * 2015-06-08 2020-06-08 삼성전자주식회사 광학 장치 및 깊이 정보 생성 방법
JP6849371B2 (ja) * 2015-10-08 2021-03-24 三星電子株式会社Samsung Electronics Co.,Ltd. 側面発光レーザ光源、及びそれを含む三次元映像取得装置
KR102486385B1 (ko) 2015-10-29 2023-01-09 삼성전자주식회사 깊이 정보 획득 장치 및 방법
KR102372088B1 (ko) 2015-10-29 2022-03-08 삼성전자주식회사 영상 획득 장치 및 영상 획득 방법
US9762893B2 (en) 2015-12-07 2017-09-12 Google Inc. Systems and methods for multiscopic noise reduction and high-dynamic range
US10101154B2 (en) * 2015-12-21 2018-10-16 Intel Corporation System and method for enhanced signal to noise ratio performance of a depth camera system
KR20180021509A (ko) * 2016-08-22 2018-03-05 삼성전자주식회사 거리 정보를 획득하는 방법 및 디바이스
KR102561099B1 (ko) * 2016-09-23 2023-07-28 삼성전자주식회사 ToF(time of flight) 촬영 장치 및 다중 반사에 의한 깊이 왜곡 저감 방법
CN108616735B (zh) * 2016-12-02 2021-08-06 北京三星通信技术研究有限公司 用于获得对象的三维深度图像的装置和方法
US11619715B2 (en) 2017-03-16 2023-04-04 Fastree3D Sa Method and device for optimizing the use of emitter and detector in an active remote sensing application
WO2018166610A1 (en) * 2017-03-16 2018-09-20 Fastree3D Sa Method and device for optimizing the use of multiple emitters and a detector in an active remote sensing application
DE102017114565A1 (de) * 2017-06-29 2019-01-03 Osram Opto Semiconductors Gmbh Optische Abstandsmessvorrichtung und Verfahren zum Betreiben einer optischen Abstandsmessvorrichtung
US11280908B2 (en) * 2017-08-15 2022-03-22 Black Sesame Technologies Inc. Obstacle detection by global shutter image sensor
US10972643B2 (en) * 2018-03-29 2021-04-06 Microsoft Technology Licensing, Llc Camera comprising an infrared illuminator and a liquid crystal optical filter switchable between a reflection state and a transmission state for infrared imaging and spectral imaging, and method thereof
US10924692B2 (en) 2018-05-08 2021-02-16 Microsoft Technology Licensing, Llc Depth and multi-spectral camera
CN108845332B (zh) * 2018-07-04 2020-11-20 歌尔光学科技有限公司 基于tof模组的深度信息测量方法及装置
KR102673817B1 (ko) * 2018-07-30 2024-06-10 삼성전자주식회사 3차원 영상 표시 장치 및 영상 처리 방법
CN109358339A (zh) * 2018-08-31 2019-02-19 北京理工大学 一种基于固态面阵激光雷达的草地高度测量方法
KR102560397B1 (ko) * 2018-09-28 2023-07-27 엘지이노텍 주식회사 카메라 장치 및 그의 깊이 정보 추출 방법
KR102571864B1 (ko) * 2018-10-31 2023-08-29 엘지이노텍 주식회사 카메라 장치
US11212456B2 (en) * 2018-12-21 2021-12-28 Sony Group Corporation Synchronized projection and image capture
CN113412614B (zh) * 2019-03-27 2023-02-14 Oppo广东移动通信有限公司 使用深度图像的三维定位
KR102160472B1 (ko) 2020-04-16 2020-09-28 주식회사 자오스모터스 Led 헤드 램프 연동 자동차 라이다 시스템
CN113985425A (zh) * 2020-07-10 2022-01-28 广州印芯半导体技术有限公司 测距装置以及测距方法

Family Cites Families (54)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3682553A (en) * 1968-09-19 1972-08-08 Optics Technology Inc Apparatus for acquiring and laying real time 3-d information
US5081530A (en) 1987-06-26 1992-01-14 Antonio Medina Three dimensional camera and range finder
US4935616A (en) * 1989-08-14 1990-06-19 The United States Of America As Represented By The Department Of Energy Range imaging laser radar
US5694203A (en) 1995-01-31 1997-12-02 Kabushikikaisha Wacom Distance camera device having light gate for extracting distance information
IL114278A (en) * 1995-06-22 2010-06-16 Microsoft Internat Holdings B Camera and method
CN1101056C (zh) 1995-06-22 2003-02-05 3Dv***有限公司 生成距景物距离的图象的方法和装置
US6088086A (en) 1995-09-11 2000-07-11 Sandia Corporation Range determination for scannerless imaging
AU5876798A (en) 1998-02-08 1999-08-23 3Dv Systems Ltd. Large aperture optical image shutter
US6091175A (en) 1998-03-12 2000-07-18 Camco International, Inc. Self-centering rotor bearing assembly for submersible pump motors
JP4105801B2 (ja) 1998-07-02 2008-06-25 ペンタックス株式会社 3次元画像入力装置
JP3840341B2 (ja) 1998-10-15 2006-11-01 浜松ホトニクス株式会社 立体情報検出方法及び装置
US6323942B1 (en) 1999-04-30 2001-11-27 Canesta, Inc. CMOS-compatible three-dimensional image sensor IC
US6118946A (en) 1999-06-29 2000-09-12 Eastman Kodak Company Method and apparatus for scannerless range image capture using photographic film
US6288776B1 (en) * 1999-11-24 2001-09-11 Eastman Kodak Company Method for unambiguous range estimation
US6856355B1 (en) 1999-11-30 2005-02-15 Eastman Kodak Company Method and apparatus for a color scannerless range image system
US6794628B2 (en) 2000-01-03 2004-09-21 3Dv Systems, Ltd. Solid state optical shutter
EP1152261A1 (en) 2000-04-28 2001-11-07 CSEM Centre Suisse d'Electronique et de Microtechnique SA Device and method for spatially resolved photodetection and demodulation of modulated electromagnetic waves
US6349174B1 (en) * 2000-05-17 2002-02-19 Eastman Kodak Company Method and apparatus for a color scannerless range imaging system
US6456793B1 (en) * 2000-08-03 2002-09-24 Eastman Kodak Company Method and apparatus for a color scannerless range imaging system
EP1461645A4 (en) * 2001-12-14 2006-09-06 Digital Optics Internat Corp UNIFORM LIGHTING SYSTEM
JP4235729B2 (ja) 2003-02-03 2009-03-11 国立大学法人静岡大学 距離画像センサ
WO2005036372A2 (en) * 2003-10-09 2005-04-21 Honda Motor Co., Ltd. Systems and methods for determining depth using shuttered light pulses
JP4161910B2 (ja) 2004-01-28 2008-10-08 株式会社デンソー 距離画像データ生成装置及び生成方法,プログラム
US7995191B1 (en) * 2006-06-29 2011-08-09 Sandia Corporation Scannerless laser range imaging using loss modulation
DE102006049695A1 (de) * 2006-10-16 2008-04-24 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und Verfahren zum berührungslosen Erfassen einer dreidimensionalen Kontur
US7616243B2 (en) 2007-03-07 2009-11-10 Altasens, Inc. Method and apparatus for improving and controlling dynamic range in an image sensor
JP5295511B2 (ja) 2007-03-23 2013-09-18 富士フイルム株式会社 測距装置及び測距方法
DE102007023738A1 (de) * 2007-05-16 2009-01-08 Seereal Technologies S.A. Verfahren und Einrichtung zum Rekonstruieren einer dreidimensionalen Szene in einem holographischen Display
US7746450B2 (en) * 2007-08-28 2010-06-29 Science Applications International Corporation Full-field light detection and ranging imaging system
US8492683B2 (en) 2008-06-27 2013-07-23 Omg, Inc. Stand-up membrane roofing induction heating tool
EP2116864A1 (en) 2008-05-09 2009-11-11 Vrije Universiteit Brussel TOF range finding with background radiation suppression
JP5448617B2 (ja) 2008-08-19 2014-03-19 パナソニック株式会社 距離推定装置、距離推定方法、プログラム、集積回路およびカメラ
US20110063437A1 (en) * 2008-08-20 2011-03-17 Tatsumi Watanabe Distance estimating device, distance estimating method, program, integrated circuit, and camera
JP4629136B2 (ja) 2008-10-15 2011-02-09 富士フイルム株式会社 測距装置および測距方法並びにプログラム
US8619354B2 (en) 2008-12-24 2013-12-31 Samsung Electronics Co., Ltd. High speed optical shutter, method of operating the same and apparatus including the same
KR101520029B1 (ko) 2008-12-31 2015-05-15 삼성전자주식회사 고정세화 패턴을 갖는 광 변조기
KR101547327B1 (ko) 2009-01-15 2015-09-07 삼성전자주식회사 광 이미지 변조기와 이를 포함하는 광학장치와 광 이미지 변조기의 제조 및 구동방법
KR101603778B1 (ko) 2009-01-19 2016-03-25 삼성전자주식회사 광 이미지 셔터
KR101623960B1 (ko) 2009-06-04 2016-05-25 삼성전자주식회사 광전자 셔터, 이의 동작 방법 및 광전자 셔터를 채용한 광학 장치
KR101638974B1 (ko) 2009-06-17 2016-07-13 삼성전자주식회사 광 변조기와 그 제조 및 동작방법과 광 변조기를 포함하는 광학장치
KR101706354B1 (ko) 2009-06-24 2017-02-13 삼성전자주식회사 고속 광 변조기 및 이를 이용한 광 변조방법
WO2011020921A1 (en) 2009-08-21 2011-02-24 Iee International Electronics & Engineering S.A. Time-of-flight sensor
KR20110051391A (ko) 2009-11-10 2011-05-18 삼성전자주식회사 외광의 영향을 줄이기 위한 깊이 픽셀 장치 및 동작 방법
KR101675111B1 (ko) 2010-01-08 2016-11-11 삼성전자주식회사 광 이미지 셔터 및 그 제조 방법
KR101675112B1 (ko) * 2010-01-21 2016-11-22 삼성전자주식회사 거리 정보 추출 방법 및 상기 방법을 채용한 광학 장치
CN101866056A (zh) * 2010-05-28 2010-10-20 中国科学院合肥物质科学研究院 基于led阵列共透镜tof深度测量的三维成像方法和***
KR101753312B1 (ko) 2010-09-17 2017-07-03 삼성전자주식회사 뎁스 영상 생성 장치 및 방법
KR101598547B1 (ko) 2010-12-03 2016-03-02 삼성전자주식회사 광 이미지 변조기 및 그 제조 방법
KR101660408B1 (ko) 2010-12-20 2016-09-27 삼성전자주식회사 입사광의 입사각 보정기능을 갖는 광 이미지 변조기 및 이를 포함하는 광학장치
KR101722641B1 (ko) * 2010-12-23 2017-04-04 삼성전자주식회사 3차원 영상 획득 장치 및 상기 3차원 영상 획득 장치에서 깊이 정보를 추출하는 방법
KR20120075182A (ko) 2010-12-28 2012-07-06 삼성전자주식회사 다중 패브리-페로 공진 모드를 이용한 광변조기 및 상기 광변조기를 포함하는 3차원 영상 획득 장치
KR101669219B1 (ko) 2010-12-30 2016-10-26 삼성전자주식회사 광변조기 및 이를 채용한 광학장치
KR101799521B1 (ko) 2011-05-24 2017-11-20 삼성전자 주식회사 광결정형 광변조기 및 이를 구비하는 3차원 영상 획득 장치
KR101955334B1 (ko) * 2012-02-07 2019-03-07 삼성전자주식회사 3차원 영상 획득 장치 및 상기 3차원 영상 획득 장치에서 깊이 정보를 추출하는 방법

Also Published As

Publication number Publication date
US20130101176A1 (en) 2013-04-25
JP2013093847A (ja) 2013-05-16
CN103079085A (zh) 2013-05-01
KR20130045018A (ko) 2013-05-03
US9418425B2 (en) 2016-08-16
EP2587276A1 (en) 2013-05-01
KR101854188B1 (ko) 2018-05-08
CN103079085B (zh) 2016-12-21

Similar Documents

Publication Publication Date Title
JP6132510B2 (ja) 三次元映像獲得装置、及び三次元映像獲得装置における奥行き情報の算出方法
JP7237114B2 (ja) 深さ情報抽出装置
KR102486385B1 (ko) 깊이 정보 획득 장치 및 방법
KR101722641B1 (ko) 3차원 영상 획득 장치 및 상기 3차원 영상 획득 장치에서 깊이 정보를 추출하는 방법
JP5739174B2 (ja) 距離情報抽出方法及び該方法を採用した光学装置
CN100553346C (zh) 具备测距功能的摄像装置及摄像方法
EP2790034B1 (en) 3D image acquisition apparatus and method of generating depth image in the 3D image acquisition apparatus
KR101955334B1 (ko) 3차원 영상 획득 장치 및 상기 3차원 영상 획득 장치에서 깊이 정보를 추출하는 방법
KR101753312B1 (ko) 뎁스 영상 생성 장치 및 방법
BE1022488B1 (fr) Systeme d'appareil de prise de vues a temps-de-vol
JP5858688B2 (ja) 距離画像生成装置
US20150215547A1 (en) Periodic fringe imaging with structured pattern illumination and electronic rolling shutter detection
CN106657969B (zh) 用于获得图像的装置和方法
KR20140137513A (ko) 3차원 영상 획득 장치 및 그 구동 방법
KR102194237B1 (ko) 깊이 영상 촬영 장치 및 깊이 정보 획득 방법
JP7244013B2 (ja) エピポーラ飛行時間撮像のための方法
US20190364264A1 (en) Method and system for unsynchronized structured lighting
JP5669071B2 (ja) 時間相関カメラ
WO2017056776A1 (ja) 距離画像取得装置付きプロジェクタ装置及びプロジェクション方法
KR20170076477A (ko) 거리 정보를 획득하는 방법 및 디바이스
JP6042674B2 (ja) 三次元情報取得機能付き画像投影装置
CN112150382B (zh) 高时空分辨率周期运动三维测量方法、装置
JP2017133931A (ja) 画像生成装置、ならびに距離画像およびカラー画像の生成方法
JP2024058581A (ja) 撮像システム、撮像装置および撮像方法
JP2021173657A (ja) 撮像システムおよび撮像方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150414

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160324

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160329

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160629

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20161004

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170203

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20170213

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170404

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170418

R150 Certificate of patent or registration of utility model

Ref document number: 6132510

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250