JP2016522889A - 1つ以上の衛星デバイスを有する能動的なステレオ - Google Patents

1つ以上の衛星デバイスを有する能動的なステレオ Download PDF

Info

Publication number
JP2016522889A
JP2016522889A JP2016508993A JP2016508993A JP2016522889A JP 2016522889 A JP2016522889 A JP 2016522889A JP 2016508993 A JP2016508993 A JP 2016508993A JP 2016508993 A JP2016508993 A JP 2016508993A JP 2016522889 A JP2016522889 A JP 2016522889A
Authority
JP
Japan
Prior art keywords
data
image
base station
depth
satellite
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016508993A
Other languages
English (en)
Other versions
JP6469080B2 (ja
JP2016522889A5 (ja
Inventor
ジー. キルク,アダム
ジー. キルク,アダム
エー. ホワイト,オリヴァー
エー. ホワイト,オリヴァー
レマン,クリストフ
イザディ,シャラム
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Microsoft Corp
Original Assignee
Microsoft Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Microsoft Corp filed Critical Microsoft Corp
Publication of JP2016522889A publication Critical patent/JP2016522889A/ja
Publication of JP2016522889A5 publication Critical patent/JP2016522889A5/ja
Application granted granted Critical
Publication of JP6469080B2 publication Critical patent/JP6469080B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • G01B11/2513Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object with several lines being projected in more than one direction, e.g. grids, patterns
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B29WORKING OF PLASTICS; WORKING OF SUBSTANCES IN A PLASTIC STATE IN GENERAL
    • B29CSHAPING OR JOINING OF PLASTICS; SHAPING OF MATERIAL IN A PLASTIC STATE, NOT OTHERWISE PROVIDED FOR; AFTER-TREATMENT OF THE SHAPED PRODUCTS, e.g. REPAIRING
    • B29C64/00Additive manufacturing, i.e. manufacturing of three-dimensional [3D] objects by additive deposition, additive agglomeration or additive layering, e.g. by 3D printing, stereolithography or selective laser sintering
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B29WORKING OF PLASTICS; WORKING OF SUBSTANCES IN A PLASTIC STATE IN GENERAL
    • B29CSHAPING OR JOINING OF PLASTICS; SHAPING OF MATERIAL IN A PLASTIC STATE, NOT OTHERWISE PROVIDED FOR; AFTER-TREATMENT OF THE SHAPED PRODUCTS, e.g. REPAIRING
    • B29C64/00Additive manufacturing, i.e. manufacturing of three-dimensional [3D] objects by additive deposition, additive agglomeration or additive layering, e.g. by 3D printing, stereolithography or selective laser sintering
    • B29C64/30Auxiliary operations or equipment
    • B29C64/386Data acquisition or data processing for additive manufacturing
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/22Measuring arrangements characterised by the use of optical techniques for measuring depth
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • G01B11/2518Projection by scanning of the object
    • G01B11/2527Projection by scanning of the object with phase change by in-plane movement of the patern
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • G01B11/2545Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object with one projection direction and several detection directions, e.g. stereo
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/42Diffraction optics, i.e. systems including a diffractive element being designed for providing a diffractive effect
    • G02B27/4205Diffraction optics, i.e. systems including a diffractive element being designed for providing a diffractive effect having a diffractive optical element [DOE] contributing to image formation, e.g. whereby modulation transfer function MTF or optical aberrations are relevant
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/42Diffraction optics, i.e. systems including a diffractive element being designed for providing a diffractive effect
    • G02B27/44Grating systems; Zone plate systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B5/00Optical elements other than lenses
    • G02B5/18Diffraction gratings
    • G02B5/1876Diffractive Fresnel lenses; Zone plates; Kinoforms
    • G02B5/189Structurally combined with optical elements not having diffractive power
    • G02B5/1895Structurally combined with optical elements not having diffractive power such optical elements having dioptric power
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/30Monitoring
    • G06F11/3003Monitoring arrangements specially adapted to the computing system or computing system component being monitored
    • G06F11/3024Monitoring arrangements specially adapted to the computing system or computing system component being monitored where the computing system component is a central processing unit [CPU]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F12/00Accessing, addressing or allocating within memory systems or architectures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F12/00Accessing, addressing or allocating within memory systems or architectures
    • G06F12/02Addressing or allocation; Relocation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F12/00Accessing, addressing or allocating within memory systems or architectures
    • G06F12/02Addressing or allocation; Relocation
    • G06F12/0207Addressing or allocation; Relocation with multidimensional access, e.g. row/column, matrix
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F12/00Accessing, addressing or allocating within memory systems or architectures
    • G06F12/02Addressing or allocation; Relocation
    • G06F12/0223User address space allocation, e.g. contiguous or non contiguous base addressing
    • G06F12/0292User address space allocation, e.g. contiguous or non contiguous base addressing using tables or multilevel address translation means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0628Interfaces specially adapted for storage systems making use of a particular technique
    • G06F3/0653Monitoring storage devices or systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0628Interfaces specially adapted for storage systems making use of a particular technique
    • G06F3/0655Vertical data movement, i.e. input-output transfer; data movement between one or more hosts and one or more storage devices
    • G06F3/0659Command handling arrangements, e.g. command buffers, queues, command scheduling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0668Interfaces specially adapted for storage systems adopting a particular infrastructure
    • G06F3/0671In-line storage system
    • G06F3/0683Plurality of storage devices
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/30Arrangements for executing machine instructions, e.g. instruction decode
    • G06F9/30003Arrangements for executing specific machine instructions
    • G06F9/3004Arrangements for executing specific machine instructions to perform operations on memory
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/30Arrangements for executing machine instructions, e.g. instruction decode
    • G06F9/30003Arrangements for executing specific machine instructions
    • G06F9/3004Arrangements for executing specific machine instructions to perform operations on memory
    • G06F9/30043LOAD or STORE instructions; Clear instruction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/30Arrangements for executing machine instructions, e.g. instruction decode
    • G06F9/30098Register arrangements
    • G06F9/3012Organisation of register space, e.g. banked or distributed register file
    • G06F9/30123Organisation of register space, e.g. banked or distributed register file according to context, e.g. thread buffers
    • G06F9/30127Register windows
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/60Memory management
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/586Depth or shape recovery from multiple images from multiple light sources, e.g. photometric stereo
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/25Image signal generators using stereoscopic image cameras using two or more image sensors with different characteristics other than in their location or field of view, e.g. having different resolutions or colour pickup characteristics; using image signals from one sensor to control the characteristics of another sensor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/254Image signal generators using stereoscopic image cameras in combination with electromagnetic radiation sources for illuminating objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/271Image signal generators wherein the generated image signals comprise depth maps or disparity maps
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N17/00Diagnosis, testing or measuring for television systems or their details
    • H04N17/002Diagnosis, testing or measuring for television systems or their details for television cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/10Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
    • H04N23/11Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths for generating image signals from visible and infrared light wavelengths
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/56Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/10Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
    • H04N25/11Arrangement of colour filter arrays [CFA]; Filter mosaics
    • H04N25/13Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements
    • H04N25/131Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements including elements passing infrared wavelengths
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/60Noise processing, e.g. detecting, correcting, reducing or removing noise
    • H04N25/61Noise processing, e.g. detecting, correcting, reducing or removing noise the noise originating only from the lens unit, e.g. flare, shading, vignetting or "cos4"
    • H04N25/611Correction of chromatic aberration
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/30Transforming light or analogous information into electric information
    • H04N5/33Transforming infrared radiation
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/213Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/42Diffraction optics, i.e. systems including a diffractive element being designed for providing a diffractive effect
    • G02B27/4233Diffraction optics, i.e. systems including a diffractive element being designed for providing a diffractive effect having a diffractive element [DOE] contributing to a non-imaging application
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2218/00Aspects of pattern recognition specially adapted for signal processing
    • G06F2218/12Classification; Matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Software Systems (AREA)
  • Optics & Photonics (AREA)
  • Human Computer Interaction (AREA)
  • Materials Engineering (AREA)
  • Chemical & Material Sciences (AREA)
  • Mathematical Physics (AREA)
  • Computing Systems (AREA)
  • Manufacturing & Machinery (AREA)
  • Mechanical Engineering (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Health & Medical Sciences (AREA)
  • Electromagnetism (AREA)
  • Quality & Reliability (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Image Processing (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Diffracting Gratings Or Hologram Optical Elements (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Lenses (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Analysis (AREA)
  • Power Engineering (AREA)
  • Measurement Of Optical Distance (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • Color Television Image Signal Generators (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Condensed Matter Physics & Semiconductors (AREA)
  • Computer Hardware Design (AREA)
  • Extrusion Moulding Of Plastics Or The Like (AREA)
  • Telephone Function (AREA)

Abstract

本開示は、画像関連のデータを、基地局及び/又は1つ以上の衛星コンピューティングデバイス、例えばタブレットコンピュータ及び/又はスマートフォンの間で通信することを対象とする。衛星デバイスは、画像データをキャプチャして、画像関連のデータ(例えば画像又は画像から処理される深度データ)を、基地局のような別のデバイスに通信する。受け取り側のデバイスは、画像関連のデータを使用して、例えばシーン内の何らかの物に、基地局よりも物理的に近い衛星デバイスからキャプチャされた画像データに基づいて、深度データ(例えば深度マップ)を強化する。深度データを様々な条件下でより正確にキャプチャするために、能動的な照明パターンが、基地局又は別の外部プロジェクタから投影され、これにより、衛星ユニットは、他のソースの能動的な照明を使用し得るので、内部電力を消費する必要がなく、能動的な照明からの利益が得られる。

Description

能動的なステレオシステムによって使用されるような能動深度感知において、プロジェクタは、赤外(IR)ドット又はIR線のような光のパターンを投影して、感知されているシーンを照明する。プロジェクタは、約1Wの電力を消費するレーザを使用し得ることに留意されたい。これは、プロジェクタが多くの電力を消費するために、典型的に壁コンセントにプラグインされるデバイスの一部とする代わりに、スマートフォンやタブレットといった小さな衛星デバイスに組み込むことは、ほとんどできないことを意味する。
投影されるパターンは、次いで、深度マップ又は同様のものを計算するよう処理される画像(複数可)とともに、カメラ/センサ(ステレオシステム内では2つ以上)によってキャプチャされる。例えばステレオシステムでは、ステレオカメラが異なる視点から2つの画像をキャプチャする。次いで、例えば画像のステレオペアを伴う深度推定を実行する1つの方法は、画像間の対応を見つけること、例えば左の画像内の投影及び感知されたドットと、右画像内の対応するドットを相関させることである。マッチすると、両画像内の投影されたパターンは相互に相関され、そして可能であれば、相関されたドットの1つ以上の特徴(例えば強度を含む)の間の差異とともに三角測量を使用して、その特定の投影ドットによって照らされる対象物までの深度を推定することができる。
ほとんどのシナリオにおいて、ステレオ画像をキャプチャするカメラは、部屋のように比較的大きな空間を感知するように配置され、比較的大きい可能性がある。その結果、顔のように遠くの対象物(object)は、比較的少ない数のカメラピクセルのみにしか現れない。したがって、顔認識等のような多くのアプリケーションによって必要とされるほど十分な詳細及び/又は正確な深度推定は利用可能でない。
この「発明の概要」における記載は、以下で「発明を実施するための形態」において更に説明される代表的な概念の選択を簡略化した形で紹介するために提供される。この「発明の概要」における記載は、特許請求に係る主題の主要な特徴又は本質的な特徴を特定するようには意図されておらず、また特許請求に係る主題の範囲を限定するような方法で使用されることも意図されていない。
簡潔に言うと、本明細書で説明される主題の様々な態様の1つ以上は、衛星(例えばモバイル)デバイスからの情報を使用して、基地局のような別のデバイスによって計算される深度データを強化することを対象とする。1つ以上の態様は、衛星デバイスからの画像関連のデータを他のデバイスにおいて受け取り、この画像関連のデータ及び衛星デバイスのポーズ(pose)情報に少なくとも部分的に基づいて、深度データの第1のセットを強化することを対象とする。
1つ以上の態様において、基地局は、衛星デバイスのポーズ情報を決定し、1つ以上の画像をキャプチャするように構成される。基地局は、画像関連のデータを衛星デバイスから受け取り、ポーズ情報及び画像関連のデータに少なくとも部分的に基づいて、深度マップを計算する。
1つ以上の態様は、基地局において衛星デバイスからの画像関連のデータを受け取り、基地局において、能動的に照明される(actively illuminated)ステレオ画像をキャプチャすることを対象とする。衛星デバイスに対応するポーズ情報が決定される。能動的に照明されるステレオ画像は、基地局の視点から、画像関連のデータに対応する深度情報によって強化される深度マップを決定するように処理される。
他の利点は、以下の詳細な説明を図面と関連して考慮するときに、以下の詳細な説明から明らかになり得る。
本発明は、限定ではなく例として添付の図面に図示されている。図面において、同様の参照番号は類似する要素を示す。
1つ以上の例示の実装に従って、シーンに光パターンを投影する基地局を表す図であって、衛星デバイスが、シーンの少なくとも一部をキャプチャする様子を示す図である。 1つ以上の例示の実装に従って、深度データへと処理するために画像を投影してキャプチャするのに使用され得る例示のコンポーネントを表すブロック図である。 1つ以上の例示の実装に従って、基地局データと衛星データを深度データへと処理する例を表すブロック図である。 1つ以上の例示の実装に従って、ある衛星デバイスのデータと別の衛星デバイスのデータとを深度データへと処理する例を表すブロック図である。 1つ以上の例示の実装に従って、基地局に信号伝達するように構成される衛星デバイスを表す図である。 1つ以上の例示の実装に従って、単一の衛星デバイスカメラから深度データを決定し得る方法を表す図である。 1つ以上の例示の実装に従って、単一の衛星デバイスカメラから深度データを決定し得る方法を表す図である。 1つ以上の例示の実装に従って、深度マップを決定する際に使用するために、衛星デバイスから画像関連のデータを取得する例示のステップを表すフロー図である。 本明細書で説明される様々な実施形態の1つ以上の態様を実装することができる、モバイルデバイスの形式の例示の非限定的なコンピューティングシステム又は動作環境を表すブロック図である。
本明細書で説明される技術の様々な態様は、概して、スマートフォンやタブレットコンピュータといった衛星(例えばモバイル)デバイスを使用して、例えば深度感知を向上させ、更なる画像の詳細を提供し、かつ/又はポーズを推定すること等のために、能動的な照明の基地局との間で情報を通信することを対象とする。同時に、衛星デバイスは、衛星デバイス自体の能動的な感知のために、基地局の能動的な照明を利用するので、衛星デバイスは、光パターンを投影するのにバッテリ電力を消費する必要がない。
1つ以上の代替形態では、複数の衛星デバイスが、外部ソースからの投影された光を使用して、画像/深度/これらから計算される位置データを相互間で通信することができる。深度及びシーンに関する他の有益なデータは、固定の基地局の必要性なしに、これらのデバイスに利用可能にすることができる。
本明細書における例示のいずれも、非限定的であることを理解されたい。例えば衛星デバイスは、本明細書では概してモバイルとして例示されるが、1つ(又は1つより多くの)補助デバイスが、所望により基地局と較正され得る「固定の衛星(fixed satellite)」として配置されてもよい。これは、例えばシーンの何らかの顕著な部分により近いカメラを提供するのに使用され得る。したがって、本明細書で使用されるとき、「衛星」という用語は、モバイルである必要はなく、任意の補助デバイスを含んでもよい。別の例として、飛行時間(time-of-flight)カメラが、少なくとも何らかのデータを決定するのに使用されてもよい。したがって、本発明は、本明細書で説明されるいずれかの特定の実施形態、態様、概念、構造、機能又は例に限定されない。むしろ、本明細書で説明される実施形態、態様、概念、構造、機能又は例はいずれも非限定的であり、本発明は、能動的な深度感知及び画像キャプチャ及び一般的な処理における利点及び効果を提供する様々な方法で使用され得る。
図1は、基地局100が、異なる視点からシーン104の画像をキャプチャするステレオ(例えば赤外)カメラ102及び103を含む一実装を例示している。プロジェクタ106は、光パターン(例えば約100,000ポイント)でシーン104を照らす。光パターンは疑似乱数であってもよく、回折光素子を通してレーザ光を放射することにより生成され得る。代わりに線パターンや他の形状のスポット等が生成され、感知されることもあるが、簡潔性の目的で、本明細書では、放射されたパターンのポイント/コンポーネントを一般的にドットと称する。
カメラ102及び103は、シーン222及び(場合によっては)背景内の物体面からドットが反射されると、これらのドットをキャプチャする。一般に一方のカメラ(例えば102)によって感知されるドットは、画像処理108(例えばシステム又はサブシステム)を介して他のカメラ(例えば103)によって感知されるドットと相関され、これにより、各ドットが入射した反射面までの距離を(例えば三角測量により)提供することができる。図1は、いずれかのサイズ、距離、ドットの分散パターン、ドットの密度についてスケーリングするよう意図されておらず、またこれらを示すようにも意図されていないことに留意されたい。
また、基地局100は、クリーンなIRカメラ、例えば能動照明パターンをブロックするフィルタを有するIRカメラ及び/又は可視光をキャプチャするRGBカメラを含むこともあり、その双方が存在する場合は、これらのカメラを単一のカメラに組み合わせてもよい。図1のカメラ112は、これらの代替的なカメラのうちのいずれかを表す。
図1に示されるように、シーン104内で感知される対象物の1つは、モバイルのスマートフォン又はタブレットコンピューティングデバイスといった、衛星デバイス110であり得る。同時に、衛星デバイスは、例えばその深度を含め、シーン内の他の対象物を感知していることがあり、これは、例えば照明パターンを感知し、場合によっては、そのクリーンIR及び/又はRGB画像を感知するステレオIRカメラ等を介して行われる。
図2は、例示の基地局100を示しており、基地局100内では、画像キャプチャシステム又はサブシステム224のステレオカメラ102及び103が、時間で同期される画像をキャプチャする(例えばこれらのカメラは“ゲンロック(genlocked)”される)。一実装において、カメラは赤外(IR)画像をキャプチャするが、これは、IRがシーンの視覚的外観に影響しないためである(このことは、例えばビデオ会議やオブジェクトモデル化アプリケーションにおいて非常に有利である)。容易に認識されるように、スタジオ環境のような一部のシナリオでは、2つより多くのIR深度感知カメラが存在してもよい。さらに、RGBカメラのような1つ以上の他のカメラが、所与のシステム内に存在してもよく、そのような他のカメラを使用して、例えば画像を整列させ、異なるステレオ画像内のドットのペアを相関させること等を助けることができる。
図2では、プロジェクタ106は、IRパターンをシーン上に投影する。シーンを比較的多数の分散赤外ドットで照らすことにより、カメラ102及び103は、更なるテクスチャデータを赤外画像データの一部としてキャプチャすることができる。プロジェクタ106の配置は、カメラの外側(例えば図2)であっても、カメラの間(例えば図1)であってもよく、あるいは、双方の又は一方のカメラの上又は下のような別の位置であってもよいことに留意されたい。この説明における例は、カメラ102、103及び/又はプロジェクタ106が互いに対して配置される場所を限定するものではなく、カメラを、互いに対して異なる位置に配置してよい。
一実装において、例示の画像キャプチャシステム又はサブシステム224は、カメラインタフェース230を介してカメラ102及び103の動作を制御し、存在する場合にはカメラ112の動作も制御するコントローラ228を含む。例示されるコントローラは、プロジェクタインタフェース232を介してプロジェクタ106の動作も制御する。例えばカメラ102及び103は、例えば1つのコントローラの信号(あるいはカメラ毎に異なる信号)等によって、ステレオ画像を同時にキャプチャするように同期(ゲンロック)される。プロジェクタ106は、例えばターンオン又はターンオフされるか、パルス化されるか、そうでなくとも制御可能に変化する1つ以上のパラメータを有することがある。
カメラ102及び103(存在する場合は、更にカメラ112)によってキャプチャされる画像は、ハードウェア及び/又はソフトウェアで(例えばコンピュータ読取可能命令として)実装されるロジックを備える画像処理108システム又はサブシステムに提供される。一部の実装では、画像処理システム108と画像キャプチャシステム又はサブシステム224を、あるいはこれらの一部を組み合わせて、単一のデバイスにしてもよい。例えばホームエンターテイメントデバイスが、図1に示されるコンポーネント(並びに図示されないコンポーネント)の全てを含んでもよい。他の実装では、カメラ及びプロジェクタといった、画像キャプチャシステム又はサブシステム224の一部(又は全て)が、ゲームコンソール、パーソナルコンピュータ、衛星デバイス、専用の処理デバイス及び/又は同様のものに結合する別個のデバイスであってもよい。
1つ以上の実装において、画像処理システム又はサブシステム108は、プロセッサ240と、1つ以上の画像処理アルゴリズム244を含むメモリ242とを含む。1つ以上の深度マップ246は、アルゴリズム124により、例えば合致する(ドット及び/又は線といった)特徴を抽出すること等によって取得され得る。例えば既知であるように、例えば米国特許出願公開第2013/0,100,256号で説明されるように、異なるドット又は他の投影される素子は、キャプチャされるとき、プロジェクタから反射面までの距離及び/又はカメラから反射面までの距離に応じて、強度(明度)を含め異なる特徴を有する。これもまた知られているように、(例えばゲンロックされるステレオカメラにより)同時に撮られた異なる画像内のドットは、同じ瞬間にキャプチャされた同じシーンのRGB画像の間の小さい(例えばRGB)パッチを合致させること等により、相互に相関され得る。したがって、キャプチャされた画像により、既知のアルゴリズムは、深度を決定するために合致したドット間の特定の特徴の三角測量/差異を使用して、各画像内の投影された光コンポーネント(例えばドット)を合致させることにより、個々の深度に関連する特徴(深度マップ)を決定することができる。これは、ステレオ画像処理を介して深度マップを取得し得る1つの方法である。
また、図1には、基地局への1つ以上のインタフェース、例えば深度マップを用いるアプリケーション等と対話をするのにユーザにとって適切であるように、キーボード、ゲームコントローラ、ディスプレイ、音声コマンドのためのポインティングデバイスマイクロフォン及び/又は同様のものを接続するためのインタフェースが示されている。少なくとも1つのインタフェース132は、衛星デバイス110が、本明細書で説明されるように基地局と(例えば無線で)通信するのを可能にする。
1つ以上の実装は、レーザーパターンを放射して深度を計算する、室内の基地局100を備える。ユーザが、スマートフォンやタブレットといった衛星デバイス110を使用するとき、衛星デバイス110上のカメラ又はステレオカメラは、ベースユニット(基地局)の放射レーザーパターンを観察することができる。衛星デバイス110は、したがって、その外部生成されたレーザーパターンに基づいて、ステレオを計算し、さらに、情報を基地局100に通信することができる。
本明細書で説明されるように、衛星デバイスのデータを使用して、基地局が計算することができる解像度よりも、高い解像度で深度マップを生成することができる(本明細書で使用されるとき、「高解像度」は、カメラ自体の解像度を指してはおらず、衛星デバイスが対象物、例えばユーザの顔により近いために、基地局上の遠くにあるカメラよりも多くのピクセルで対象物をキャプチャすることができる能力を指していることに留意されたい)。さらに、空間的解像度が向上するだけでなく、深度解像度/精度も向上し得る。画像情報又は情報に対応するデータ(例えば衛星デバイスで計算される深度マップ)がベースユニットに伝送されることがある。本明細書で使用されるとき、「画像関連のデータ」とは、(全体又は部分的に、1つ以上のIR及び/RGBの能動的に照明される画像及び/又はクリーンIR及び/又はRGB画像の)実際の画像データ、任意の関連付けられるメタデータ及び/又は例えば深度マップのような画像データから処理される任意の対応する情報を指す。したがって、画像関連のデータは、基地局へ及び基地局から、そして衛星デバイスへ及び衛星デバイスから通信され得る。
加えて、衛星デバイス及びベースユニットで撮られた画像及び/又は深度マップを相関させることができる。これは、ベースユニットに対するモバイルユニットの位置のポーズ推定に対して、6つの自由度(6DoF)を提供する。
ポーズ推定は、画像整列によって、かつ/又はパターンマッチング/ドット相関により決定され得る。例として、衛星デバイスが、基地局も感知することができる(例えばユーザ又はデバイスが、同じエリアを基地局が「見る」ことをブロックしていない)画像をキャプチャする場合、ピクセル(又は各ピクセルの対応する周囲のパッチ)を既知の方法で合致させることができる。基地局から計算される深度データを、衛星デバイスから計算される深度データと整列させることによって、整列を確立することもできる。したがって、衛星デバイスのポーズが推定され得る。
これは、一般的に図3に示されており、図3では、基地局300はプロジェクタ306からの光パターンを投影し、この光パターンが、基地局のカメラ301及び203によって、並びに衛星デバイス330(2つ以上の衛星デバイスが存在することもある)上の1つ以上のカメラによって感知される。カメラ301及び302は、衛星デバイスデータ334とともに画像処理に供給される基地局画像332を提供する。衛星デバイスデータ334は、各衛星デバイスにおいて画像からローカルで処理される深度マップのような画像又は情報であり得る。
デバイス330からの破線により示されるように、オプションの(例えば低電力の)プロジェクタが、1つ以上の衛星デバイスのいずれか又は全てに含まれてもよい。衛星デバイスによって投影されるデータは、基地局から投影されるデータを強調する。衛星デバイス330内のプロジェクタは、距離的に制限され、空間的に制限され(例えば非常にまばらなパターンであるか、小さな画像領域のみでフォーカスされる)及び/又は時間的に制限される(例えば数フレームごとのみ放射される)ために、低電力であり得る。
基地局画像332は、衛星デバイス330のポーズ/3D位置を決定するのに処理され得る。この情報により、画像処理308は深度データ336を出力する。深度データ336は、衛星デバイスデータ334によって強化される、基地局自体のカメラからの従来的な深度データであってよい。一般に、基地局カメラによってキャプチャされる投影ドットは、解像度の差に起因するサイズの差等を調整した後、衛星デバイスによってキャプチャされるドットと相関され得る。ポーズデータ338は、例えば他の衛星デバイスへ出力されることもある。
衛星デバイスが、基地局に、その画像データを強化するためのデータを提供する代わりに、基地局が、(デバイスのポーズとともに)近似深度マップを衛星デバイスに送信してもよいことに留意されたい。これは、正確性を向上させ、かつ/又は衛星デバイス自体の深度推定のために必要とされる計算を低減させるのに使用され得る。
基地局の深度マップ(並びにRGBデータ)は、高解像度のデータを部分的な深度マップへとダウンサンプリングすることによって強化され得る。部分的な深度マップは、適切な座標において初期の基地局の深度マップと結合され、例えばポーズについて深度を調整した後、これらの座標における精度が改善され得る。基地局の深度マップを強化し得る別の方法は、例えば元の深度マップを、より高解像度の深度マップと関連付けて(例えばポーズに基づいて深度を調整した後に)保持することである。このようにして、深度マップを使用するアプリケーションは、望むときに、より精細な粒度の深度データに「ズームイン」することができ、例えばアプリケーションは、元の深度マップのピクセル解像度に制限される必要がない。
幾つかのモバイルデバイスは、正面及び背面のカメラを有することに留意されたい。そのような場合、あるシナリオではカメラを異なる目的で使用することになる。例えば背面カメラを使用してポーズ計算のための画像をキャプチャし、一方、正面カメラが、ユーザの顔の画像、例えば強化される深度計算に使用され得る画像をキャプチャしてもよい。
図4は、別の代替形態を示しており、図4では、複数の衛星デバイス440(1)〜440(n)がピアとして動作し、したがって、基地局を必要とせずに、シーンについての深度情報を計算することができる。しかしながら、衛星デバイスは電池式なので、1つの(又は2つ以上の)外部プロジェクタ406からの光パターンが利用され得る。基地局は、基本的に、一般的にはモバイルでないことを除いて、単に別のデバイスであることに留意されたい(基地局は、比較的コンパクトでポータブルであるが、大きな又は固定式の電源を使用するので、タブレットデバイスやスマートフォンとは異なり、典型的には持ち運びされない)。
図4に示されるように、衛星デバイス440(1)〜440(n)の各々は、そのデータを相互に交換する。デバイス440(2)のうちの1つが、画像処理408を有するように示されており、画像処理408は、デバイス440(2)自身の画像データ442及び他の衛星デバイスのデータ444を処理して、1つ以上の他の衛星デバイスのデータによって強化される深度データ446を取得する。理解されるように、任意の衛星デバイスが、同様の画像処理能力を有してもよく、かつ/又は別の衛星デバイスから深度データを受け取ってもよい。
別の態様として、図5は、例えば赤外光を介して基地局500に識別子をフラッシュするなどして、信号を提供するように構成される衛星デバイス550及び552を示している。識別子は、デバイスのタイプ、能力等を含め、任意のタイプの情報を含むか、このような任意のタイプの情報をルックアップするのに使用され得る。信号は、衛星デバイスのポーズをより効果的に決定する際の助けにもなり得る。
基地局が衛星デバイスを識別し、かつ/又はそのポーズを推定する代わりに、衛星デバイスが基地局を識別し、その情報に基づいて、自身のポーズを推定してもよいことに留意されたい。これは、衛星デバイスが、基地局と通信する必要なくそのポーズを決定することを可能にし、これは一部の状況(例えば比較的多くの数の衛星デバイスが存在する場合)に有益なものとなり得る。
別の態様として、図6Aは、時間とともに動く衛星デバイスが、単一のカメラで深度データをどのように計算することができるかについて示している。ドットは動かないので、デバイスのいずれかの動きが、ドットの位置を、カメラの以前の視点から新たな視点へと変化させる。
図6Bは、衛星モバイルデバイス上の1つのカメラによって感知される、2つのプロジェクタ606及び607を示している。投影されるパターンは異なり、これにより、衛星デバイスは一方のソースを別のソースから区別することができ、あるいは、これらのプロジェクタは交互に入れ替わって、一度に1つのプロジェクタが、感知されている同じ対象物/シーンの2つの異なる視点を提供するように投影することができる。
実際、プロジェクタが、光パターンの知識を有することがあり、そのような場合は基本的に、反対に、カメラである。したがって、単一のプロジェクタと単一の衛星デバイスカメラを使用して、ステレオ深度データを計算することができる。
図7は、衛星デバイスを介して、強化された深度情報(及び場合によっては、RGB画像のような他の情報)を取得するのに行われ得るステップの例示のセットを表す、簡略化されたフロー図である。例えば基地局上で実行されるか、基地局に結合されるアプリケーションプログラムが、基地局から比較的離れており、かつ近くに移動するのが特に容易ではないか望ましくない対象物についての詳細なクローズアップ表現を生成することを望むという状況を考える。以下では、例示のステップにおいて基地局について説明するが、理解されるように、基地局の代わりに、別のモバイルデバイス又はデバイスのセットを使用してもよい。
ステップ702において、基地局のプログラム(又はこれに結合されるプログラム)が、ユーザに、一部のクローズアップビデオフレームを取得するために衛星デバイスを対象物に向けるようにユーザに指示するメッセージを通信する。ステップ704において、ユーザがそのようにすると、これにより衛星デバイスは、基地局へのデータ(例えば画像のストリーム又はそれから処理されるべき深度データ)の伝送を開始する。各フレームでは、ステップ706において、基地局は、基地局自体のキャプチャされた画像を処理して、衛星カメラのポーズを決定し、初期の深度マップを計算する。
ステップ708は、衛星デバイスからデータを受け取ることを表しているが、これらのステップの少なくとも一部は、並行に及び/又は異なる順序で生じてもよく、例えば基地局の処理の前に、処理の間に又は処理の後に、データの一部又は全てが衛星デバイスから受け取られることがあることに留意されたい。さらに、アプリケーションに応じて、フレームごとではなく、より低速のサンプリングレートが使用されてもよいことにも留意されたい。
ステップ710は、衛星データを使用して、例えばより正確な深度データで深度マップを強化し、かつ/又はキャプチャされた対象物について別個の深度マップを保持することを表す。ステップ712は、ユーザに通知されるときまで、処理を繰り返す。
ユーザは、異なる方向から対象物のビデオをキャプチャするように要求され得る。投影された光が衛星デバイスによって感知されている場合、ユーザは、対象物の異なる部分が異なる時間にプロジェクタに面するように対象物を回転させるよう指示され得る(ユーザは、赤外光のパターンを見ることはできないので、これが投影されていることを知らないことがあり、このため、その指示が、基地局デバイスに面するように対象物を回転させるようにし得ることに留意されたい)。あるいは、異なる方向からの複数のプロジェクタが存在してもよい。このようにして、基地局がキャプチャすることができるレベルよりも非常に高い詳細レベルで、対象物についての完全な3次元のメッシュ又は同様のものが生成され得る(RGB画像データがこれと組み合わされてもよい)。
衛星デバイス及び基地局(又は他のモバイルデバイス)は、人の介入なしに一緒に動作することがある。例えばモバイルデバイスアプリケーションは、デバイスカメラを介して興味ある何かを検出し、画像データを基地局に通信することがある。周期的又は何らかの他のスケジュールで、基地局は、衛星デバイスに1つ以上の画像を要求することがある。基地局は(例えばアプリケーションプログラムによって指示されるように)、(ポーズデータを介して知られるような)衛星デバイスのカメラが向いている何らかの物について改善された画像を持ちたいことがある。例えばこれにより、望むときはいつでも、より高解像度の画像を取得できることになる。
別の例として、衛星デバイスからのデータを使用して、1つ又は複数の衛星デバイスがキャプチャした画像内のデータを置き換えてもよい。具体的な例として、何かがシーンの所望の部分を基地局の視点からブロックしていること、例えば衛星デバイスがキャプチャしようとしているシーン内の興味ある部分の前を人が歩いていることを考える。衛星デバイス又は衛星デバイスのセットを用いてシーンを(異なるアングルから、そして場合によっては異なる解像度で)キャプチャし、これにより、人がシーンのその部分をブロックしていないかのように、シーンの深度(及びRGB若しくはクリーンIRデータ)を再計算することができる。
<例示の動作環境>
図8は、本明細書で説明される主題の態様が実装され得る適切なモバイルデバイス800の例を図示している。モバイルデバイス800は、デバイスの単なる一例であり、本明細書で説明される主題の態様の使用又は機能の範囲に関して何らかの限定を示唆するようには意図されていない。また、モバイルデバイス800は、例示のモバイルデバイス800内に図示されるコンポーネントのいずれか1つ又は組合せに関して、何らかの依存性又は要件を有するものとして解釈されるべきでもない。
図8を参照すると、本明細書で説明される主題の諸態様を実装するための例示のデバイスは、モバイルデバイス800を含む。一部の実施形態において、モバイルデバイス800は、携帯電話、他者への音声通信を可能にするハンドヘルドデバイス又は何らかの他の音声通信デバイス等を備える。これらの実施形態では、モバイルデバイス800に、写真を撮るためのカメラを搭載することができるが、他の実施形態ではこれは必ずしも必要とされない。他の実施形態では、モバイルデバイス800は、パーソナルデジタルアシスタント(PDA)、ハンドヘルドゲームデバイス、ノートブックコンピュータ、プリンタ、セットトップを含む機器、メディアセンター又は他の機器又は他のモバイルデバイス等を備えてもよい。更に他の実施形態では、モバイルデバイス800は、パーソナルコンピュータやサーバ等といった一般的には非モバイルと考えられるデバイスを備えてもよい。
モバイルデバイスは、リモートコントロールにデータを入力する方法とともに制御ロジックを提供する追加の回路を有する、機器又は玩具のハンドヘルド型のリモートコントロールを備えてもよい。例えば入力ジャック又は他のデータ受信センサは、デバイスが、非制御コードデータ伝送のために目的変更されることを可能にする。これは、伝送すべきデータの多くを格納する必要なく達成されることがあり、例えばデバイスは、スマートフォンのような(場合によっては幾らかのバッファリングを伴う)別のデバイスへのデータ中継として機能し得る。
モバイルデバイス800のコンポーネントには、これらに限られないが、処理ユニット805と、システムメモリ810と、システムメモリ810を含め、様々なシステムコンポーネントを処理ユニット805に結合するバス815が含まれ得る。バス815は、様々なバスアーキテクチャのいずれかを使用するメモリバス、メモリコントローラ、周辺バス及びローカルバス等を含め、幾つかのタイプのバス構造のうちのいずれかを含み得る。バス815は、モバイルデバイス800の様々なコンポーネント間でデータが伝送されるのを可能にする。
モバイルデバイス800は、様々なコンピュータ読取可能媒体を含み得る。コンピュータ読取可能媒体は、モバイルデバイス800によりアクセスすることができる任意の利用可能な媒体とすることができ、揮発性及び不揮発性媒体と、取外し可能及び取外し不可能媒体の双方を含む。限定ではなく例として、コンピュータ読取可能媒体は、コンピュータ記憶媒体と通信媒体を備えることがある。コンピュータ記憶媒体は、コンピュータ読取可能命令、データ構造、プログラムモジュール又は他のデータといった、情報の記憶のための任意の方法又は技術で実装される揮発性及び不揮発性、取外し可能及び取外し不可能媒体を含む。コンピュータ記憶媒体は、これらに限られないが、RAM、ROM、EEPROM、フラッシュメモリ又は他のメモリ技術、CD−ROM、デジタル多用途ディスク(DVD)又は他の光ディスクストレージ、磁気カセット、磁気テープ、磁気ディスクストレージ又は他の磁気記憶デバイス、あるいは所望の情報を格納するのに使用することができ、かつモバイルデバイス800によりアクセス可能な任意の他の媒体を含む。
通信媒体は、典型的に、コンピュータ読取可能命令、データ構造、プログラムモジュール又は他のデータを、搬送波や他の伝送機構といった変調データ信号に具現化し、任意の情報伝達媒体を含む。「変調データ信号」という用語は、信号内に情報を符号化するような手法で設定又は変更された特性の1つ以上を有する信号を意味する。限定ではなく例として、通信媒体は、有線ネットワークや直接有線接続といった有線媒体と、音響、RF、Bluetooth(登録商標)、無線USB、赤外線、Wi-Fi、WiMAX及び他の無線媒体といった無線媒体とを含む。上記の任意の組合せもコンピュータ読取可能媒体の範囲内に含まれるべきである。
システムメモリ810は、揮発性及び/又は不揮発性メモリの形式のコンピュータ記憶媒体を含み、読取専用メモリ(ROM)及びランダムアクセスメモリ(RAM)を含むこともある。携帯電話のようなモバイルデバイスでは、時々、オペレーティングシステムコード820がROMに含まれるが、他の実施形態ではこれは必要とされない。同様に、アプリケーションプログラム825はしばしばRAMに配置されるが、やはり、他の実施形態では、アプリケーションプログラムは、ROM又は他のコンピュータ読取可能メモリに配置されてよい。ヒープ830は、オペレーティングシステム820及びアプリケーションプログラム825に関連付けられる状態をメモリに提供する。例えばオペレーティングシステム820及びアプリケーションプログラム825は、変数及びデータ構造を、これらの動作中にヒープ830内に格納し得る。
モバイルデバイス800は、他の取外し可能/取外し不可能、揮発性/不揮発性メモリを含んでもよい。例として、図8は、フラッシュカード835、ハードディスクドライブ836及びメモリスティック837を図示している。ハードディスクドライブ836は、例えばメモリスロットにフィットするよう小型化され得る。モバイルデバイス800は、取外し可能メモリインタフェース831を介して、これらのタイプの不揮発性の取外し可能媒体とインタフェースしてよく、あるいはユニバーサルシリアルバス(USB)、IEEE8394、有線ポート840のうちの1つ以上又はアンテナ865を介して接続され得る。これらの実施形態では、取外し不可能なメモリデバイス835〜837は、通信モジュール832を介してモバイルデバイスとインタフェースし得る。一部の実施形態では、これらのタイプのメモリの必ずしも全てが単一のモバイルデバイスに含まれなくてもよい。他の実施形態では、これら及び他のタイプの取外し可能メモリのうちの1つ以上が、単一のモバイルデバイスに含まれ得る。
一部の実施形態において、ハードディスクドライブ836は、モバイルデバイス800により恒久的に取り付けられるような方法で接続され得る。例えばハードディスクドライブ836は、パラレルATA(PATA)、シリアルATA(SATA)又は他の方法デバイス815に接続され得るインタフェースへ接続される。そのような実施形態では、ハードドライブを取り外すことは、モバイルデバイス800のカバーを取外し、ハードドライブ836をモバイルデバイス800内の支持構造に接続するネジ又は他の留め具を取り外すことを要することがある。
上述及び図8に図示される取外し可能なメモリデバイス835〜837及びその関連するコンピュータ記憶媒体は、コンピュータ読取可能命令、プログラムモジュール、データ構造及びモバイルデバイス800のための他のデータのストレージを提供する。例えば1つ以上の取外しメモリデバイス835〜837は、モバイルデバイス800が撮った画像、音声記録、連絡先情報、プログラム、プログラム用のデータ等を格納することがある。
ユーザは、コマンド及び情報を、キーパッド841及びマイクロフォン842といった入力デバイスを介してモバイルデバイス800に入力することができる。一部の実施形態では、ディスプレイ843は、タッチセンサ式画面であってよく、ユーザがその上にコマンド及び情報を入力するのを可能にすることができる。キーパッド841及びディスプレイ843は、バス815に結合されるユーザ入力インタフェース850を介して処理ユニット805に接続され得るが、通信モジュール832及び有線ポート840といった他のインタフェース及びバス構造によって接続されてもよい。動き検出852を使用して、デバイス800を用いて行われたジェスチャを決定することができる。
ユーザは、例えばマイクロフォン842に話すことにより、そしてキーパッド841又はタッチセンサ式のディスプレイ843上に入力されるテキストメッセージにより、他のユーザと通信してもよい。オーディオユニット855は、スピーカ844を駆動する電子信号を提供し、そしてマイクロフォン842からオーディオ信号を受け取り、受け取ったオーディオ信号をデジタル化することができる。
モバイルデバイス800は、カメラ861を駆動する信号を提供するビデオユニット860を含んでもよい。ビデオユニット860は、カメラ861によって取得された画像を受け取ることもあり、これらの画像を処理ユニット805及び/又はモバイルデバイス800に含まれるメモリに提供することがある。カメラ861によって取得される画像は、ビデオ、ビデオを形成しない1つ以上の画像又はこれらの何らかの組合せを備え得る。
通信モジュール832は、1つ以上のアンテナ865に信号を提供し、1つ以上のアンテナ865から信号を受け取ることがある。アンテナ865のうちの1つが、携帯電話ネットワークのためのメッセージを送受信し得る。別のアンテナはBluetooth(登録商標)のメッセージを送受信し得る。更に別のアンテナ(又は共有アンテナ)は、無線のEthernet(登録商標)のネットワーク規格を介してネットワークねっセージを送受信し得る。
またさらに、アンテナは、位置ベースの情報、例えばGPS信号をGPSインタフェース及び機構872に提供する。次いで、GPS機構872は、対応するGPSデータ(例えば時間と座標)を処理に利用可能にする。
一部の実施形態では、単一のアンテナが、1つより多くのタイプのネットワークのためのメッセージを送信及び/又は受信するのに使用され得る。例えば単一のアンテナが音声及びパケットメッセージを送受信し得る。
ネットワーク環境で操作されるとき、モバイルデバイス800は1つ以上のリモートデバイスに接続することがある。リモートデバイスは、パーソナルコンピュータ、サーバ、ルータ、ネットワークPC、携帯電話、メディア再生デバイス、ピアデバイス又は他の一般的なネットワークノードを含んでよく、典型的には、モバイルデバイス800に関連して上述したような要素の多く又は全てを含む。
本明細書で説明される主題の態様は、多数の他の汎用又は専用のコンピューティングシステム環境又は構成で動作する。本明細書で説明される主題の態様とともに使用するのに適切であり得る周知のコンピューティングシステム、環境及び/又は構成の例には、これらに限られないが、パーソナルコンピュータ、サーバコンピュータ、ハンドヘルド又はラップトップデバイス、マルチプロセッサシステム、マルチコントローラベースのシステム、セットトップボックス、プログラマブル家庭用電化製品、ネットワークPC、ミニコンピュータ、メインフレームコンピュータ、上記のシステム若しくはデバイスのいずれかを含む分散コンピューティング環境及び同様のものが含まれる。
本明細書で説明される主題の態様は、プログラムモジュールのように、モバイルデバイスによって実行されるコンピュータ実行可能命令の一般的なコンテキストで説明され得る。一般に、プログラムモジュールは、特定のタスクを実行するか特定の抽象データタイプを実装するルーチン、プログラム、オブジェクト、コンポーネント、データ構造等を含む。本明細書で説明される主題の態様は、通信ネットワークを介してリンクされるリモート処理デバイスによってタスクが実行される、分散コンピューティング環境においても実施され得る。分散コンピューティング環境において、プログラムモジュールは、メモリ記憶デバイスを含め、ローカルとリモートの記憶媒体の双方に配置されてもよい。
さらに、本明細書ではサーバという用語が使用され得るが、この用語は、クライアント、1つ以上のコンピュータ上で分散される1つ以上のプロセスのセット、1つ以上のスタンドアロンの記憶デバイス、1つ以上の他のデバイスのセット、上記のうちの1つ以上の組合せ等も含み得る。
<結論>
本発明は、様々な修正及び代替的構成を許容するが、その特定の例示の実施形態を図面に示し、上記で詳細に説明してきた。しかしながら、本発明を、開示した特定の形式に限定するという意図はなく、反対に、全ての修正、代替的構成並びに本発明の精神及び範囲に入る均等物を網羅するよう意図されることを理解されたい。


Claims (10)

  1. あるデバイスからの画像関連データを、他のデバイスにおいて受け取るステップと、
    前記画像関連データ及び前記デバイスのポーズ情報に少なくとも部分的に基づいて、深度データ又は色データ又はその双方の第1のセットを強化するステップと、
    を備える、方法。
  2. 前記デバイスは衛星デバイスを備え、当該方法は、
    前記他のデバイスにおいて少なくとも1つの画像をキャプチャするステップと、
    前記少なくとも1つの画像を使用して前記衛星デバイスの前記ポーズ情報を決定するステップと、
    を更に備える、請求項1に記載の方法。
  3. 深度データの前記第1のセットを強化するステップは、前記第1のセット内のデータの少なくとも一部を、前記画像関連データの少なくとも一部に対応する他の深度データと置換するステップを含む、
    請求項1に記載の方法。
  4. 前記深度データ又は色データ又はその双方の前記第1のセットを強化するステップは、前記深度データの第1のセットに対応する第1の深度マップを、前記画像関連データに対応する第2の深度マップと関連付けて保持するステップを含む、
    請求項1に記載の方法。
  5. 少なくとも一部の深度データを計算するステップであって、衛星デバイスによってキャプチャされる、1つ以上の能動的に照明された画像を処理すること;又は、前記衛星デバイスから放射される少なくとも一部の能動的照明に基づくことを含め、前記衛星デバイスによってキャプチャされる、1つ以上の能動的に照明されたステレオ画像を処理すること;又は、前記衛星デバイスによってキャプチャされる、1つ以上の能動的に照明された画像を処理することと、前記衛星デバイスから放射される少なくとも一部の能動的照明に基づくことを含め、前記衛星デバイスによってキャプチャされる、1つ以上の能動的に照明されたステレオ画像を処理することとの双方;を含む、少なくとも一部の深度データを計算するステップ
    を更に備える、請求項1に記載の方法。
  6. 基地局を備えるシステムであって、前記基地局は、衛星デバイスのポーズ情報を決定し、1つ以上の画像をキャプチャし、画像関連データを前記衛星デバイスから受け取り、前記ポーズ情報及び前記画像関連データに少なくとも部分的に基づいて深度マップを計算するように構成される、
    システム。
  7. シーンに向けて光パターンを投影するプロジェクタを更に備え、前記基地局によってキャプチャされる前記1つ以上の画像は、能動的に照明された画像データであり、前記深度マップは、前記ポーズ情報、画像関連データ及び前記能動的に照明された画像データに少なくとも部分的に基づいて計算される、
    請求項6に記載のシステム。
  8. 前記基地局は、当該基地局がキャプチャした前記1つ以上の画像から前記ポーズ情報を決定するように構成される、
    請求項6に記載のシステム。
  9. 前記衛星デバイスは、深度データを計算し、該深度データを、前記画像関連データの少なくとも一部として前記基地局に通信するように構成される、
    請求項6に記載のシステム。
  10. 実行されると、
    基地局において衛星デバイスから画像関連データを受け取るステップと、
    前記基地局において、能動的に照明されるステレオ画像をキャプチャするステップと、
    前記衛星デバイスに対応するポーズ情報を決定するステップと、
    前記能動的に照明されるステレオ画像の少なくとも一部を処理して、前記基地局の視点から、前記画像関連データに対応する深度情報によって強化される深度マップを決定するステップと、
    を含むステップを実行させる、コンピュータ実行可能命令を有する1つ以上のコンピュータ読取可能記憶媒体又はロジック。
JP2016508993A 2013-04-15 2014-04-14 1つ以上の衛星デバイスを有する能動的なステレオ Active JP6469080B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201361812232P 2013-04-15 2013-04-15
US61/812,232 2013-04-15
US13/924,475 2013-06-21
US13/924,475 US9697424B2 (en) 2013-04-15 2013-06-21 Active stereo with satellite device or devices
PCT/US2014/033919 WO2014172231A1 (en) 2013-04-15 2014-04-14 Active stereo with satellite device or devices

Publications (3)

Publication Number Publication Date
JP2016522889A true JP2016522889A (ja) 2016-08-04
JP2016522889A5 JP2016522889A5 (ja) 2017-04-20
JP6469080B2 JP6469080B2 (ja) 2019-02-13

Family

ID=51686521

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016508993A Active JP6469080B2 (ja) 2013-04-15 2014-04-14 1つ以上の衛星デバイスを有する能動的なステレオ

Country Status (11)

Country Link
US (14) US20140307055A1 (ja)
EP (9) EP2986935B1 (ja)
JP (1) JP6469080B2 (ja)
KR (2) KR102207768B1 (ja)
CN (8) CN105230003B (ja)
AU (1) AU2014254219B2 (ja)
BR (1) BR112015025819A8 (ja)
CA (1) CA2907895C (ja)
MX (1) MX357307B (ja)
RU (1) RU2663329C2 (ja)
WO (8) WO2014172221A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020053034A (ja) * 2018-08-30 2020-04-02 コグネックス・コーポレイション 歪みが低減された物体の3次元再構成を生成するための方法及び装置

Families Citing this family (177)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120072245A (ko) * 2010-12-23 2012-07-03 한국전자통신연구원 스테레오 영상 정합 장치 및 방법
JP6305941B2 (ja) * 2012-03-13 2018-04-04 ドルビー ラボラトリーズ ライセンシング コーポレイション オブジェクト向上のためのライティング・システムおよび方法
EP2700920B1 (en) 2012-08-23 2016-06-22 ams AG Light sensor system and method for processing light sensor signals
US20140307055A1 (en) 2013-04-15 2014-10-16 Microsoft Corporation Intensity-modulated light pattern for active stereo
US9467680B2 (en) 2013-12-12 2016-10-11 Intel Corporation Calibration of a three-dimensional acquisition system
JP6447516B2 (ja) * 2013-12-27 2019-01-09 ソニー株式会社 画像処理装置、および画像処理方法
US9720506B2 (en) * 2014-01-14 2017-08-01 Microsoft Technology Licensing, Llc 3D silhouette sensing system
US10538074B2 (en) * 2014-01-16 2020-01-21 Hewlett-Packard Development Company, L.P. Processing slice data
US11265534B2 (en) * 2014-02-08 2022-03-01 Microsoft Technology Licensing, Llc Environment-dependent active illumination for stereo matching
US9842424B2 (en) * 2014-02-10 2017-12-12 Pixar Volume rendering using adaptive buckets
WO2015134961A1 (en) 2014-03-07 2015-09-11 Brown University Method and system for unsynchronized structured lighting
US20150266235A1 (en) * 2014-03-19 2015-09-24 Autodesk, Inc. Systems and methods for improved 3d printing
US9674493B2 (en) * 2014-03-24 2017-06-06 Omnivision Technologies, Inc. Color image sensor with metal mesh to detect infrared light
US10349037B2 (en) * 2014-04-03 2019-07-09 Ams Sensors Singapore Pte. Ltd. Structured-stereo imaging assembly including separate imagers for different wavelengths
GB201407270D0 (en) * 2014-04-24 2014-06-11 Cathx Res Ltd 3D data in underwater surveys
US9823842B2 (en) 2014-05-12 2017-11-21 The Research Foundation For The State University Of New York Gang migration of virtual machines using cluster-wide deduplication
US9533449B2 (en) 2014-06-19 2017-01-03 Autodesk, Inc. Material deposition systems with four or more axes
US10252466B2 (en) * 2014-07-28 2019-04-09 Massachusetts Institute Of Technology Systems and methods of machine vision assisted additive fabrication
WO2016020073A1 (en) * 2014-08-08 2016-02-11 Cemb S.P.A. Vehicle equipment with scanning system for contactless measurement
US10455212B1 (en) * 2014-08-25 2019-10-22 X Development Llc Projected pattern motion/vibration for depth sensing
JP6397698B2 (ja) * 2014-08-28 2018-09-26 任天堂株式会社 情報処理端末、情報処理プログラム、情報処理端末システム、および情報処理方法
US9507995B2 (en) * 2014-08-29 2016-11-29 X Development Llc Combination of stereo and structured-light processing
DE102014113389A1 (de) * 2014-09-17 2016-03-17 Pilz Gmbh & Co. Kg Verfahren und Vorrichtung zum Identifizieren von Strukturelementen eines projizierten Strukturmusters in Kamerabildern
EP3018587B1 (en) * 2014-11-05 2018-08-29 Renesas Electronics Europe GmbH Memory access unit
EP3043159B1 (en) * 2015-01-08 2019-12-18 ams AG Method for processing light sensor signals and light sensor system
JPWO2016098400A1 (ja) * 2014-12-15 2017-09-21 ソニー株式会社 撮像装置組立体、3次元形状測定装置及び動き検出装置
EP3040941B1 (en) * 2014-12-29 2017-08-02 Dassault Systèmes Method for calibrating a depth camera
DE102015202182A1 (de) * 2015-02-06 2016-08-11 Siemens Aktiengesellschaft Vorrichtung und Verfahren zur sequentiellen, diffraktiven Musterprojektion
US11562286B2 (en) * 2015-02-06 2023-01-24 Box, Inc. Method and system for implementing machine learning analysis of documents for classifying documents by associating label values to the documents
US9699394B2 (en) 2015-03-09 2017-07-04 Microsoft Technology Licensing, Llc Filter arrangement for image sensor
JP6484071B2 (ja) * 2015-03-10 2019-03-13 アルプスアルパイン株式会社 物体検出装置
CN106032059B (zh) * 2015-03-13 2019-11-26 三纬国际立体列印科技股份有限公司 立体打印方法与立体打印装置
KR102238794B1 (ko) * 2015-03-25 2021-04-09 한국전자통신연구원 영상 촬영 장치의 촬영 속도 증가 방법
JP6244061B2 (ja) 2015-03-30 2017-12-06 富士フイルム株式会社 距離画像取得装置及び距離画像取得方法
EP3081384B1 (en) * 2015-04-17 2019-11-13 Canon Kabushiki Kaisha Image processing apparatus, image processing method, and program
US10805589B2 (en) 2015-04-19 2020-10-13 Fotonation Limited Multi-baseline camera array system architectures for depth augmentation in VR/AR applications
US9751263B2 (en) * 2015-04-20 2017-09-05 Xerox Corporation Injection molding to finish parts printed with a three-dimensional object printer
WO2016187306A1 (en) * 2015-05-18 2016-11-24 Lasermotive, Inc. Multi-stage wireless power
US9683834B2 (en) * 2015-05-27 2017-06-20 Intel Corporation Adaptable depth sensing system
US9495584B1 (en) * 2015-06-05 2016-11-15 Digital Signal Corporation System and method for facial recognition using images captured from a target illuminated with infrared light
US11054664B2 (en) * 2015-06-18 2021-07-06 Apple Inc. Monitoring DOE performance using software scene evaluation
US9734409B2 (en) * 2015-06-24 2017-08-15 Netflix, Inc. Determining native resolutions of video sequences
RU2721177C2 (ru) * 2015-07-13 2020-05-18 Конинклейке Филипс Н.В. Способ и устройство для определения карты глубины для изображения
US10510149B2 (en) 2015-07-17 2019-12-17 ams Sensors Singapore Pte. Ltd Generating a distance map based on captured images of a scene
WO2017023210A1 (en) 2015-08-06 2017-02-09 Heptagon Micro Optics Pte. Ltd. Generating a merged, fused three-dimensional point cloud based on captured images of a scene
TWI744245B (zh) 2015-08-19 2021-11-01 新加坡商海特根微光學公司 產生具有減少過度平滑之視差圖
CN106550228B (zh) * 2015-09-16 2019-10-15 上海图檬信息科技有限公司 获取三维场景的深度图的设备
US20170116779A1 (en) * 2015-10-26 2017-04-27 Microsoft Technology Licensing, Llc Volumetric representation of objects
US10554956B2 (en) 2015-10-29 2020-02-04 Dell Products, Lp Depth masks for image segmentation for depth-based computational photography
US10021371B2 (en) 2015-11-24 2018-07-10 Dell Products, Lp Method and apparatus for gross-level user and input detection using similar or dissimilar camera pair
KR102323217B1 (ko) * 2015-12-21 2021-11-08 삼성전자주식회사 매크로 픽셀의 노이즈를 제어하는 뎁스 센서, 3차원 카메라 및 제어 방법
US9800795B2 (en) 2015-12-21 2017-10-24 Intel Corporation Auto range control for active illumination depth camera
US10761497B2 (en) 2016-01-14 2020-09-01 Microsoft Technology Licensing, Llc Printing 3D objects with automatic dimensional accuracy compensation
CN106980630B (zh) * 2016-01-19 2020-03-10 菜鸟智能物流控股有限公司 一种数据旋转展示方法及装置
KR102417177B1 (ko) * 2016-02-18 2022-07-05 애플 인크. 인사이드-아웃 위치, 사용자 신체 및 환경 추적을 갖는 가상 및 혼합 현실을 위한 머리 장착 디스플레이
WO2017149932A1 (ja) * 2016-03-03 2017-09-08 ソニー株式会社 医療用画像処理装置、システム、方法及びプログラム
DE102016106121A1 (de) 2016-04-04 2017-10-05 Carl Zeiss Ag Verfahren und Vorrichtung zum Bestimmen von Parametern zur Brillenanpassung
US20190196449A1 (en) * 2016-05-06 2019-06-27 Yunbo ZHANG Determining manufacturable models
WO2017212509A1 (ja) * 2016-06-08 2017-12-14 パナソニックIpマネジメント株式会社 投影システム
US10659764B2 (en) 2016-06-20 2020-05-19 Intel Corporation Depth image provision apparatus and method
US10609359B2 (en) * 2016-06-22 2020-03-31 Intel Corporation Depth image provision apparatus and method
US10638060B2 (en) * 2016-06-28 2020-04-28 Intel Corporation Color correction of RGBIR sensor stream based on resolution recovery of RGB and IR channels
CN106210568A (zh) * 2016-07-15 2016-12-07 深圳奥比中光科技有限公司 图像处理方法以及装置
US10241244B2 (en) 2016-07-29 2019-03-26 Lumentum Operations Llc Thin film total internal reflection diffraction grating for single polarization or dual polarization
US10192311B2 (en) * 2016-08-05 2019-01-29 Qualcomm Incorporated Methods and apparatus for codeword boundary detection for generating depth maps
CN106204414A (zh) * 2016-08-05 2016-12-07 蓝普金睛(北京)科技有限公司 一种动态图像缓存的方法及***
CN106375740B (zh) * 2016-09-28 2018-02-06 华为技术有限公司 生成rgb图像的方法、装置和***
CN106447588A (zh) * 2016-09-30 2017-02-22 天津大学 菲涅耳变换域混沌双随机相位编码光学图像加密方法
JP6645394B2 (ja) * 2016-10-03 2020-02-14 株式会社デンソー 画像センサ
WO2018169587A2 (en) 2016-12-16 2018-09-20 Massachusetts Institute Of Technology Adaptive material deposition for additive manufacturing
WO2018123801A1 (ja) * 2016-12-28 2018-07-05 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 三次元モデル配信方法、三次元モデル受信方法、三次元モデル配信装置及び三次元モデル受信装置
US10372974B2 (en) * 2017-01-11 2019-08-06 Microsoft Technology Licensing, Llc 3D imaging recognition by stereo matching of RGB and infrared images
CN108399633A (zh) * 2017-02-06 2018-08-14 罗伯团队家居有限公司 用于立体视觉的方法和装置
CN106908391A (zh) * 2017-02-10 2017-06-30 广东欧珀移动通信有限公司 终端中盖板玻璃颜色识别方法和装置
CN106909320B (zh) * 2017-02-20 2020-01-21 北京中科睿芯科技有限公司 一种多维数据扩充传输的方法、装置以及***
JP7020471B2 (ja) * 2017-02-24 2022-02-16 ソニーグループ株式会社 画像処理装置及び撮像装置
US10955814B2 (en) 2017-04-24 2021-03-23 Autodesk, Inc. Closed-loop robotic deposition of material
US11181886B2 (en) * 2017-04-24 2021-11-23 Autodesk, Inc. Closed-loop robotic deposition of material
CN107084686B (zh) * 2017-04-26 2019-04-30 西安交通大学 一种无运动部件的动态多光刀扫描测量方法
US11300402B2 (en) * 2017-05-31 2022-04-12 Hewlett-Packard Development Company, L.P. Deriving topology information of a scene
US20180347967A1 (en) * 2017-06-01 2018-12-06 RGBDsense Information Technology Ltd. Method and apparatus for generating a random coding pattern for coding structured light
US10817493B2 (en) 2017-07-07 2020-10-27 Raytheon Company Data interpolation
KR102346031B1 (ko) 2017-07-25 2022-01-03 삼성디스플레이 주식회사 표시 장치 및 이의 구동 방법
KR102402477B1 (ko) * 2017-08-04 2022-05-27 엘지이노텍 주식회사 ToF 모듈
US10586342B2 (en) * 2017-08-31 2020-03-10 Facebook Technologies, Llc Shifting diffractive optical element for adjustable depth sensing resolution
US10962790B2 (en) 2017-09-05 2021-03-30 Facebook Technologies, Llc Depth measurement using a pulsed structured light projector
US20190072771A1 (en) * 2017-09-05 2019-03-07 Facebook Technologies, Llc Depth measurement using multiple pulsed structured light projectors
DE102017215850B4 (de) 2017-09-08 2019-12-24 Robert Bosch Gmbh Verfahren zur Herstellung eines diffraktiven optischen Elements, LIDAR-System mit einem diffraktiven optischen Element und Kraftfahrzeug mit einem LIDAR-System
CN107884066A (zh) * 2017-09-29 2018-04-06 深圳奥比中光科技有限公司 基于泛光功能的光传感器及其3d成像装置
US10310281B1 (en) * 2017-12-05 2019-06-04 K Laser Technology, Inc. Optical projector with off-axis diffractive element
US10545457B2 (en) 2017-12-05 2020-01-28 K Laser Technology, Inc. Optical projector with off-axis diffractive element and conjugate images
CN109889799B (zh) * 2017-12-06 2020-08-25 西安交通大学 基于rgbir摄像头的单目结构光深度感知方法及装置
US10628952B2 (en) 2017-12-11 2020-04-21 Google Llc Dual-band stereo depth sensing system
DE102017222708A1 (de) * 2017-12-14 2019-06-19 Conti Temic Microelectronic Gmbh 3D-Umfelderfassung mittels Projektor und Kameramodulen
JP6930605B2 (ja) * 2017-12-14 2021-09-01 日本電気株式会社 画像処理装置、画像処理方法および画像処理プログラム
JP6939501B2 (ja) * 2017-12-15 2021-09-22 オムロン株式会社 画像処理システム、画像処理プログラム、および画像処理方法
CN108133494A (zh) * 2018-01-17 2018-06-08 南京华捷艾米软件科技有限公司 利用rgb-ir同时生成深度图和彩色图的***和方法
DE102019000272B4 (de) * 2018-01-19 2023-11-16 Cognex Corporation System zum bilden einer homogenisierten beleuchtungslinie, die als eine linie mit geringem speckle bildlich erfasst werden kann
US10317684B1 (en) 2018-01-24 2019-06-11 K Laser Technology, Inc. Optical projector with on axis hologram and multiple beam splitter
CN108319437B (zh) * 2018-02-28 2019-01-11 上海熙香艺享电子商务有限公司 内容大数据密集程度分析平台
CN108490632B (zh) * 2018-03-12 2020-01-10 Oppo广东移动通信有限公司 激光投射模组、深度相机和电子装置
KR20200123849A (ko) * 2018-03-20 2020-10-30 매직 아이 인코포레이티드 가변 밀도들의 투영 패턴을 사용하는 거리 측정
US10643341B2 (en) 2018-03-22 2020-05-05 Microsoft Technology Licensing, Llc Replicated dot maps for simplified depth computation using machine learning
US10565720B2 (en) 2018-03-27 2020-02-18 Microsoft Technology Licensing, Llc External IR illuminator enabling improved head tracking and surface reconstruction for virtual reality
US10771766B2 (en) * 2018-03-30 2020-09-08 Mediatek Inc. Method and apparatus for active stereo vision
CN108564613A (zh) * 2018-04-12 2018-09-21 维沃移动通信有限公司 一种深度数据获取方法及移动终端
WO2019226555A1 (en) 2018-05-22 2019-11-28 NanoCore Technologies, Inc. Method and system for automated toolpath generation
US10878590B2 (en) * 2018-05-25 2020-12-29 Microsoft Technology Licensing, Llc Fusing disparity proposals in stereo matching
CN108917640A (zh) * 2018-06-06 2018-11-30 佛山科学技术学院 一种激光盲孔深度检测方法及其***
FI128523B (en) * 2018-06-07 2020-07-15 Ladimo Oy Modeling of topography of a 3D surface
CN112740666A (zh) 2018-07-19 2021-04-30 艾科缇弗外科公司 自动手术机器人视觉***中多模态感测深度的***和方法
US11067820B2 (en) 2018-07-31 2021-07-20 Himax Technologies Limited Structured light projector and three-dimensional image sensing module
CN109102540B (zh) * 2018-08-16 2022-01-28 杭州电子科技大学 基于fpga的标记面积块下限分离分道方法
TWI676781B (zh) * 2018-08-17 2019-11-11 鑑微科技股份有限公司 三維掃描系統
US10761337B2 (en) * 2018-08-24 2020-09-01 Himax Technologies Limited Projecting apparatus for spreading non-diffracted light
US11039122B2 (en) * 2018-09-04 2021-06-15 Google Llc Dark flash photography with a stereo camera
CN109146953B (zh) * 2018-09-11 2021-12-10 杭州电子科技大学 基于fpga的标记面积块上限分离分道方法
US10791277B2 (en) * 2018-09-11 2020-09-29 Cognex Corporation Methods and apparatus for optimizing image acquisition of objects subject to illumination patterns
US20200082160A1 (en) * 2018-09-12 2020-03-12 Kneron (Taiwan) Co., Ltd. Face recognition module with artificial intelligence models
KR102562360B1 (ko) * 2018-10-05 2023-08-02 엘지이노텍 주식회사 깊이 정보를 획득하는 방법 및 카메라 모듈
CN109532021B (zh) * 2018-10-10 2020-08-25 浙江大学 基于结构光线性异常点的3d打印熔积缺陷逐层检测方法
US11480793B2 (en) * 2018-10-24 2022-10-25 Google Llc Systems, devices, and methods for aligning a lens in a laser projector
JP7146576B2 (ja) * 2018-10-29 2022-10-04 芝浦機械株式会社 積層造形装置、積層造形方法、及びプログラム
US11460931B2 (en) 2018-10-31 2022-10-04 Hewlett-Packard Development Company, L.P. Recovering perspective distortions
US11024037B2 (en) 2018-11-15 2021-06-01 Samsung Electronics Co., Ltd. Foreground-background-aware atrous multiscale network for disparity estimation
US10628968B1 (en) * 2018-12-05 2020-04-21 Toyota Research Institute, Inc. Systems and methods of calibrating a depth-IR image offset
CN109798838B (zh) * 2018-12-19 2020-10-27 西安交通大学 一种基于激光散斑投射的ToF深度传感器及其测距方法
CN109741386B (zh) * 2018-12-26 2020-07-31 豪威科技(武汉)有限公司 立体视觉***的增强方法及立体视觉***
US10917568B2 (en) * 2018-12-28 2021-02-09 Microsoft Technology Licensing, Llc Low-power surface reconstruction
US11333895B1 (en) 2019-01-11 2022-05-17 Facebook Technologies, Llc Systems and methods for structured light projector operational safety
JP7211835B2 (ja) * 2019-02-04 2023-01-24 i-PRO株式会社 撮像システムおよび同期制御方法
CN110087057B (zh) * 2019-03-11 2021-10-12 歌尔股份有限公司 一种投影仪的深度图像获取方法和装置
US20200292297A1 (en) * 2019-03-15 2020-09-17 Faro Technologies, Inc. Three-dimensional measurement device
WO2020210168A1 (en) 2019-04-08 2020-10-15 Activ Surgical, Inc. Systems and methods for medical imaging
US11039118B2 (en) 2019-04-17 2021-06-15 XRSpace CO., LTD. Interactive image processing system using infrared cameras
EP3731175A1 (en) * 2019-04-26 2020-10-28 XRSpace CO., LTD. Interactive image processing system using infrared cameras
CN110111390A (zh) * 2019-05-15 2019-08-09 湖南科技大学 基于双目视觉光流跟踪的薄壁件全向振动测量方法及***
CN110012206A (zh) * 2019-05-24 2019-07-12 Oppo广东移动通信有限公司 图像获取方法、图像获取装置、电子设备和可读存储介质
CN110209363A (zh) * 2019-05-30 2019-09-06 大连理工大学 基于遗传算法的智能3d打印路径规划方法
CN114599263A (zh) 2019-08-21 2022-06-07 艾科缇弗外科公司 用于医疗成像的***和方法
CN110524874B (zh) * 2019-08-23 2022-03-08 源秩科技(上海)有限公司 光固化3d打印装置及其打印方法
BR112022004811A2 (pt) 2019-09-17 2022-06-21 Boston Polarimetrics Inc Sistemas e métodos para modelagem de superfície usando indicações de polarização
CN112559037B (zh) * 2019-09-25 2024-04-12 阿里巴巴集团控股有限公司 一种指令执行方法、单元、装置及***
JP2022552833A (ja) 2019-10-07 2022-12-20 ボストン ポーラリメトリックス,インコーポレイティド 偏光による面法線計測のためのシステム及び方法
US11796829B1 (en) * 2019-10-31 2023-10-24 Meta Platforms Technologies, Llc In-field illuminator for eye depth sensing
US10890839B1 (en) * 2019-11-06 2021-01-12 Himax Technologies Limited Structured light imaging device
CN114787648B (zh) 2019-11-30 2023-11-10 波士顿偏振测定公司 用于使用偏振提示进行透明对象分段的***和方法
CN113009705A (zh) * 2019-12-19 2021-06-22 苏州苏大维格科技集团股份有限公司 一种消除零级衍射影响的结构光组件
US11132804B2 (en) * 2020-01-07 2021-09-28 Himax Technologies Limited Hybrid depth estimation system
US11195303B2 (en) 2020-01-29 2021-12-07 Boston Polarimetrics, Inc. Systems and methods for characterizing object pose detection and measurement systems
CN115428028A (zh) 2020-01-30 2022-12-02 因思创新有限责任公司 用于合成用于在包括偏振图像的不同成像模态下训练统计模型的数据的***和方法
WO2021171695A1 (ja) * 2020-02-28 2021-09-02 富士フイルム株式会社 撮像システム、撮像システムの制御方法、及びプログラム
CN113365035B (zh) * 2020-03-04 2022-10-21 合肥君正科技有限公司 一种图像色彩还原的校准***
US11503266B2 (en) * 2020-03-06 2022-11-15 Samsung Electronics Co., Ltd. Super-resolution depth map generation for multi-camera or other environments
CN111246073B (zh) * 2020-03-23 2022-03-25 维沃移动通信有限公司 成像装置、方法及电子设备
EP4144085A4 (en) 2020-04-30 2023-10-25 Siemens Healthcare Diagnostics, Inc. APPARATUS, METHOD FOR CALIBRATING AN APPARATUS AND ASSOCIATED DEVICE
CN111678457B (zh) * 2020-05-08 2021-10-01 西安交通大学 一种OLED透明屏下ToF装置及测距方法
WO2021243088A1 (en) 2020-05-27 2021-12-02 Boston Polarimetrics, Inc. Multi-aperture polarization optical systems using beam splitters
CN111787084A (zh) * 2020-06-23 2020-10-16 杭州数澜科技有限公司 一种圈选对象的方法和装置
KR20220033924A (ko) 2020-09-10 2022-03-17 삼성전자주식회사 증강 현실 장치 및 그 제어 방법
CN114268774A (zh) * 2020-09-16 2022-04-01 Oppo广东移动通信有限公司 图像采集方法、图像传感器、装置、设备以及存储介质
US11657529B2 (en) * 2020-10-12 2023-05-23 Black Sesame Technologies Inc. Multiple camera system with flash for depth map generation
DE102020133085A1 (de) 2020-12-11 2022-06-15 Dürr Assembly Products GmbH Verfahren zur Vermessung der Kotflügelkante eines Fahrzeugs in einem Prüfstand
CN112959661B (zh) * 2021-01-26 2024-02-02 深圳市创必得科技有限公司 Lcd光固化3d打印均光优化补偿方法及装置
EP4281289A1 (en) * 2021-01-29 2023-11-29 Essentium IPCO, LLC Contour smoothing for material extrusion three-dimensionally printed parts
US12020455B2 (en) 2021-03-10 2024-06-25 Intrinsic Innovation Llc Systems and methods for high dynamic range image reconstruction
US11954886B2 (en) 2021-04-15 2024-04-09 Intrinsic Innovation Llc Systems and methods for six-degree of freedom pose estimation of deformable objects
US11290658B1 (en) 2021-04-15 2022-03-29 Boston Polarimetrics, Inc. Systems and methods for camera exposure control
US11636623B2 (en) * 2021-06-28 2023-04-25 Motional Ad Llc Systems and methods for camera alignment using pre-distorted targets
US11689813B2 (en) 2021-07-01 2023-06-27 Intrinsic Innovation Llc Systems and methods for high dynamic range imaging using crossed polarizers
EP4380780A1 (en) * 2021-08-06 2024-06-12 PPG Industries Ohio Inc. System and method for 3d printing a non-planar surface
US11852439B2 (en) * 2021-11-24 2023-12-26 Wrap Technologies, Inc. Systems and methods for generating optical beam arrays
CN116800947A (zh) * 2022-03-16 2023-09-22 安霸国际有限合伙企业 用于大规模生产过程的快速rgb-ir校准验证
KR20230174621A (ko) * 2022-06-21 2023-12-28 삼성전자주식회사 깊이 맵 생성을 위한 전자 장치 및 그 동작 방법
US11972504B2 (en) * 2022-08-10 2024-04-30 Zhejiang Lab Method and system for overlapping sliding window segmentation of image based on FPGA
KR102674408B1 (ko) * 2022-12-28 2024-06-12 에이아이다이콤 (주) 비 접촉식 의료 영상 제어 시스템
CN116448250A (zh) * 2023-06-14 2023-07-18 国网山西省电力公司超高压变电分公司 一种电力设备红外热成像辅助定位装置及辅助定位方法

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000341721A (ja) * 1999-03-25 2000-12-08 Mr System Kenkyusho:Kk 奥行き画像計測装置、視差画像計測装置、複合現実感提示システム、奥行き画像計測方法、複合現実感提示方法、およびプログラムの記憶媒体
US20020136444A1 (en) * 2000-07-31 2002-09-26 Brown John D. Photogrammetric image correlation and measurement system and method
JP2003058911A (ja) * 2001-08-09 2003-02-28 Minolta Co Ltd 3次元物体の表面形状モデリング装置、方法、プログラム
JP2004135209A (ja) * 2002-10-15 2004-04-30 Hitachi Ltd 広視野高解像度映像の生成装置及び方法
JP2006229802A (ja) * 2005-02-21 2006-08-31 Hitachi Ltd 画像合成装置及び撮像システム
JP2009014501A (ja) * 2007-07-04 2009-01-22 Mazda Motor Corp 製品の3次元形状モデルデータ作成方法
JP2010011223A (ja) * 2008-06-27 2010-01-14 Sony Corp 信号処理装置、信号処理方法、プログラム及び記録媒体
JP2010145186A (ja) * 2008-12-17 2010-07-01 Topcon Corp 形状測定装置およびプログラム
JP2011514232A (ja) * 2008-03-17 2011-05-06 ソニー コンピュータ エンタテインメント アメリカ リミテッド ライアビリテイ カンパニー インタラクティブアプリケーションのインタフェースとなる一体型カメラを備えたコントローラおよびその方法
US20120056982A1 (en) * 2010-09-08 2012-03-08 Microsoft Corporation Depth camera based on structured light and stereo vision
US20130141545A1 (en) * 2010-08-12 2013-06-06 Robert Bosch Gmbh Method for calibrating a measurement system and device for carrying out the method

Family Cites Families (144)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3938102A (en) 1974-08-19 1976-02-10 International Business Machines Corporation Method and apparatus for accessing horizontal sequences and rectangular sub-arrays from an array stored in a modified word organized random access memory system
EP0085210A1 (en) 1982-01-29 1983-08-10 International Business Machines Corporation Image processing system
US5351152A (en) 1991-07-23 1994-09-27 The Board Of Governers Of Wayne State University Direct-view stereoscopic confocal microscope
US5471326A (en) 1993-04-30 1995-11-28 Northrop Grumman Corporation Holographic laser scanner and rangefinder
US5586200A (en) 1994-01-07 1996-12-17 Panasonic Technologies, Inc. Segmentation based image compression system
US5739906A (en) 1996-06-07 1998-04-14 The United States Of America As Represented By The Secretary Of Commerce Interferometric thickness variation test method for windows and silicon wafers using a diverging wavefront
US6105139A (en) 1998-06-03 2000-08-15 Nec Usa, Inc. Controller-based power management for low-power sequential circuits
TW495749B (en) 1998-08-03 2002-07-21 Matsushita Electric Ind Co Ltd Optical head
US6751344B1 (en) * 1999-05-28 2004-06-15 Champion Orthotic Investments, Inc. Enhanced projector system for machine vision
GB0008303D0 (en) 2000-04-06 2000-05-24 British Aerospace Measurement system and method
US6850872B1 (en) 2000-08-30 2005-02-01 Microsoft Corporation Facial image processing methods and systems
US7554737B2 (en) 2000-12-20 2009-06-30 Riake Corporation Illumination device and method using adaptable source and output format
US6895115B2 (en) 2001-04-23 2005-05-17 The United States Of America As Represented By The United States National Aeronautics And Space Administration Method for implementation of recursive hierarchical segmentation on parallel computers
IL159677A0 (en) 2001-07-06 2004-06-20 Explay Ltd An image projecting device and method
US6940538B2 (en) 2001-08-29 2005-09-06 Sony Corporation Extracting a depth map from known camera and model tracking data
RU2237284C2 (ru) 2001-11-27 2004-09-27 Самсунг Электроникс Ко., Лтд. Способ генерирования структуры узлов, предназначенных для представления трехмерных объектов с использованием изображений с глубиной
US7762964B2 (en) 2001-12-10 2010-07-27 Candela Corporation Method and apparatus for improving safety during exposure to a monochromatic light source
JP4075418B2 (ja) 2002-03-15 2008-04-16 ソニー株式会社 画像処理装置及び画像処理方法、印刷物製造装置及び印刷物製造方法、並びに印刷物製造システム
US6771271B2 (en) 2002-06-13 2004-08-03 Analog Devices, Inc. Apparatus and method of processing image data
US7399220B2 (en) 2002-08-02 2008-07-15 Kriesel Marshall S Apparatus and methods for the volumetric and dimensional measurement of livestock
CN1186671C (zh) 2002-10-09 2005-01-26 天津大学 投影结构光的产生方法及装置
CN1176351C (zh) 2002-10-09 2004-11-17 天津大学 动态多分辨率的三维数字成像的方法及装置
GB2395261A (en) 2002-11-11 2004-05-19 Qinetiq Ltd Ranging apparatus
US7103212B2 (en) 2002-11-22 2006-09-05 Strider Labs, Inc. Acquisition of three-dimensional images by an active stereo technique using locally unique patterns
US7154157B2 (en) 2002-12-30 2006-12-26 Intel Corporation Stacked semiconductor radiation sensors having color component and infrared sensing capability
JP3938120B2 (ja) 2003-09-17 2007-06-27 ノーリツ鋼機株式会社 画像処理装置、方法、及びプログラム
FR2870621B1 (fr) 2004-05-21 2006-10-27 Inst Francais Du Petrole Methode pour generer un maillage hybride conforme en trois dimensions d'une formation heterogene traversee par une ou plusieurs discontinuites geometriques dans le but de realiser des simulations
JP4011039B2 (ja) 2004-05-31 2007-11-21 三菱電機株式会社 撮像装置及び信号処理方法
DE102004029552A1 (de) 2004-06-18 2006-01-05 Peter Mäckel Verfahren zur Sichtbarmachung und Messung von Verformungen von schwingenden Objekten mittels einer Kombination einer synchronisierten, stroboskopischen Bildaufzeichnung mit Bildkorrelationsverfahren
US7315383B1 (en) * 2004-07-09 2008-01-01 Mohsen Abdollahi Scanning 3D measurement technique using structured lighting and high-speed CMOS imager
US20080094406A1 (en) 2004-08-11 2008-04-24 Koninklijke Philips Electronics, N.V. Stripe-Based Image Data Storage
JPWO2006025271A1 (ja) 2004-09-03 2008-05-08 コニカミノルタオプト株式会社 カップリングレンズ及び光ピックアップ装置
JP4883517B2 (ja) 2004-11-19 2012-02-22 学校法人福岡工業大学 三次元計測装置および三次元計測方法並びに三次元計測プログラム
US7719533B2 (en) 2004-11-24 2010-05-18 General Electric Company Graph extraction labelling and visualization
US7367682B2 (en) 2004-12-07 2008-05-06 Symbol Technologies, Inc. Color image projection arrangement and method
EP1851527A2 (en) 2005-01-07 2007-11-07 GestureTek, Inc. Creating 3d images of objects by illuminating with infrared patterns
US7512262B2 (en) 2005-02-25 2009-03-31 Microsoft Corporation Stereo-based image processing
WO2007043036A1 (en) 2005-10-11 2007-04-19 Prime Sense Ltd. Method and system for object reconstruction
US7295771B2 (en) 2005-04-25 2007-11-13 Delphi Technologies, Inc. Method and apparatus for minimizing ambient illumination effects in a vision system
JP4577126B2 (ja) 2005-07-08 2010-11-10 オムロン株式会社 ステレオ対応づけのための投光パターンの生成装置及び生成方法
US20070145273A1 (en) 2005-12-22 2007-06-28 Chang Edward T High-sensitivity infrared color camera
US7821552B2 (en) 2005-12-27 2010-10-26 Sanyo Electric Co., Ltd. Imaging apparatus provided with imaging device having sensitivity in visible and infrared regions
JP4466569B2 (ja) 2006-01-10 2010-05-26 株式会社豊田中央研究所 カラー画像再生装置
DE102006007170B4 (de) 2006-02-08 2009-06-10 Sirona Dental Systems Gmbh Verfahren und Anordnung zur schnellen und robusten chromatisch konfokalen 3D-Messtechnik
EP1994503B1 (en) 2006-03-14 2017-07-05 Apple Inc. Depth-varying light fields for three dimensional sensing
JP5174684B2 (ja) 2006-03-14 2013-04-03 プライムセンス リミテッド スペックル・パターンを用いた三次元検出
US7970177B2 (en) * 2006-03-23 2011-06-28 Tyzx, Inc. Enhancing stereo depth measurements with projected texture
GB0718706D0 (en) 2007-09-25 2007-11-07 Creative Physics Ltd Method and apparatus for reducing laser speckle
WO2007132399A1 (en) 2006-05-09 2007-11-22 Koninklijke Philips Electronics N.V. Programmable data processing circuit
EP2064676B1 (en) 2006-09-21 2011-09-07 Thomson Licensing A method and system for three-dimensional model acquisition
ATE556397T1 (de) * 2006-09-28 2012-05-15 Bea Sa Sensor zur präsenzdetektion
US7616328B2 (en) 2006-11-07 2009-11-10 Rudolph Technologies, Inc. Method and system for providing a high definition triangulation system
EP2084491A2 (en) 2006-11-21 2009-08-05 Mantisvision Ltd. 3d geometric modeling and 3d video content creation
US8090194B2 (en) 2006-11-21 2012-01-03 Mantis Vision Ltd. 3D geometric modeling and motion capture using both single and dual imaging
US8167999B2 (en) 2007-01-10 2012-05-01 3D Systems, Inc. Three-dimensional printing material system with improved color, article performance, and ease of use
US8326020B2 (en) 2007-02-28 2012-12-04 Sungkyunkwan University Foundation Structural light based depth imaging method and system using signal separation coding, and error correction thereof
US7683962B2 (en) 2007-03-09 2010-03-23 Eastman Kodak Company Camera using multiple lenses and image sensors in a rangefinder configuration to provide a range map
FR2914422B1 (fr) 2007-03-28 2009-07-03 Soitec Silicon On Insulator Procede de detection de defauts de surface d'un substrat et dispositif mettant en oeuvre ledit procede.
EP2149268A1 (en) 2007-04-23 2010-02-03 California Institute of Technology An aperture system with spatially-biased aperture shapes for 3-d defocusing-based imaging
JP2008288629A (ja) * 2007-05-15 2008-11-27 Sony Corp 画像信号処理装置、撮像素子、および画像信号処理方法、並びにコンピュータ・プログラム
WO2009018647A1 (en) 2007-08-08 2009-02-12 Tony Mayer Non-retro-reflective license plate imaging system
US7933056B2 (en) 2007-09-26 2011-04-26 Che-Chih Tsao Methods and systems of rapid focusing and zooming for volumetric 3D displays and cameras
CN101878409A (zh) 2007-10-02 2010-11-03 双镜头公司 激光束图案投影仪
US8446470B2 (en) * 2007-10-04 2013-05-21 Magna Electronics, Inc. Combined RGB and IR imaging sensor
IL191615A (en) 2007-10-23 2015-05-31 Israel Aerospace Ind Ltd A method and system for producing tie points for use in stereo adjustment of stereoscopic images and a method for identifying differences in the landscape taken between two time points
US8384997B2 (en) 2008-01-21 2013-02-26 Primesense Ltd Optical pattern projection
US7861193B2 (en) 2008-02-21 2010-12-28 Oracle America, Inc. Reuse of circuit labels for verification of circuit recognition
US7958468B2 (en) 2008-02-21 2011-06-07 Oracle America, Inc. Unidirectional relabeling for subcircuit recognition
US8788990B2 (en) 2008-02-21 2014-07-22 Oracle America, Inc. Reuse of circuit labels in subcircuit recognition
EP3117765B1 (en) 2008-03-18 2021-10-27 Stryker European Operations Limited Imaging system for combined full-colour reflectance and near-infrared imaging
US8405727B2 (en) * 2008-05-01 2013-03-26 Apple Inc. Apparatus and method for calibrating image capture devices
NZ567986A (en) 2008-05-02 2010-08-27 Auckland Uniservices Ltd Real-time stereo image matching system
US8866920B2 (en) 2008-05-20 2014-10-21 Pelican Imaging Corporation Capturing and processing of images using monolithic camera array with heterogeneous imagers
JP5317169B2 (ja) 2008-06-13 2013-10-16 洋 川崎 画像処理装置、画像処理方法およびプログラム
KR101530930B1 (ko) 2008-08-19 2015-06-24 삼성전자주식회사 패턴투영장치, 이를 구비한 3차원 이미지 형성장치, 및 이에 사용되는 초점 가변 액체렌즈
US8442940B1 (en) 2008-11-18 2013-05-14 Semantic Research, Inc. Systems and methods for pairing of a semantic network and a natural language processing information extraction system
CN101509764A (zh) 2009-02-27 2009-08-19 东南大学 一种快速获取物体三维形状的方法
DE102009001889A1 (de) 2009-03-26 2010-09-30 Robert Bosch Gmbh Lasermarkierung mit Koordinatensystem
US8823775B2 (en) 2009-04-30 2014-09-02 Board Of Regents, The University Of Texas System Body surface imaging
US9582889B2 (en) 2009-07-30 2017-02-28 Apple Inc. Depth mapping based on pattern matching and stereoscopic information
US8204904B2 (en) 2009-09-30 2012-06-19 Yahoo! Inc. Network graph evolution rule generation
KR101173668B1 (ko) 2009-10-27 2012-08-20 서울대학교산학협력단 다중 공간 주파수를 이용한 3차원 물체의 깊이 측정 방법 및 그 장치
US8630509B2 (en) 2009-11-03 2014-01-14 Samsung Electronics Co., Ltd. Structured grids for label propagation on a finite number of layers
KR101377325B1 (ko) 2009-12-21 2014-03-25 한국전자통신연구원 스테레오 영상, 다시점 영상 및 깊이 영상 획득 카메라 장치 및 그 제어 방법
US20130278631A1 (en) 2010-02-28 2013-10-24 Osterhout Group, Inc. 3d positioning of augmented reality information
US20110222757A1 (en) 2010-03-10 2011-09-15 Gbo 3D Technology Pte. Ltd. Systems and methods for 2D image and spatial data capture for 3D stereo imaging
JP2011191221A (ja) 2010-03-16 2011-09-29 Sanyo Electric Co Ltd 物体検出装置および情報取得装置
US8619143B2 (en) 2010-03-19 2013-12-31 Pixim, Inc. Image sensor including color and infrared pixels
KR20110132260A (ko) 2010-05-29 2011-12-07 이문기 모니터 기반 증강현실 시스템
US8670029B2 (en) 2010-06-16 2014-03-11 Microsoft Corporation Depth camera illuminator with superluminescent light-emitting diode
EP2400261A1 (de) 2010-06-21 2011-12-28 Leica Geosystems AG Optisches Messverfahren und Messsystem zum Bestimmen von 3D-Koordinaten auf einer Messobjekt-Oberfläche
GB2481459B (en) 2010-06-25 2017-05-03 Fraunhofer-Gesellschaft Zur Forderung Der Angewandten Forschung E V Capturing a surface structure of an object surface
US8357899B2 (en) 2010-07-30 2013-01-22 Aptina Imaging Corporation Color correction circuitry and methods for dual-band imaging systems
US9036158B2 (en) * 2010-08-11 2015-05-19 Apple Inc. Pattern projector
US8903119B2 (en) 2010-10-11 2014-12-02 Texas Instruments Incorporated Use of three-dimensional top-down views for business analytics
JP5787508B2 (ja) 2010-11-11 2015-09-30 キヤノン株式会社 回折光学素子及び光学系
US20120154397A1 (en) 2010-12-03 2012-06-21 Old Dominion University Research Foundation Method and system for generating mesh from images
KR101694292B1 (ko) 2010-12-17 2017-01-09 한국전자통신연구원 스테레오 영상 정합 장치 및 그 방법
CN102867328B (zh) 2011-01-27 2014-04-23 深圳泰山在线科技有限公司 一种物体表面重建的***
US9247238B2 (en) 2011-01-31 2016-01-26 Microsoft Technology Licensing, Llc Reducing interference between multiple infra-red depth cameras
DE102011004663B4 (de) * 2011-02-24 2018-11-22 Robert Bosch Gmbh Vorrichtung zur Fahrzeugvermessung
KR101289595B1 (ko) 2011-02-28 2013-07-24 이경자 격자패턴투영장치
KR101792501B1 (ko) 2011-03-16 2017-11-21 한국전자통신연구원 특징기반의 스테레오 매칭 방법 및 장치
KR101801355B1 (ko) 2011-03-25 2017-11-24 엘지전자 주식회사 회절 소자와 광원을 이용한 대상물의 거리 인식 장치
US8718748B2 (en) 2011-03-29 2014-05-06 Kaliber Imaging Inc. System and methods for monitoring and assessing mobility
CN103477186B (zh) * 2011-04-07 2016-01-27 松下知识产权经营株式会社 立体摄像装置
CN102760234B (zh) 2011-04-14 2014-08-20 财团法人工业技术研究院 深度图像采集装置、***及其方法
US8760499B2 (en) 2011-04-29 2014-06-24 Austin Russell Three-dimensional imager and projection device
WO2012151173A1 (en) 2011-05-02 2012-11-08 Faro Technologies, Inc. Three-dimensional scanner for hand-held phones
US9536312B2 (en) 2011-05-16 2017-01-03 Microsoft Corporation Depth reconstruction using plural depth capture units
US9245307B2 (en) * 2011-06-01 2016-01-26 Empire Technology Development Llc Structured light projection for motion detection in augmented reality
CN102831380A (zh) 2011-06-15 2012-12-19 康佳集团股份有限公司 一种基于深度图像感应的肢体动作识别方法及***
US9530192B2 (en) 2011-06-30 2016-12-27 Kodak Alaris Inc. Method for determining stereo quality score and automatically improving the quality of stereo images
KR101795644B1 (ko) 2011-07-29 2017-11-08 휴렛-팩커드 디벨롭먼트 컴퍼니, 엘.피. 투영 캡쳐 시스템, 투영 캡쳐 프로그래밍, 및 투영 캡쳐 방법
US8867825B2 (en) 2011-08-30 2014-10-21 Thompson Licensing Method and apparatus for determining a similarity or dissimilarity measure
WO2013033787A1 (en) 2011-09-07 2013-03-14 Commonwealth Scientific And Industrial Research Organisation System and method for three-dimensional surface imaging
US9285871B2 (en) 2011-09-30 2016-03-15 Microsoft Technology Licensing, Llc Personal audio/visual system for providing an adaptable augmented reality environment
US9248623B2 (en) 2011-10-14 2016-02-02 Makerbot Industries, Llc Grayscale rendering in 3D printing
US9098908B2 (en) 2011-10-21 2015-08-04 Microsoft Technology Licensing, Llc Generating a depth map
US20140098342A1 (en) 2011-11-04 2014-04-10 The General Hospital Corporation System and method for corneal irradiation
JP5910043B2 (ja) * 2011-12-02 2016-04-27 富士通株式会社 撮像装置、画像処理プログラム、画像処理方法、および画像処理装置
JP5898484B2 (ja) 2011-12-19 2016-04-06 キヤノン株式会社 情報処理装置、情報処理装置の制御方法、およびプログラム
CN102572485B (zh) 2012-02-02 2015-04-22 北京大学 一种自适应加权立体匹配算法、立体显示采集装置及***
US20130229396A1 (en) * 2012-03-05 2013-09-05 Kenneth J. Huebner Surface aware, object aware, and image aware handheld projector
JP5994715B2 (ja) 2012-04-10 2016-09-21 パナソニックIpマネジメント株式会社 計算機ホログラム型表示装置
KR20130120730A (ko) 2012-04-26 2013-11-05 한국전자통신연구원 변이 공간 영상의 처리 방법
US9514522B2 (en) 2012-08-24 2016-12-06 Microsoft Technology Licensing, Llc Depth data processing and compression
US10674135B2 (en) 2012-10-17 2020-06-02 DotProduct LLC Handheld portable optical scanner and method of using
US9332243B2 (en) 2012-10-17 2016-05-03 DotProduct LLC Handheld portable optical scanner and method of using
US9117267B2 (en) 2012-10-18 2015-08-25 Google Inc. Systems and methods for marking images for three-dimensional image generation
US20140120319A1 (en) 2012-11-01 2014-05-01 Benjamin E. Joseph 3d mapping using structured light and formation of custom surface contours
US10049281B2 (en) 2012-11-12 2018-08-14 Shopperception, Inc. Methods and systems for measuring human interaction
KR20140075163A (ko) 2012-12-11 2014-06-19 한국전자통신연구원 구조광 방식을 활용한 패턴 프로젝팅 방법 및 장치
CN104798271B (zh) * 2012-11-29 2018-08-28 皇家飞利浦有限公司 用于向场景上投射结构化光图案的激光设备
DE202012104890U1 (de) * 2012-12-14 2013-03-05 Faro Technologies, Inc. Vorrichtung zum optischen Abtasten und Vermessen einer Umgebung
US9298945B2 (en) 2012-12-26 2016-03-29 Elwha Llc Ad-hoc wireless sensor package
US9292927B2 (en) 2012-12-27 2016-03-22 Intel Corporation Adaptive support windows for stereoscopic image correlation
US9251590B2 (en) 2013-01-24 2016-02-02 Microsoft Technology Licensing, Llc Camera pose estimation for 3D reconstruction
US20140241612A1 (en) 2013-02-23 2014-08-28 Microsoft Corporation Real time stereo matching
US20140293011A1 (en) * 2013-03-28 2014-10-02 Phasica, LLC Scanner System for Determining the Three Dimensional Shape of an Object and Method for Using
US9191643B2 (en) 2013-04-15 2015-11-17 Microsoft Technology Licensing, Llc Mixing infrared and color component data point clouds
US20140307055A1 (en) 2013-04-15 2014-10-16 Microsoft Corporation Intensity-modulated light pattern for active stereo
US20140320605A1 (en) 2013-04-25 2014-10-30 Philip Martin Johnson Compound structured light projection system for 3-D surface profiling
CN103308517B (zh) 2013-05-21 2015-09-30 谢绍鹏 中药颜色客观化方法及中药图像获取装置

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000341721A (ja) * 1999-03-25 2000-12-08 Mr System Kenkyusho:Kk 奥行き画像計測装置、視差画像計測装置、複合現実感提示システム、奥行き画像計測方法、複合現実感提示方法、およびプログラムの記憶媒体
US20020136444A1 (en) * 2000-07-31 2002-09-26 Brown John D. Photogrammetric image correlation and measurement system and method
JP2003058911A (ja) * 2001-08-09 2003-02-28 Minolta Co Ltd 3次元物体の表面形状モデリング装置、方法、プログラム
JP2004135209A (ja) * 2002-10-15 2004-04-30 Hitachi Ltd 広視野高解像度映像の生成装置及び方法
JP2006229802A (ja) * 2005-02-21 2006-08-31 Hitachi Ltd 画像合成装置及び撮像システム
JP2009014501A (ja) * 2007-07-04 2009-01-22 Mazda Motor Corp 製品の3次元形状モデルデータ作成方法
JP2011514232A (ja) * 2008-03-17 2011-05-06 ソニー コンピュータ エンタテインメント アメリカ リミテッド ライアビリテイ カンパニー インタラクティブアプリケーションのインタフェースとなる一体型カメラを備えたコントローラおよびその方法
JP2010011223A (ja) * 2008-06-27 2010-01-14 Sony Corp 信号処理装置、信号処理方法、プログラム及び記録媒体
JP2010145186A (ja) * 2008-12-17 2010-07-01 Topcon Corp 形状測定装置およびプログラム
US20130141545A1 (en) * 2010-08-12 2013-06-06 Robert Bosch Gmbh Method for calibrating a measurement system and device for carrying out the method
US20120056982A1 (en) * 2010-09-08 2012-03-08 Microsoft Corporation Depth camera based on structured light and stereo vision
JP2013544449A (ja) * 2010-09-08 2013-12-12 マイクロソフト コーポレーション 構造化光および立体視に基づく深度カメラ

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020053034A (ja) * 2018-08-30 2020-04-02 コグネックス・コーポレイション 歪みが低減された物体の3次元再構成を生成するための方法及び装置
JP2021182396A (ja) * 2018-08-30 2021-11-25 コグネックス・コーポレイション 歪みが低減された物体の3次元再構成を生成するための方法及び装置
US11587268B2 (en) 2018-08-30 2023-02-21 Cognex Corporation Methods and apparatus for generating a three-dimensional reconstruction of an object with reduced distortion
JP7421518B2 (ja) 2018-08-30 2024-01-24 コグネックス・コーポレイション 歪みが低減された物体の3次元再構成を生成するための方法及び装置
US11954767B2 (en) 2018-08-30 2024-04-09 Cognex Corporation Methods and apparatus for generating a three-dimensional reconstruction of an object with reduced distortion

Also Published As

Publication number Publication date
WO2014172223A1 (en) 2014-10-23
US9760770B2 (en) 2017-09-12
CN105229411B (zh) 2019-09-03
US9697424B2 (en) 2017-07-04
WO2014172227A1 (en) 2014-10-23
WO2014172221A1 (en) 2014-10-23
AU2014254219B2 (en) 2017-07-27
US20140309764A1 (en) 2014-10-16
US20140307058A1 (en) 2014-10-16
EP2987323A1 (en) 2016-02-24
RU2663329C2 (ru) 2018-08-03
EP2986935A1 (en) 2016-02-24
US9928420B2 (en) 2018-03-27
EP2987132A1 (en) 2016-02-24
EP2986936A1 (en) 2016-02-24
US20140307098A1 (en) 2014-10-16
CN105308650A (zh) 2016-02-03
US9922249B2 (en) 2018-03-20
CN105230003B (zh) 2019-07-16
US9959465B2 (en) 2018-05-01
CN105229412B (zh) 2018-12-07
CN105210112A (zh) 2015-12-30
EP2986935B1 (en) 2021-03-31
CN105247859A (zh) 2016-01-13
CN105230003A (zh) 2016-01-06
RU2015143654A (ru) 2017-04-28
CA2907895C (en) 2020-10-27
US20140307307A1 (en) 2014-10-16
EP2987320A1 (en) 2016-02-24
US20140310496A1 (en) 2014-10-16
US20180260623A1 (en) 2018-09-13
CN105229412A (zh) 2016-01-06
US20180218210A1 (en) 2018-08-02
US9508003B2 (en) 2016-11-29
JP6469080B2 (ja) 2019-02-13
US10929658B2 (en) 2021-02-23
CA2907895A1 (en) 2014-10-23
EP2986936B1 (en) 2020-08-26
US10816331B2 (en) 2020-10-27
CN105143817B (zh) 2021-02-09
CN105247859B (zh) 2019-11-29
EP2987131A1 (en) 2016-02-24
EP2987138B1 (en) 2021-09-22
US20140307953A1 (en) 2014-10-16
US20150078672A1 (en) 2015-03-19
WO2014172276A1 (en) 2014-10-23
US10268885B2 (en) 2019-04-23
KR20150140841A (ko) 2015-12-16
WO2014172222A1 (en) 2014-10-23
US20180173947A1 (en) 2018-06-21
EP2987323B1 (en) 2020-10-21
BR112015025819A8 (pt) 2019-12-24
KR102207768B1 (ko) 2021-01-25
US20140307047A1 (en) 2014-10-16
EP2987132B1 (en) 2017-11-01
AU2014254219A1 (en) 2015-10-22
EP3757510A1 (en) 2020-12-30
WO2014172231A1 (en) 2014-10-23
CN105229411A (zh) 2016-01-06
CN105308650B (zh) 2020-09-25
KR20150140838A (ko) 2015-12-16
CN105229696A (zh) 2016-01-06
CN105210112B (zh) 2019-08-30
WO2014172229A1 (en) 2014-10-23
MX2015014577A (es) 2017-02-15
US20230332886A1 (en) 2023-10-19
BR112015025819A2 (pt) 2017-07-25
KR102130187B1 (ko) 2020-07-03
EP3757510B1 (en) 2022-06-29
US20140307055A1 (en) 2014-10-16
EP2986931A1 (en) 2016-02-24
EP2987320B1 (en) 2021-02-03
WO2014172228A1 (en) 2014-10-23
MX357307B (es) 2018-07-04
CN105143817A (zh) 2015-12-09
US10928189B2 (en) 2021-02-23
US20140307057A1 (en) 2014-10-16
EP2987138A1 (en) 2016-02-24

Similar Documents

Publication Publication Date Title
JP6469080B2 (ja) 1つ以上の衛星デバイスを有する能動的なステレオ
JP7195422B2 (ja) 顔認識方法および電子デバイス
US10038893B2 (en) Context-based depth sensor control
WO2019223468A1 (zh) 相机姿态追踪方法、装置、设备及***
TWI583176B (zh) 具有功率有效深度感測器運用之即時三維重建
US10282857B1 (en) Self-validating structured light depth sensor system
CN112005548B (zh) 生成深度信息的方法和支持该方法的电子设备
JP2014533347A (ja) レーザー深度マップの範囲拡張方法
CN112907725B (zh) 图像生成、图像处理模型的训练、图像处理方法和装置
US20140354784A1 (en) Shooting method for three dimensional modeling and electronic device supporting the same
KR20200038111A (ko) 전자 장치 및 제스처 인식 방법
US20160163057A1 (en) Three-Dimensional Shape Capture Using Non-Collinear Display Illumination
US10447998B2 (en) Power efficient long range depth sensing
WO2019196871A1 (zh) 建模方法及相关装置
CN114731362A (zh) 包括相机的电子装置及其方法
CN111886853B (zh) 图像数据处理方法及其设备
CN112400082A (zh) 基于用户的位置使用发光元件提供视觉效果的电子装置及其方法
TWI748439B (zh) 一種基於共享地圖的定位方法及裝置、電子設備和電腦可讀儲存媒體
CN116681746B (zh) 深度图像的确定方法和装置
US10609350B1 (en) Multiple frequency band image display system
KR102179432B1 (ko) 3차원 정보를 검출하는 방법 및 장치
CN114155175A (zh) 图像生成方法、装置、电子设备及存储介质
RO130715A0 (ro) Dispozitiv integrat pentru video asamblări - gadget video selfie "imstar"

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170315

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170315

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180112

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180206

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180426

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180807

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181106

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181218

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190115

R150 Certificate of patent or registration of utility model

Ref document number: 6469080

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250