ES2264476T3 - Medida del perfil superficial. - Google Patents
Medida del perfil superficial.Info
- Publication number
- ES2264476T3 ES2264476T3 ES02718331T ES02718331T ES2264476T3 ES 2264476 T3 ES2264476 T3 ES 2264476T3 ES 02718331 T ES02718331 T ES 02718331T ES 02718331 T ES02718331 T ES 02718331T ES 2264476 T3 ES2264476 T3 ES 2264476T3
- Authority
- ES
- Spain
- Prior art keywords
- light
- detector
- light source
- regions
- flight time
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
- 238000005259 measurement Methods 0.000 title claims description 22
- 238000000034 method Methods 0.000 claims abstract description 36
- 230000003287 optical effect Effects 0.000 claims abstract description 28
- 238000003384 imaging method Methods 0.000 claims abstract description 21
- 230000008569 process Effects 0.000 claims abstract description 18
- 230000015572 biosynthetic process Effects 0.000 claims description 11
- 238000010408 sweeping Methods 0.000 claims description 7
- 230000001360 synchronised effect Effects 0.000 claims description 5
- 239000000758 substrate Substances 0.000 claims description 3
- 230000007246 mechanism Effects 0.000 claims description 2
- 238000013459 approach Methods 0.000 description 16
- 230000008901 benefit Effects 0.000 description 9
- 230000000694 effects Effects 0.000 description 7
- 238000001514 detection method Methods 0.000 description 5
- 230000010354 integration Effects 0.000 description 3
- 230000003321 amplification Effects 0.000 description 2
- 230000003111 delayed effect Effects 0.000 description 2
- 239000000835 fiber Substances 0.000 description 2
- 238000005286 illumination Methods 0.000 description 2
- 239000007943 implant Substances 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 238000003199 nucleic acid amplification method Methods 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 230000000712 assembly Effects 0.000 description 1
- 238000000429 assembly Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 239000003990 capacitor Substances 0.000 description 1
- 230000015556 catabolic process Effects 0.000 description 1
- 230000001427 coherent effect Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000006731 degradation reaction Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 238000002513 implantation Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000001208 nuclear magnetic resonance pulse sequence Methods 0.000 description 1
- 238000005192 partition Methods 0.000 description 1
- 239000006187 pill Substances 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 230000003252 repetitive effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 229910052710 silicon Inorganic materials 0.000 description 1
- 239000010703 silicon Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000003860 storage Methods 0.000 description 1
- 239000003826 tablet Substances 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/483—Details of pulse systems
- G01S7/486—Receivers
- G01S7/487—Extracting wanted echo signals, e.g. pulse detection
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/02—Systems using the reflection of electromagnetic waves other than radio waves
- G01S17/06—Systems determining position data of a target
- G01S17/08—Systems determining position data of a target for measuring distance only
- G01S17/10—Systems determining position data of a target for measuring distance only using transmission of interrupted, pulse-modulated waves
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/02—Systems using the reflection of electromagnetic waves other than radio waves
- G01S17/06—Systems determining position data of a target
- G01S17/08—Systems determining position data of a target for measuring distance only
- G01S17/10—Systems determining position data of a target for measuring distance only using transmission of interrupted, pulse-modulated waves
- G01S17/26—Systems determining position data of a target for measuring distance only using transmission of interrupted, pulse-modulated waves wherein the transmitted pulses use a frequency-modulated or phase-modulated carrier wave, e.g. for pulse compression of received signals
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/87—Combinations of systems using electromagnetic waves other than radio waves
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/89—Lidar systems specially adapted for specific applications for mapping or imaging
- G01S17/894—3D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/93—Lidar systems specially adapted for specific applications for anti-collision purposes
- G01S17/931—Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/51—Display arrangements
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0238—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
- G05D1/024—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors in combination with a laser
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
- G05D1/0248—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means in combination with a laser
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
- G08G1/166—Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
- G08G1/167—Driving aids for lane monitoring, lane changing, e.g. blind spot detection
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0268—Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
- G05D1/027—Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means comprising intertial navigation means, e.g. azimuth detector
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0268—Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
- G05D1/0272—Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means comprising means for registering the travel distance, e.g. revolutions of wheels
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0268—Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
- G05D1/0274—Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
Landscapes
- Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Electromagnetism (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Computer Networks & Wireless Communication (AREA)
- Automation & Control Theory (AREA)
- Aviation & Aerospace Engineering (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Optics & Photonics (AREA)
- Multimedia (AREA)
- Optical Radar Systems And Details Thereof (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Apparatus For Radiation Diagnosis (AREA)
- Investigating Or Analysing Materials By Optical Means (AREA)
- Crushing And Grinding (AREA)
- Absorbent Articles And Supports Therefor (AREA)
- Medicinal Preparation (AREA)
- Image Input (AREA)
Abstract
Un sistema de formación de imágenes, que comprende: una disposición de fuente de luz (40) dirigida a un objeto (12) del que se va a formar una imagen; elementos ópticos de recepción (46, 50) estacionarios para recibir la luz reflejada del objeto que va a ser tratado por imágenes; un detector (70) de luz de regiones múltiples para detectar la luz recibida de los elementos ópticos de recepción, y en el que diferentes regiones del detector de luz pueden ser actuadas por separado; un medio (52) de control para sincronizar la operación de la disposición de fuente de luz (40) y la operación del detector (70) de luz, de manera que una región del detector sea actuada sincrónicamente con una operación asignada de la fuente de luz (40); un medio (54, 56) de proceso para medir el tiempo de vuelo de las señales de luz desde la fuente de luz a la porción actuada del detector, que se caracteriza porque el medio de proceso es operativo selectivamente para: (i) medir el tiempo de vuelo desde una señal recibida por una región individual del detector, o (ii)medir el tiempo de vuelo de las señales recibidas en paralelo desde un subgrupo de las regiones del detector.
Description
Medida del perfil superficial.
La invención se refiere a un aparato para medir
el perfil superficial de una muestra, y en particular, se refiere a
sistemas de medida sin contacto de perfil superficial en 3D.
La medición sin contacto de objetos de tres
dimensiones (3D) para extraer datos que se refieren a sus formas
físicas y posiciones en el espacio, es un asunto que ha provocado
mucha investigación. Se han desarrollado muchas técnicas para
adecuar la distancia al objeto, la precisión con la cual se debe
medir las características del objeto, y otras del mismo tipo.
Una técnica común es iluminar el objeto remoto
con una fuente de luz de patrón conocido; la denominada
"iluminación estructurada". Se sitúa una cámara a una cierta
distancia separada de la fuente de luz estructurada y se dispone
para que recoja una imagen de la proyección del patrón de luz
estructurada sobre la superficie del objeto remoto. La figura 1
muestra esta medición de perfil conocida utilizando iluminación
estructurada.
Una fuente 10 de luz estructurada proyecta luz
sobre el objeto 12, y la luz reflejada es capturada por una cámara
14 que tiene un campo de visión 15 que cubre el objeto 12. Un
procesador 16 de imagen deriva los datos 18 de perfil en 3D
analizando la deformación del patrón de luz estructurada, que es
representativa de la distancia al objeto remoto.
La naturaleza 3D del objeto remoto hace que el
patrón de luz estructurada en la imagen capturada por la cámara esté
deformado. Por el conocimiento de la separación física de la cámara
a la fuente de luz (línea de base 20) y la trigonometría, es posible
calcular el perfil de la superficie 3D del objeto remoto a partir de
la deformación de la imagen del patrón de luz estructurada.
Un beneficio de este sistema es que, si se
utiliza una videocámara para capturar la imagen, entonces, con
suficiente procesamiento, se podrá medir el perfil de la superficie
3D con una velocidad secuencial de vídeo (50 ó 60 veces por
segundo). Puesto que este sistema trabaja sobre principios
trigonométricos, la precisión de la profundidad está relacionada con
la línea de base del sistema y con la resolución del sensor. Como
resultado, las consideraciones prácticas tienden a limitar la
aplicación de los sistemas de este tipo a objetos que no estén
alejados más de unos pocos metros. Además, cuando se incrementa la
línea de base, el ángulo entre el patrón de luz incidente y la línea
de visión de la cámara se hace más obtuso y las sombras producidas
por las características del objeto remoto pueden oscurecer la
medición de perfil 3D.
Las técnicas alternativas se basan en el barrido
de un dispositivo que mide la distancia a un punto remoto; por
ejemplo, un telémetro de láser (LRF) o un interferómetro, utilizando
una unidad de plato e inclinación controlada en remoto. Un ejemplo
de un sistema de este tipo se ilustra en la figura 2.
Un dispositivo de medida de distancias, tal como
un telémetro de láser 30, mide la distancia a un único punto en el
objeto, y está controlado por una unidad 32 de plato e inclinación.
Los elementos electrónicos de control 34, bajo el control de un
ordenador, hacen que la unidad 32 de plato e inclinación realice el
barrido de la línea de visión del dispositivo 30 de medida de
distancia a través del objeto que se va a medir, para construir una
matriz 3D de los datos de acimut, elevación y distancia al objeto
remoto. Esta matriz de números representa el perfil de la superficie
3D del objeto remoto medido en coordenadas polares desde el eje de
rotación de la unidad de plato e inclinación. Se pueden aplicar
algunas correcciones a los datos si los ejes de rotación de la
unidad de plato e inclinación no son coincidentes con la línea de
visión del dispositivo de medición. El perfil superficial 18 en 3D
resultante se puede transformar a otros sistemas de coordenadas
utilizando técnicas matemáticas conocidas. Este técnica es análoga a
los sistemas de radar en los que se utiliza el tiempo de vuelo de
una señal de radio de microondas de barrido para determinar la
distancia a uno o más objetos remotos.
Este enfoque de LRF de barrido no sufre de las
limitaciones de rango del enfoque de luz estructurada, pero es
relativamente caro de implantar debido a que se requieren
componentes de alta precisión y costosos para conseguir una buena
precisión. Además, debido a que se realiza el barrido de la masa
total del dispositivo de medida de distancia, es problemático
conseguir barridos a velocidades suficientes para proporcionar datos
de imágenes en 3D "en tiempo real".
Para vencer esta dificultad, se han construido
sistemas que utilizan un espejo o espejos de barrido delante del
LRF. Por ejemplo, el documento PCT/US
97/06793 describe un sistema complejo que utiliza dos espejos ortogonales para barrer el haz LRF horizontal y verticalmente, para cubrir un campo de vista de, aproximadamente, 40º x 40º. Este enfoque permite que el LRF permanezca estático. Sin embargo, el/los espejo/espejos debe(n) ser lo suficientemente grande(s) para incluir el haz de láser así como la apertura de lentes del sistema de recepción sin que se produzca degradación o superposición óptica entre el haz de láser emitido y el haz recibido y, por consiguiente, los sistemas de barrido con espejo siguen siendo
caros.
97/06793 describe un sistema complejo que utiliza dos espejos ortogonales para barrer el haz LRF horizontal y verticalmente, para cubrir un campo de vista de, aproximadamente, 40º x 40º. Este enfoque permite que el LRF permanezca estático. Sin embargo, el/los espejo/espejos debe(n) ser lo suficientemente grande(s) para incluir el haz de láser así como la apertura de lentes del sistema de recepción sin que se produzca degradación o superposición óptica entre el haz de láser emitido y el haz recibido y, por consiguiente, los sistemas de barrido con espejo siguen siendo
caros.
Se han utilizado enfoques híbridos, en los que
el dispositivo de medición de distancia realiza el barrido a lo
largo de una línea en una dirección y se hace girar el objeto
remoto, para crear un mapa en 3D de la superficie completa de un
objeto remoto. Sin embargo, estas técnicas no son apropiadas para
todos los objetivos.
Otros operadores han buscado solucionar estos
problemas realizando el barrido con el haz de láser mientras
mantienen estático el detector, como se describe en el documento GB
2 286 495. Con este enfoque, la única parte móvil del sistema es un
espejo de barrido que solamente necesita ser lo suficientemente
grande para conducir al haz de láser. Esto evita el alto coste de un
cabezal de plato e inclinación motorizado de precisión, y permite
una elevada velocidad de barrido. Además, debido a que los trayectos
de láser y óptico de recepción pueden mantenerse completamente
separados, no hay riesgo de superposición óptica. Sin embargo, este
enfoque requiere que el campo de visión del sistema óptico de
recepción incluya la totalidad del objeto remoto. Como resultado, el
sistema óptico recogerá la iluminación del campo de visión completo.
Esto genera un nivel de señal de desplazamiento del fondo en el
fotodetector del sistema óptico. Aunque este nivel de desplazamiento
se puede compensar en el proceso de detección de señales, el ruido
de disparo inherente en el nivel de señal de desvío degrada
significativamente la relación de nivel de señal láser detectada
respecto al ruido y, por lo tanto, reduce el rango máximo del
sistema.
Para solucionar esta significativa desventaja,
se han propuesto algunos esquemas muy complejos. Uno de ellos es
cómo se describe en la patente norteamericana 5.682.229, en la que
la luz reflejada de un láser de barrido se enfoca sobre un conjunto
detector estacionario que utiliza una serie de haces de fibras
complejas para transferir la luz recogida a 128 fotodiodos de
avalancha separados y la circuitería asociada de medición tiempo de
vuelo. Se apreciará que la complejidad y la utilización de
componentes relativamente caros, tales como los conjuntos de fibra
óptica coherente y múltiples fotodiodos de avalancha discretos hacen
que estos enfoques sean caros de
implantar.
implantar.
El documento WO 00/36372 muestra un sistema de
medición de distancia en el cual se direccionan individualmente
píxeles de una agrupación fotosensible secuencialmente, y se miden
los tiempos de vuelo para permitir el cálculo de la distancia.
El documento US 5 889 490 muestra la medición de
la distancia a un objetivo utilizando una forma de onda modulada
coherente en ráfagas.
De acuerdo con la invención, se proporciona un
sistema de formación de imágenes que comprende: una disposición de
fuente de luz dirigida a un objeto que va a ser tratado por
imágenes; elementos ópticos estacionarios de recepción para recibir
la luz reflejada por el objeto que va a ser tratado por imágenes; un
detector de luz de regiones múltiples para detectar luz recibida de
los elementos ópticos de recepción, y en el que las diferentes
regiones del detector de luz pueden ser actuadas por separado; un
medio de control para sincronizar el funcionamiento de la
disposición de fuente de luz y la operación del detector de luz, de
manera que una región del detector sea actuada sincrónicamente con
una operación asignada de la fuente de luz; y un medio de proceso
para medir el tiempo de vuelo de las señales de luz desde la fuente
de luz a la porción actuada del detector,
en el que el medio de proceso es operativo de
manera selectiva para: (i) medir el tiempo de vuelo de una señal
recibida por una región individual del detector, ó (ii) medir el
tiempo de vuelo de señales recibidas en paralelo de un subgrupo de
regiones del detector.
Esto puede permitir que se realice un sistema de
formación de imágenes sin partes amovibles, utilizando un detector
de luz de regiones múltiples. Todas las regiones del detector de luz
pueden ser actuadas en paralelo, para obtener una captura de
imágenes a alta velocidad. Sin embargo, las diferentes regiones del
detector de luz pueden ser actuadas preferiblemente por separado.
Esto permite que diferentes subregiones del detector de luz sean
actuadas secuencialmente, siendo asignada a cada subregión una
operación diferente de la fuente de luz. Por ejemplo, cada subregión
puede comprender una fila o columna de píxeles detectores de una
agrupación de píxeles.
El sistema puede comprender, además, un medio
para barrer con la luz de una disposición de fuente de luz sobre el
objeto que va a ser tratado por imágenes, y en el que diferentes
regiones del objeto que va a ser tratado por imágenes son tratadas
por imágenes en diferentes regiones del detector por medio de
elementos ópticos de recepción, el medio de control es para
sincronizar el barrido de la fuente de luz y la actuación del
detector de luz de manera que se actúe una región del detector que
realiza el formación de imágenes de la región del objeto que está
siendo iluminado por la disposición de fuente de luz, y el medio de
proceso es para medir el tiempo de vuelo de las señales de luz desde
la disposición de fuente de luz a la región actuada del detector en
todas las direcciones de barrido.
Se pueden utilizar la dirección de barrido y el
tiempo de vuelo medido asociado para construir una imagen en 3D del
objeto. Esto proporciona una estructura simple con pocas partes
móviles.
El medio para barrido puede comprender un
reflector para dirigir la luz desde la fuente de luz a un objeto que
va a ser tratado por imágenes, y un mecanismo de accionamiento para
controlar el movimiento del reflector para barrer con la luz de la
fuente de luz sobre el objeto que va a ser tratado por imágenes.
La disposición de fuente de luz puede comprender
una pluralidad de fuentes de luz, siendo tratada por imágenes cada
fuente de luz por los elementos ópticos de recepción en una región
diferente o subgrupos de regiones del detector de luz, en la que las
diferentes regiones o subgrupos de regiones del detector de luz
pueden ser actuados por separado, y en la que las diferentes fuentes
de luz son operadas secuencialmente.
De esta manera se evita la necesidad de barrer
con la salida de fuente de luz sobre el objeto que va a ser tratado
por imágenes.
La fuente de luz, o cada de ellas, puede
comprender un láser pulsado o un diodo ó diodos emisores de luz, y
la salida puede ser modulada con técnicas de correlación cruzada que
se utilizan para la medida de tiempo de vuelo.
El detector de luz preferiblemente comprende una
agrupación de fotodiodos, que se puede implantar a un costo bajo. La
agrupación de fotodiodos puede ser operativa de dos modos; un primer
modo en el cual las señales de luz de todos los fotodiodos en la
agrupación son leídas secuencialmente, y un segundo modo en el cual
las señales de luz de fotodiodos seleccionados o subgrupos de
fotodiodos en la agrupación son leídas secuencialmente.
La invención también proporciona un
procedimiento para obtener una imagen de un objeto que comprende:
barrer con una señal de fuente de luz el objeto, dirigiendo
secuencialmente la salida de la fuente de luz en una pluralidad de
direcciones de barrido, y detectar la luz reflejada recibida desde
el objeto utilizando una agrupación de detectores de luz de regiones
múltiples de dos dimensiones; determinar las regiones de la
agrupación de detectores de luz que están iluminadas en cada
dirección de barrido; barrer de nuevo con la señal de fuente de luz
sobre el objeto, y detectar la luz reflejada recibida desde el
objeto utilizando solamente las regiones determinadas de la
agrupación de detectores de luz, en el que se pueden seleccionar las
regiones determinadas para que comprendan una única región o un
subgrupo de regiones de la agrupación de detectores de luz,
recibiéndose las señales en paralelo; calcular el tiempo de vuelo de
los impulsos de luz desde la fuente de luz al detector en cada
dirección de barrido; y obtener un perfil en 3D a partir de los
cálculos del tiempo de vuelo.
A continuación se describirán ejemplos de la
invención en detalle, con referencia a los dibujos que se acompañan,
en los cuales:
la figura 1 muestra un primer sistema conocido
de formación de imágenes en 3D;
la figura 2 muestra un segundo sistema conocido
de formación de imágenes en 3D;
la figura 3 muestra un ejemplo simplificado de
la agrupación de fotodiodos para su utilización en el sistema de la
invención;
la figura 4 muestra un sistema de formación de
imágenes de la invención, utilizando la agrupación de fotodiodos de
la figura 3;
la figura 5 muestra una modificación de la
agrupación de fotodiodos;
la figura 6 muestra cómo se pueden utilizar las
fuentes de luz pulsada en el sistema de formación de imágenes de la
invención.
La invención proporciona un sistema de formación
de imágenes en 3D, con un sistema óptico de recepción estacionario.
La invención utiliza un detector de dos dimensiones, que se
describirá en primer lugar con referencia a la figura 3.
La figura 3 es un esquema simplificado de una
agrupación de fotodiodos para su utilización en un sistema de
formación de imágenes de la invención, en un formato de 2 x 2. El
dispositivo consiste en una agrupación 60 de píxeles de fotodiodo,
cada uno de los cuales comprende un fotodiodo (PD11 a PD22) y un
transistor asociado (TR11 a TR22), que están configurados y
accionados para actuar como conmutadores analógicos. Para las
aplicaciones de formación de imágenes estándar, el dispositivo es
operado en un modo de integración, en el que la iluminación
incidente se enfoca sobre su superficie. La iluminación incidente
genera una carga en cada fotodiodo por el efecto fotoeléctrico.
Durante este periodo de integración, las conexiones X1, X2, Y1 e Y2
se mantienen bajas, de manera que todos los transistores están
desconectados y los fotodiodos están asilados eléctricamente. A
continuación, la carga fotogenerada se acumula en cada fotodiodo y
se almacena en el autocondensador del fotodiodo.
Una vez que se haya recogido suficiente
fotocarga, el dispositivo se lee como sigue. La entrada X1 se toma a
un alto potencial de manera que TR1 se conecte, con lo cual permite
que la carga fluya entre la columna y un amplificador 62 sensible a
la carga. A continuación, la entrada Y1 se pulsa alta para
direccionar una fila de píxeles, conectando TR11 y permitiendo que
la carga fotogenerada almacenada en el fotodiodo PD11 fluya a través
de TR11 y TR1 al amplificador 62 de salida, en donde la carga se
convierte en un voltaje. Esto crea una señal de salida cuya amplitud
es proporcional al nivel de carga almacenada en PD11 y, por lo
tanto, al nivel de luz incidente en TR11.
Después de que se hayan descargado el
autocondensador de PD11, la entrada Y1 se toma baja y la salida Y2
se toma alta, permitiendo que sea leída la carga almacenada en PD12.
De esta manera, a su vez se lee una columna de píxeles.
Después de que toda la carga recogida por PD12
se haya descargado, Y2 se toma baja y X2 se toma alta para permitir
que PD21 y PD22 (los píxeles en la siguiente columna) se lean
secuencialmente pulsando Y1 e Y2 de la manera que se ha descrito más
arriba.
Se puede ver que este proceso permite que la
agrupación de 2 x 2 sea barrida y se genere una señal eléctrica que
es la análoga de la iluminación incidente. En operación normal, se
utilizan mayor número de fotodiodos, por ejemplo, 256 x 256, para
incrementar la resolución. A menudo, las secuencias de lectura y los
barridos del sensor se disponen para generar una señal de vídeo
estándar.
Además, se hace notar que la estructura básica
descrita aquí se ha simplificado con el propósito de describir la
invención propuesta. De manera práctica, las agrupaciones de
fotodiodos direccionados X-Y se fabrican en general
como circuitos integrados a gran escala (LSI) únicos de
semiconductores de oxido de metal complementarios (CMOS) que
incluyen muchos perfeccionamientos, tales como circuitería de reloj
en pastilla para generar las secuencias de impulsos para los
electrodos X1 a Xn e Y1 a Yn. La circuitería a nivel de pixel y/o
columna adicional y en pastilla mejora la amplificación y la
detección de la fotocarga. Estos perfeccionamientos conocidos se
pueden aplicar con ventaja al principio de medición de perfil de 3D
que se describe en la presente memoria
descriptiva.
descriptiva.
Para la medida de perfil en 3D, se ha apreciado
que se pueden utilizar tales agrupaciones de fotodiodos
direccionados X-Y no en un modo de integración, sino
como un multiplexor sincronizado con el barrido y el impulso de
láser, de manera que solamente los fotodiodos individuales que
reciben la imagen reflejada del punto láser en el objeto remoto sean
direccionados.
La figura 4 muestra un sistema que utiliza la
agrupación de fotodiodos en este modo sincronizado de operación. Una
salida de haz de láser pulsado secuencialmente de un láser 40 es
barrida por un medio conocido para iluminar un punto en la
superficie del objeto remoto 12. Para minimizar tamaño y costo, el
sistema 44 de barrido por láser se puede implantar en un número de
maneras, incluyendo el uso de espejos 42 de barrido electromecánico
o piezoeléctrico, o montando una pastilla láser en una estructura
piezoeléctrica de silicio o compacta micromecanizada.
Se forma una imagen del punto de láser sobre la
superficie de la agrupación 70 de fotodiodos direccionados
X-Y por el sistema óptico 46 de recepción,
estacionario. Se puede utilizar un filtro óptico 50 de banda de paso
estrecha para rechazar todas las longitudes de onda excepto aquellas
cercanas a la longitud de onda del láser y optimizar la
discriminación del impulso de láser contra la iluminación de
fondo.
Los elementos electrónicos de control aplican
señales de nivel lógico a las líneas de control X e Y relevantes de
la agrupación direccionada X–Y, de manera que el fotodiodo iluminado
por la imagen del punto de láser esté conectado al preamplificador y
a los elementos electrónicos 56 de detección de tiempo de vuelo. En
particular, el impulso de láser reflejado es capturado por este
fotodiodo y la señal eléctrica resultante es dirigida a un detector
54 de impulsos eléctricos y a la circuitería 56 de medición del TOF
(tiempo de vuelo). Esto calcula el TOF del impulso de láser al punto
en el objeto remoto y de retorno al fotodiodo en la agrupación
direccionada X-Y y, de esta manera, la distancia
desde el objeto remoto a la agrupación direccionada
X-Y. A continuación, este proceso se repite en
muchos puntos sobre la superficie del objeto remoto para medir el
perfil de la superficie del objeto remoto. Si la imagen formada del
punto de láser es mayor que un pixel individual, entonces los
elementos electrónicos de control pueden hacer que el detector
direccione un grupo de fotodiodos adyacentes (por ejemplo, una
subagrupación de 2 x 2 fotodiodos) en paralelo para optimizar la
recogida y la detección de la energía del láser.
Se puede ver que, debido a que solamente uno o
un número pequeño de fotodiodos está conectado al amplificador de
recepción y a los elementos electrónicos de tiempo de vuelo en un
momento dado, la señal de desvío de fondo estará limitada a la
generada por parte del campo de visión enfocado en el fotodiodo
individual/grupo de fotodiodos, en lugar de serlo en la totalidad
del campo de visión de los elementos ópticos, como en el sistema que
se ha descrito más arriba.
Por ejemplo, si el haz de láser se dispone para
barrer secuencialmente 100 x 100 puntos separados por igual dentro
del campo óptico de visión, entonces el nivel de señal de fondo
recogido por cada fotodiodo/grupo de fotodiodos se reducirá
nominalmente 10.000 veces en comparación con el sistema simple que
se ha descrito más arriba, lo cual proporciona beneficios
sustanciales en el funcionamiento del
sistema.
sistema.
Se hace notar que se puede utilizar una versión
simplificada de este sistema con una agrupación de fotodiodos lineal
para medir un perfil de superficie en 2D, en lugar de 3D.
El rendimiento del sistema se puede mejorar
sustancialmente reemplazando la fuente 40 de láser pulsado por una
fuente de láser modulado y el discriminador 56 de impulsos por un
sistema de correlación cruzada. Tales sistemas son conocidos, por
ejemplo, por el documento DE 19949803 a Tenso Corp y por el
documento PCT/GB/04968. En particular, el sistema puede incluir una
fuente de señales, tal como un láser, para suministrar una señal de
modulación y un sistema de transmisión conectado a la fuente de
señales para transmitir una señal óptica transmitida modulada por la
señal de modulación.
La señal de modulación puede ser, por ejemplo,
una secuencia de longitud máxima. A continuación se proporciona un
sistema de recepción para recibir una versión reflejada y
retrasada de la señal transmitida, y un correlador cruzado para
obtener el retraso de tiempo. El correlador cruzado se puede
disponer para determinar, con una resolución basta, el retraso de
tiempo de la señal de modulación necesaria para maximizar la
correlación entre la señal de modulación retrasada en tiempo y la
señal recibida. El correlador cruzado puede entonces determinar, con
una resolución mas fina que la resolución basta, la correlación
entre la señal de modulación y la señal recibida en función del
retraso de tiempo de la señal de modulación con respecto a la señal
recibida en un rango de retraso de tiempo menor que el retraso de
tiempo determinado. Se calcula una medida de la distancia a partir
del retraso de tiempo de la señal de modulación necesaria para
maximizar la correlación entre la señal de modulación retrasada de
tiempo y la señal recibida.
El correlador cruzado se puede implantar
digitalmente. De esta manera, para un pico de potencia de láser
dado, se puede suministrar mayor energía al objeto remoto que mejora
la relación de señal a ruido y por lo tanto, el rango máximo del
sistema. Este enfoque de sobremuestra permite que la resolución de
distancia del sistema sea mejorada, y el procedimiento de proceso de
señal eficiente utilizando correladores cruzados basto y fino
minimiza la potencia de proceso necesaria.
En una realización preferente, el sensor
X-Y, el sistema de medida de tiempo de vuelo y los
elementos electrónicos de control se fabrican en un único circuito
integrado para minimizar los costes de fabricación. Los fotodiodos
se pueden fabricar y operar como fotodiodos de avalancha para
proporcionar amplificación de señal por el efecto de avalancha,
antes de la detección de señal. El enfoque de medida de tiempo de
vuelo utilizado puede ser como el que se ha descrito más arriba en
conexión con la figura 4, u otros esquemas de mayor rendimiento que
se han descrito más arriba.
Los sensores X-Y tales como los
que se han descrito en la presente memoria descriptiva, pueden
sufrir de retardo de imágenes, que se presenta
debido a:
debido a:
- (a)
- la fotocarga generada por la luz incidente sobre un pixel está dividida entre la capacitancia intrínseca del fotodiodo y la capacitancia de los electrodos de fila y de columna, lo cual hace que algo de carga se mantenga en las capacitancias de los electrodos de fila y columna después de que se haya leído cada pixel, y
- (b)
- se puede proporcionar un transistor de carga para descargar la capacitancia del fotodiodo y forzar el amplificador, pero la resistencia efectiva de este transistor de carga se incrementa con la corriente en disminución que incrementa la constante de tiempo del sistema a bajos niveles de luz.
En una realización preferente, este efecto se
puede minimizar configurando el amplificador de recepción como un
amplificador de transimpedancia mientras que se utiliza la
agrupación de fotodiodos en un modo multiplexor. La tierra virtual
ofrecida por la entrada del amplificador de transimpedancia
proporciona un trayecto de baja impedancia por el cual puede
circular la corriente fotogenerada, reduciendo el efecto de
partición de carga y mejorando la anchura de banda del sistema. Este
enfoque también proporciona un medio para polarizar los fotodiodos
durante la lectura. En un desarrollo óptimo de la realización
preferente, se proporciona una etapa de amplificador de
transimpedancia para cada pixel, para accionar la circuitería de
multiplexión de la agrupación.
El patrón de barrido del láser a menudo será un
patrón repetitivo dispuesto para cubrir el campo óptico de vista al
mismo tiempo que proporciona una resolución de tiempo adecuada para
medir la posición de objetos móviles en el campo de visión. El
patrón típicamente se dispone como un barrido de trama para
facilitar la visualización en monitores convencionales. Sin embargo,
se puede ver que se pueden utilizar otros patronos. Un patrón útil
es un patrón de barrido en espiral en el que, controlando la
velocidad del barrido del láser, se puede conseguir una resolución
espacial incrementada en el centro del barrido mientras se sigue
manteniendo una baja resolución espacial para detectar objetos que
aparecen en la periferia del barrido.
Para aquellas aplicaciones en las que sea
necesario monitorizar el movimiento en 3D de unos pocos objetos
específicos dentro del campo de visión, se puede controlar el
barrido de manera adaptativa para seguir los objetos e ignorar el
resto del campo de visión. Este enfoque puede incrementar la
resolución temporal de los objetos seguidos.
Un beneficio importante del enfoque que se ha
descrito en la presente memoria descriptiva es que la agrupación
direccionada X-Y todavía se puede operar en un modo
de formación de imágenes, en lugar de hacerlo en un modo detector de
tiempo de vuelo multiplexado. Esto se puede conseguir simplemente
devolviendo la secuencia de impulsos aplicados a la agrupación
direccionada X-Y a una secuencia de barrido de vídeo
convencional.
Esto presenta varios beneficios significativos.
En primer lugar, para el rendimiento óptimo, es importante que
solamente el fotodiodo o el grupo local de fotodiodos que reciben la
imagen del punto de láser en cualquier momento de tiempo sea
direccionado; es decir, el barrido del láser y el barrido de la
agrupación de fotodiodos están sincronizados. Esto normalmente
requeriría una calibración precisa del escáner y del sistema óptico.
Sin embargo, si se barre con el láser mientras el sensor se
encuentra en el modo de formación de imágenes, se puede recoger una
imagen del trayecto del láser por los elementos electrónicos de
control. Esta imagen se puede utilizar para determinar el trayecto
preciso de la imagen del haz de láser en la superficie de la
agrupación de fotodiodos, y de esta manera establecer la secuencia
de direccionamiento correcto de la agrupación direccionada
X-Y y/o de la secuencia de impulsos de láser, para
asegurar la sincronización en el modo detector de tiempo de vuelo
multiplexado. De esta manera, el modo de direccionamiento normal se
utiliza como una etapa de calibración para el modo de multiplexión
del rendimiento más alto. En efecto, el sistema puede ser de
autocalibración, lo cual es un beneficio importante en los sistemas
que tienen que operar en rangos de temperatura grandes.
En segundo lugar, si el láser se desconecta y si
la agrupación de fotodiodos direccionados X-Y
funciona en un modo de formación de imágenes, entonces el sistema se
puede utilizar como un dispositivo de formación de imágenes
convencional, es decir, un vídeo o cámara fija para proporcionar
información adicional referente al objeto remoto.
En tercer lugar, puesto que se utiliza el mismo
detector para capturar un perfil de superficie 3D y una imagen
estándar, el registro entre la imagen estándar y los datos 3D es
casi perfecto.
Esto permite que se utilicen combinaciones
beneficiosas de modos de medición de perfil 3D convencional y de
formación de imágenes. Por ejemplo, conmutando la posición del
sistema entre la captura de un barrido 3D y un barrido de imágenes
convencionales, se pueden capturar y superponer una sobre otra una
secuencia de imágenes de vídeo así como una secuencia 3D. Este
enfoque es particularmente beneficioso para evitar colisiones o para
la detección de intrusos. Si la imagen 3D muestra que un objeto
dentro del campo de visión está demasiado cerca o se encuentra en un
trayecto que pueda conducir a una colisión, la parte correspondiente
de la imagen convencional puede ser coloreada o hacer que brille
intermitentemente para atraer la atención al problema.
Otro beneficio de capturar datos de imagen
registrados perfectamente en 3D y convencionales es que los
procedimientos de formación de imágenes se pueden aplicar
simultáneamente a ambos conjuntos de datos, utilizando el
procedimiento óptimo para extraer las características importantes de
cada imagen y combinar los datos de las características para
conseguir más información respecto a los objetos en el campo de
visión. Por ejemplo, los datos 3D se pueden utilizar para determinar
la orientación y el tamaño de un objeto en el campo de visión. A
continuación, estos datos se pueden utilizar para seleccionar, o
para generar a partir de un modelo sólido en 3D de un objeto
conocido, un patrón apropiado para la correspondencia de patrones y
para el reconocimiento de objetos/objetivos.
Se puede ver que los beneficios de adquirir una
imagen 3D perfectamente registrada y datos convencionales son muy
numerosos.
Cuando se requieren velocidades de barrido más
elevadas, el sistema que se ha descrito más arriba puede ser
mejorado modificando los elementos ópticos del láser para iluminar
una línea, en lugar de un punto, del objeto remoto y modificar la
estructura de la agrupación direccionada X - Y para permitir que una
fila de fotodiodos se conecte en paralelo para multiplicar los
procesos de medida de tiempo de vuelo, es decir, una agrupación de
salida de Y barrido, X
paralelo.
paralelo.
Se muestra una implantación de la estructura de
agrupación de fotodiodos revisada para una agrupación de 2 x 2 de la
figura 5. Cada transistor de conmutación de columna ha sido
reemplazado por un amplificador 80 y la circuitería de medida de
tiempo de vuelo (TOF) comprende un detector de impulsos 82, un
contador 84 y un cierre 86.
Todos los contadores 84 se sintonizan a la misma
frecuencia por medio de una entrada común 88 de reloj. El sistema de
barrido por láser se dispone para iluminar una banda del objeto
remoto. La imagen de la banda iluminada se enfoca en una fila N de
la agrupación de fotodiodos. El láser está pulsado, los contadores
84 TOF se vuelven a restablecer en cero y los elementos electrónicos
de control sitúan el electrodo Y relevante (Y1, Y2) en posición alta
para conectar todos los fotodiodos a lo largo de la fila al
amplificador correspondiente y a la circuitería TOF. Puesto que cada
fotodiodo recibe el impulso reflejado de la luz del láser, el
detector de impulsos hace que el contador correspondiente 84 deje de
contar. Una vez que se hayan recibido todos los impulsos reflejados,
el número mantenido en cada contador 84 se cierra en los cierres 86
y es leído de una manera normal, mientras que la siguiente fila se
ilumina y se repite el proceso. Los números almacenados en cada
cierre son proporcionales al tiempo de vuelo, lo cual permite que se
mida la distancia a cada uno de los puntos iluminados por la línea
del láser y sean tratados por imágenes por los fotodiodos.
Para mejorar el rendimiento de la circuitería de
medición del tiempo de vuelo se puede usar los mismo principios que
se han descrito más arriba.
Con este enfoque, se deben considerar los
efectos de paralaje para los objetos próximos al sistema óptico.
Estos efectos se pueden minimizar, ya sea configurando la fuente del
láser y los elementos ópticos de recepción para que estén tan
cercanos como sea posible, o preferiblemente coincidentes por medio
de la utilización de un divisor de haz. De manera alternativa, la
línea de láser puede ser desenfocada para iluminar una banda ancha
del objeto remoto y asegurar que una única fila de fotodiodos
recibirá toda la luz reflejada. Otro enfoque es que los elementos
electrónicos de control hagan que no uno, sino que varios fotodiodos
en cada columna, se conecten al amplificador de columna en un mismo
momento. Estas técnicas se pueden utilizar por separado o en
combinación.
combinación.
Para eliminar la necesidad de partes móviles, se
puede utilizar un sistema de iluminación que comprende múltiples
fuentes de luz pulsada o modulada. Este enfoque se ilustra en la
figura 6, que muestra un sistema de iluminación compuesto por tres
diodos de láser 90A, 90B y 90C configurados de manera que cada diodo
de láser ilumine una región 91A, 91B, 91C del campo de visión 92 de
los elementos ópticos de recepción. Cada fuente de luz sería operada
secuencialmente para hacer que la región de la iluminación esté
sincronizada con las lecturas de la agrupación de salida de Y
barrida, X paralela. Preferiblemente, las fuentes luz, por ejemplo
diodos de láser o diodos emisores de luz (LED), se fabrican sobre un
substrato común con circuitería de accionamiento integrada para
minimizar el coste. Para dirigir y enfocar la salida de cada fuente
de luz individual, es ventajoso fabricar una agrupación de
microlentes, estando cada uno alineado con una fuente de luz
individual.
Se puede ver que se puede utilizar muchas
combinaciones alternativas de láser/multiplexor, dependiendo de los
requisitos de la aplicación final.
Por ejemplo, si solamente se requiere medir el
perfil de distancia a lo largo de una línea, entonces se puede
utilizar una agrupación de una dimensión de fotodiodos. Los
especialistas en la técnica del formación de imágenes podrán ver que
también es posible utilizar un dispositivo acoplado cargado (CCD)
como agrupación de detector para medir el perfil de distancia a lo
largo de una línea. Esto es particularmente apropiado con fuentes de
luz modulada. En este caso, una agrupación CCD de dos dimensiones se
enmascara de manera que la fila superior de los píxeles de sección
de imagen, más alejada del registro de lectura paralelo, esté
iluminada. A continuación, la sección de imagen CCD se temporiza con
un retraso de tiempo y en un modo integrado de sincronismo (TDI) con
la modulación de la fuente de luz para capturar la secuencia de
modulación reflejada de cada pixel en la fila iluminada en paralelo.
La secuencia capturada puede ser entonces leída por el CCD de la
manera normal y los datos de cada columna procesados utilizando
correlación cruzada para extraer el tiempo de vuelo desde la fuente
de luz al pixel iluminado en la parte superior de cada columna.
De manera alternativa, se puede realizar un
sistema muy simple utilizando una única fuente de luz brillante
pulsada o modulada para iluminar la totalidad del campo de visión
simultáneamente, y la agrupación direccionada X-Y o
la agrupación de salida Y barrida, X paralela utilizada para
capturar los datos de imágenes en 3D de la manera que se ha descrito
más arriba.
Esto permite que se realice un sistema de
formación de imágenes sin partes móviles. La fuente de luz se opera
una vez para cada grupo de píxeles de la agrupación del detector
para que se lean simultáneamente. Para las aplicaciones a la
velocidad más elevada, la circuitería de medición TOF puede estar
provista para cada fotodiodo de la agrupación. De esta manera, el
grupo de píxeles es la agrupación completa de píxeles. Esto permite
que el TOF y, por lo tanto, la distancia al objeto remoto sea medido
en paralelo en todos los puntos en el campo de visión.
Sin embargo, en una implantación de coste más
inferior, las regiones diferentes del detector de luz son actuadas
por separado, en una secuencia. La secuencia puede ser de fila por
fila o de columna por columna, dependiendo de las configuraciones
del circuito accionador de las filas y columnas. Esto permite que
subregiones diferentes (filas o columnas) del detector de luz sean
actuadas secuencialmente, con una operación diferente de la fuente
de luz que está asignada a cada subregión.
En todos los ejemplos anteriores, el modo de
medida a distancia del funcionamiento de la agrupación de píxeles
detectores incluye un modo de operación de lectura directa, en el
cual las cargas fotogeneradas pasan directamente a la circuitería de
medición, de manera que se conozca el tiempo de llegada de la luz
incidente. El modo de formación de imágenes es un modo de operación
en el cual se permite que las cargas se acumulen en el
autocondensador del fotodiodo (o si no, en un condensador de
almacenamiento de cargas adicionales en la disposición de píxeles).
Los circuitos de accionamiento de fila y columna necesitan ser
operativos en estos dos modos diferentes, y esto típicamente
requerirá voltajes y temporización de control diferentes en los dos
modos.
Los esquemas de control y configuraciones de
pixel específicas posibles serán evidentes a los especialistas en la
técnica.
Claims (18)
1. Un sistema de formación de imágenes, que
comprende:
una disposición de fuente de luz (40) dirigida a
un objeto (12) del que se va a formar una imagen;
elementos ópticos de recepción (46, 50)
estacionarios para recibir la luz reflejada del objeto que va a ser
tratado por imágenes;
un detector (70) de luz de regiones múltiples
para detectar la luz recibida de los elementos ópticos de recepción,
y en el que diferentes regiones del detector de luz pueden ser
actuadas por separado;
un medio (52) de control para sincronizar la
operación de la disposición de fuente de luz (40) y la operación del
detector (70) de luz, de manera que una región del detector sea
actuada sincrónicamente con una operación asignada de la fuente de
luz (40);
un medio (54, 56) de proceso para medir el
tiempo de vuelo de las señales de luz desde la fuente de luz a la
porción actuada del detector,
que se caracteriza porque el medio de
proceso es operativo selectivamente para:
- (i)
- medir el tiempo de vuelo desde una señal recibida por una región individual del detector, o
- (ii)
- medir el tiempo de vuelo de las señales recibidas en paralelo desde un subgrupo de las regiones del detector.
2. Un sistema de formación de imágenes como se
ha reivindicado en la reivindicación 1, en el que diferentes
subgrupos de regiones del detector de luz se actúan secuencialmente,
siendo asignada una operación diferente de la disposición de fuente
de luz a cada subregión.
3. Un sistema de formación de imágenes como se
ha reivindicado en la reivindicación 1 ó 2, en el que cada subgrupo
de regiones comprende una fila o columna de píxeles detectores de
una agrupación de píxeles.
4. Un sistema de formación de imágenes como se
ha reivindicado en una cualquiera de las reivindicaciones 1 a 3, en
el que la disposición de fuente de luz (40) comprende un láser
pulsado o un diodo o diodos emisor o emisores de luz.
5. Un sistema de formación de imágenes como se
ha reivindicado en cualquiera de las reivindicaciones 1 a 3, en el
que la disposición de fuente de luz (40) es un láser o diodo o
diodos emisores de luz que tienen una salida modulada.
6. Un sistema de formación de imágenes como se
ha reivindicado en cualquiera de las reivindicaciones precedentes,
que comprende, además, un medio (42) para barrer la luz desde la
disposición de fuente de luz (40) sobre el objeto (12) del que se va
a formar una imagen, y en el que:
diferentes regiones del objeto (12) del que se
va a formar una imagen son formadas por imágenes en regiones
diferentes del detector por los elementos ópticos de recepción (46,
50);
el medio (52) de control es para sincronizar el
barrido de la fuente de luz y la actuación del detector de luz, de
manera que se actúa una región del detector que está formando
imágenes de la región del objeto que está siendo iluminado por la
disposición de fuente de luz;
el medio (54, 56) de proceso es para medir el
tiempo de vuelo de las señales de luz desde la disposición de fuente
de luz a la región actuada del detector en todas las direcciones de
barrido.
7. Un sistema de formación de imágenes como se
ha reivindicado en la reivindicación 6, en el que el medio para
barrido comprende:
un reflector (42) para dirigir la luz desde la
fuente de luz a un objeto del que se va a formar una imagen;
un mecanismo de accionamiento para controlar el
movimiento del reflector para barrer la luz desde la fuente de luz
sobre el objeto del que se va a formar una imagen.
8. Un sistema de formación de imágenes como se
ha reivindicado en cualquiera de las reivindicaciones 1 a 5, en el
que la disposición de fuente de luz (40) comprende una pluralidad de
fuentes de luz (90A, 90B, 90C), siendo formada por imágenes cada
fuente de luz por los elementos ópticos de recepción sobre una
región diferente o subgrupo de regiones (91A, 91B, 91C) del detector
de luz, en el que las regiones diferentes o subgrupo de regiones de
detector de luz puede ser actuadas por separado, y en el que las
diferentes fuentes de luz son operadas secuen-
cialmente.
cialmente.
9. Un sistema de formación de imágenes como se
ha reivindicado en cualquiera de las reivindicaciones precedentes,
en el que el detector de luz comprende una agrupación de
fotodiodos.
10. Un sistema de formación de imágenes como se
ha reivindicado en la reivindicación 9, en el que la agrupación de
fotodiodos es operativa en dos modos, un primer modo en el cual las
señales de luz de todos los fotodiodos en la agrupación son leídas
secuencialmente, y un segundo modo en el cual las señales de luz de
los fotodiodos o subgrupos de fotodiodos seleccionados en la
agrupación se leen en una
secuencia.
secuencia.
11. Un sistema de formación de imágenes como se
ha reivindicado en la reivindicación 9 ó 10, en el que el medio de
proceso está integrado sobre el mismo substrato que la agrupación de
fotodiodos.
12. Un sistema de formación de imágenes como se
ha reivindicado en cualquiera de las reivindicaciones 9 a 11, en el
que se integran múltiples canales de medición de tiempo de vuelo
sobre el mismo substrato que la agrupación de fotodiodos, y están
configurados para procesar señales de diferentes posiciones actuadas
de la agrupación de fotodiodos en paralelo.
13. Un sistema de formación de imágenes como se
ha reivindicado en cualquiera de las reivindicaciones precedentes,
en el que el medio de proceso utiliza correlación cruzada para medir
el tiempo de vuelo de las señales de luz desde la fuente de luz a la
porción actuada del detector.
14. Un procedimiento para obtener una imagen de
un objeto, que comprende: barrer con una señal de fuente de luz
sobre el objeto dirigiendo una salida de fuente de luz (40) en una
pluralidad de direcciones de barrido secuencialmente, y detectar la
luz reflejada recibida desde el objeto utilizando una agrupación
(70) de detectores de luz de regiones múltiples de 2D;
determinar las regiones de la agrupación de
detector de luz que están iluminadas en cada dirección de
barrido;
barrer de nuevo con la señal de la fuente de luz
sobre el objeto, y detectar la luz reflejada recibida desde el
objeto utilizando solamente las regiones determinadas de la
agrupación de detectores de luz, en el que las regiones determinadas
se pueden seleccionar para que comprendan una única región o un
subgrupo de regiones de la agrupación de detectores de luz con las
señales recibidas en paralelo;
calcular el tiempo de vuelo de los impulsos de
luz desde la fuente de luz al detector en cada dirección de
barrido;
obtener un perfil en 3D de los cálculos del
tiempo de vuelo.
15. Un procedimiento como se ha reivindicado en
la reivindicación 16, en el que el barrido de la fuente de luz está
sincronizado con la actuación de regiones seleccionadas de la
agrupación de detectores de luz.
16. Un procedimiento como se ha reivindicado en
las reivindicaciones 16 ó 17, en el que la señal de la fuente de luz
comprende una salida de láser pulsado o una salida de un diodo o
diodos emisores de luz.
17. Un procedimiento como se ha reivindicado en
la reivindicación 14 ó 15, en el que la señal de la fuente de luz
comprende una salida modulada de un láser o de un diodo o diodos
emisores de luz.
18. Un procedimiento como se ha reivindicado en
la reivindicación 17, en el que el cálculo del tiempo de vuelo
utiliza correlación cruzada.
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
GB0108497 | 2001-04-04 | ||
GB0108497A GB2374743A (en) | 2001-04-04 | 2001-04-04 | Surface profile measurement |
GB0110577A GB2374228A (en) | 2001-04-04 | 2001-04-30 | A collision warning device |
GB0110577 | 2001-04-30 |
Publications (1)
Publication Number | Publication Date |
---|---|
ES2264476T3 true ES2264476T3 (es) | 2007-01-01 |
Family
ID=26245931
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
ES02718331T Expired - Lifetime ES2264476T3 (es) | 2001-04-04 | 2002-04-04 | Medida del perfil superficial. |
ES02720176T Expired - Lifetime ES2250636T3 (es) | 2001-04-04 | 2002-04-04 | Equipo de analisis de imagenes. |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
ES02720176T Expired - Lifetime ES2250636T3 (es) | 2001-04-04 | 2002-04-04 | Equipo de analisis de imagenes. |
Country Status (8)
Country | Link |
---|---|
US (2) | US7319777B2 (es) |
EP (2) | EP1373830B1 (es) |
JP (2) | JP4405155B2 (es) |
AT (2) | ATE310268T1 (es) |
DE (2) | DE60211497T2 (es) |
ES (2) | ES2264476T3 (es) |
PT (1) | PT1373830E (es) |
WO (2) | WO2002082201A1 (es) |
Families Citing this family (178)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5877897A (en) | 1993-02-26 | 1999-03-02 | Donnelly Corporation | Automatic rearview mirror, vehicle lighting control and vehicle interior monitoring system using a photosensor array |
US6822563B2 (en) | 1997-09-22 | 2004-11-23 | Donnelly Corporation | Vehicle imaging system with accessory control |
US6891563B2 (en) | 1996-05-22 | 2005-05-10 | Donnelly Corporation | Vehicular vision system |
US7655894B2 (en) | 1996-03-25 | 2010-02-02 | Donnelly Corporation | Vehicular image sensing system |
US7319777B2 (en) * | 2001-04-04 | 2008-01-15 | Instro Precision Limited | Image analysis apparatus |
WO2003093857A2 (en) | 2002-05-03 | 2003-11-13 | Donnelly Corporation | Object detection system for vehicle |
US7963695B2 (en) | 2002-07-23 | 2011-06-21 | Rapiscan Systems, Inc. | Rotatable boom cargo scanning system |
DE10255797A1 (de) * | 2002-11-28 | 2004-06-17 | Daimlerchrysler Ag | Verfahren zur Erfassung der vorausliegenden Umgebung eines Strassenfahrzeugs mittels eines Umgebungserfassungssystems |
FR2848368B1 (fr) * | 2002-12-06 | 2005-05-20 | Thales Sa | Systeme d'imagerie active tridimensionnelle d'un objet |
US7916898B2 (en) * | 2003-09-15 | 2011-03-29 | Deere & Company | Method and system for identifying an edge of a crop |
US7526103B2 (en) | 2004-04-15 | 2009-04-28 | Donnelly Corporation | Imaging system for vehicle |
GB2415560A (en) * | 2004-06-25 | 2005-12-28 | Instro Prec Ltd | Vehicle safety system having a combined range finding means and a communication means |
GB0415219D0 (en) * | 2004-07-07 | 2004-08-11 | Koninkl Philips Electronics Nv | Improvements in or relating to time-of-flight ranging systems |
DE102004047022A1 (de) * | 2004-09-28 | 2006-04-06 | Siemens Ag | Vorrichtung zur Überwachung von Raumbereichen |
GB2420238B (en) * | 2004-11-04 | 2007-03-21 | Instro Prec Ltd | Correlation apparatus and method |
DE102004058251A1 (de) * | 2004-12-03 | 2006-06-08 | Valeo Schalter Und Sensoren Gmbh | Verfahren zur Verarbeitung von Entfernungsdaten |
GB2421383A (en) * | 2004-12-07 | 2006-06-21 | Instro Prec Ltd | Surface profile measurement |
US7804981B2 (en) * | 2005-01-13 | 2010-09-28 | Sensis Corporation | Method and system for tracking position of an object using imaging and non-imaging surveillance devices |
US8085388B2 (en) * | 2005-02-01 | 2011-12-27 | Laser Projection Technologies, Inc. | Laser radar projection with object feature detection and ranging |
JP4346568B2 (ja) * | 2005-03-04 | 2009-10-21 | 三井造船株式会社 | 3次元画像情報取得装置 |
EP1712888A1 (en) * | 2005-04-11 | 2006-10-18 | Agilent Technologies Inc | Time-of-flight measurement using pulse sequences |
US7706978B2 (en) * | 2005-09-02 | 2010-04-27 | Delphi Technologies, Inc. | Method for estimating unknown parameters for a vehicle object detection system |
US8107812B2 (en) * | 2005-09-23 | 2012-01-31 | Honeywell International Inc. | Dynamic range measurement and calculation of optical keyless entry sensor |
JP2007101342A (ja) * | 2005-10-04 | 2007-04-19 | Omron Corp | 距離測定装置 |
US9002511B1 (en) * | 2005-10-21 | 2015-04-07 | Irobot Corporation | Methods and systems for obstacle detection using structured light |
DE102005054359A1 (de) | 2005-11-15 | 2007-05-16 | Leuze Lumiflex Gmbh & Co Kg | Schutzeinrichtung |
US8130367B2 (en) * | 2005-12-08 | 2012-03-06 | Roger Stettner | Laser ranging, tracking and designation using 3-D focal planes |
US20070247688A1 (en) * | 2006-01-18 | 2007-10-25 | Turner Mark A | Variable-beamwidth angle encoding laser scanner |
US7894042B2 (en) | 2006-01-18 | 2011-02-22 | Lockheed Martin Corporation | Omni-directional imaging sensor |
CA2539645C (en) * | 2006-03-15 | 2020-04-28 | Lmi Technologies Inc. | Time of flight teat location system |
US20070255498A1 (en) * | 2006-04-28 | 2007-11-01 | Caterpillar Inc. | Systems and methods for determining threshold warning distances for collision avoidance |
WO2008018955A2 (en) * | 2006-06-27 | 2008-02-14 | Arete' Associates | Camera-style lidar setup |
USRE46672E1 (en) | 2006-07-13 | 2018-01-16 | Velodyne Lidar, Inc. | High definition LiDAR system |
WO2008024639A2 (en) | 2006-08-11 | 2008-02-28 | Donnelly Corporation | Automatic headlamp control system |
WO2008027150A2 (en) * | 2006-08-30 | 2008-03-06 | Usnr/Kockums Cancar Company | Charger scanner system |
EP1906208A1 (en) * | 2006-09-27 | 2008-04-02 | Harman Becker Automotive Systems GmbH | Park assist system visually marking up dangerous objects |
ATE466357T1 (de) | 2006-11-14 | 2010-05-15 | Instro Prec Ltd | Detektionssystem für eindringlinge |
DE102007004348A1 (de) | 2007-01-29 | 2008-07-31 | Robert Bosch Gmbh | Imager-Halbleiterbauelement, Kamerasystem und Verfahren zum Erstellen eines Bildes |
US7956988B1 (en) * | 2007-02-06 | 2011-06-07 | Alpha Technology, LLC | Light detection and ranging systems and related methods |
US20080273760A1 (en) * | 2007-05-04 | 2008-11-06 | Leonard Metcalfe | Method and apparatus for livestock assessment |
CA2606267A1 (fr) * | 2007-10-11 | 2009-04-11 | Hydro-Quebec | Systeme et methode de cartographie tridimensionnelle d'une surface structurelle |
US7978312B2 (en) | 2007-11-01 | 2011-07-12 | The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration | Three-dimensional range imaging apparatus and method |
CN101458078A (zh) * | 2007-12-10 | 2009-06-17 | 鸿富锦精密工业(深圳)有限公司 | 一种汽车防撞***及方法 |
US8279411B2 (en) * | 2008-08-27 | 2012-10-02 | The Boeing Company | Systems and methods for reducing crosstalk in an avalanche photodiode detector array |
US9310323B2 (en) | 2009-05-16 | 2016-04-12 | Rapiscan Systems, Inc. | Systems and methods for high-Z threat alarm resolution |
US20110285981A1 (en) * | 2010-05-18 | 2011-11-24 | Irvine Sensors Corporation | Sensor Element and System Comprising Wide Field-of-View 3-D Imaging LIDAR |
US20110102763A1 (en) * | 2009-10-30 | 2011-05-05 | Microvision, Inc. | Three Dimensional Imaging Device, System and Method |
US8514284B2 (en) * | 2009-12-17 | 2013-08-20 | Raytheon Company | Textured pattern sensing and detection, and using a charge-scavenging photodiode array for the same |
JP5469446B2 (ja) * | 2009-12-22 | 2014-04-16 | パナソニック株式会社 | 物体検知装置 |
CA2782180C (en) | 2009-12-22 | 2015-05-05 | Leddartech Inc. | Active 3d monitoring system for traffic detection |
US20110187878A1 (en) | 2010-02-02 | 2011-08-04 | Primesense Ltd. | Synchronization of projected illumination with rolling shutter of image sensor |
US8660324B2 (en) * | 2010-03-29 | 2014-02-25 | Raytheon Company | Textured pattern sensing using partial-coherence speckle interferometry |
US8780182B2 (en) | 2010-03-31 | 2014-07-15 | Raytheon Company | Imaging system and method using partial-coherence speckle interference tomography |
US8346426B1 (en) * | 2010-04-28 | 2013-01-01 | Google Inc. | User interface for displaying internal state of autonomous driving system |
US8260482B1 (en) | 2010-04-28 | 2012-09-04 | Google Inc. | User interface for displaying internal state of autonomous driving system |
US8641942B2 (en) | 2010-05-12 | 2014-02-04 | Corning Incorporated | Laser scanning systems and methods for measuring extruded ceramic logs |
US9161511B2 (en) | 2010-07-06 | 2015-10-20 | Technologies Holdings Corp. | Automated rotary milking system |
US10739460B2 (en) | 2010-08-11 | 2020-08-11 | Apple Inc. | Time-of-flight detector with single-axis scan |
US9149018B2 (en) | 2010-08-31 | 2015-10-06 | Technologies Holdings Corp. | System and method for determining whether to operate a robot in conjunction with a rotary milking platform based on detection of a milking claw |
US8720382B2 (en) | 2010-08-31 | 2014-05-13 | Technologies Holdings Corp. | Vision system for facilitating the automated application of disinfectant to the teats of dairy livestock |
US10111401B2 (en) | 2010-08-31 | 2018-10-30 | Technologies Holdings Corp. | System and method for determining whether to operate a robot in conjunction with a rotary parlor |
US8800487B2 (en) | 2010-08-31 | 2014-08-12 | Technologies Holdings Corp. | System and method for controlling the position of a robot carriage based on the position of a milking stall of an adjacent rotary milking platform |
US20120056982A1 (en) * | 2010-09-08 | 2012-03-08 | Microsoft Corporation | Depth camera based on structured light and stereo vision |
US9025019B2 (en) * | 2010-10-18 | 2015-05-05 | Rockwell Automation Technologies, Inc. | Time of flight (TOF) sensors as replacement for standard photoelectric sensors |
CN102608612B (zh) * | 2010-12-20 | 2015-07-15 | 美泰有限公司 | 用于游戏设备的近程传感器装置 |
US8908831B2 (en) | 2011-02-08 | 2014-12-09 | Rapiscan Systems, Inc. | Covert surveillance using multi-modality sensing |
US9395182B1 (en) | 2011-03-03 | 2016-07-19 | The Boeing Company | Methods and systems for reducing crosstalk in avalanche photodiode detector arrays |
CN102760234B (zh) | 2011-04-14 | 2014-08-20 | 财团法人工业技术研究院 | 深度图像采集装置、***及其方法 |
TWI463244B (zh) * | 2011-04-14 | 2014-12-01 | Ind Tech Res Inst | 深度影像擷取裝置、系統及其方法 |
US8885891B2 (en) | 2011-04-28 | 2014-11-11 | Technologies Holdings Corp. | System and method for analyzing data captured by a three-dimensional camera |
US9058657B2 (en) | 2011-04-28 | 2015-06-16 | Technologies Holdings Corp. | System and method for filtering data captured by a 3D camera |
US9215861B2 (en) | 2011-04-28 | 2015-12-22 | Technologies Holdings Corp. | Milking box with robotic attacher and backplane for tracking movements of a dairy animal |
US8903129B2 (en) | 2011-04-28 | 2014-12-02 | Technologies Holdings Corp. | System and method for filtering data captured by a 2D camera |
US10357015B2 (en) | 2011-04-28 | 2019-07-23 | Technologies Holdings Corp. | Robotic arm with double grabber and method of operation |
US9161512B2 (en) | 2011-04-28 | 2015-10-20 | Technologies Holdings Corp. | Milking box with robotic attacher comprising an arm that pivots, rotates, and grips |
US9107378B2 (en) | 2011-04-28 | 2015-08-18 | Technologies Holdings Corp. | Milking box with robotic attacher |
US9357744B2 (en) | 2011-04-28 | 2016-06-07 | Technologies Holdings Corp. | Cleaning system for a milking box stall |
US9681634B2 (en) | 2011-04-28 | 2017-06-20 | Technologies Holdings Corp. | System and method to determine a teat position using edge detection in rear images of a livestock from two cameras |
US9049843B2 (en) | 2011-04-28 | 2015-06-09 | Technologies Holdings Corp. | Milking box with a robotic attacher having a three-dimensional range of motion |
US9107379B2 (en) | 2011-04-28 | 2015-08-18 | Technologies Holdings Corp. | Arrangement of milking box stalls |
US8671885B2 (en) | 2011-04-28 | 2014-03-18 | Technologies Holdings Corp. | Vision system for robotic attacher |
US9258975B2 (en) | 2011-04-28 | 2016-02-16 | Technologies Holdings Corp. | Milking box with robotic attacher and vision system |
US10127446B2 (en) | 2011-04-28 | 2018-11-13 | Technologies Holdings Corp. | System and method for filtering data captured by a 2D camera |
US9265227B2 (en) | 2011-04-28 | 2016-02-23 | Technologies Holdings Corp. | System and method for improved attachment of a cup to a dairy animal |
US8683946B2 (en) | 2011-04-28 | 2014-04-01 | Technologies Holdings Corp. | System and method of attaching cups to a dairy animal |
US9043988B2 (en) | 2011-04-28 | 2015-06-02 | Technologies Holdings Corp. | Milking box with storage area for teat cups |
US8746176B2 (en) | 2011-04-28 | 2014-06-10 | Technologies Holdings Corp. | System and method of attaching a cup to a dairy animal according to a sequence |
US8908159B2 (en) * | 2011-05-11 | 2014-12-09 | Leddartech Inc. | Multiple-field-of-view scannerless optical rangefinder in high ambient background light |
CA2839194C (en) | 2011-06-17 | 2017-04-18 | Leddartech Inc. | System and method for traffic side detection and characterization |
JP5858688B2 (ja) * | 2011-08-30 | 2016-02-10 | スタンレー電気株式会社 | 距離画像生成装置 |
CN102984446B (zh) * | 2011-09-05 | 2016-01-13 | 联想(北京)有限公司 | 图像采集装置及图像采集方法 |
KR20140070595A (ko) * | 2011-09-13 | 2014-06-10 | 오에스아이 옵토일렉트로닉스 | 개선된 레이저 레인지파인더 센서 |
CN102508259A (zh) * | 2011-12-12 | 2012-06-20 | 中国科学院合肥物质科学研究院 | 基于mems扫描微镜的小型化无镜头激光三维成像***及其成像方法 |
US9075443B2 (en) | 2011-12-27 | 2015-07-07 | Maxim Integrated Products, Inc. | Gesture detection and compact representation thereof |
IL217361A0 (en) * | 2012-01-04 | 2012-03-29 | Rafael Advanced Defense Sys | Device & method providing combined video camera and range finder functionality |
EP2815251B1 (en) | 2012-02-15 | 2017-03-22 | Heptagon Micro Optics Pte. Ltd. | Time of flight camera with stripe illumination |
EP2820632B8 (en) | 2012-03-02 | 2017-07-26 | Leddartech Inc. | System and method for multipurpose traffic detection and characterization |
US9163936B1 (en) * | 2012-05-07 | 2015-10-20 | Physical Optics Corporation | Three-dimensional profilometer |
JP6103179B2 (ja) | 2012-09-13 | 2017-03-29 | 株式会社リコー | 距離測定装置 |
US20140149023A1 (en) * | 2012-11-29 | 2014-05-29 | Ford Global Technologies, Llc | Method and system for engine position control |
US8825258B2 (en) | 2012-11-30 | 2014-09-02 | Google Inc. | Engaging and disengaging for autonomous driving |
JP5870908B2 (ja) * | 2012-12-11 | 2016-03-01 | 株式会社デンソー | 車両の衝突判定装置 |
KR101394050B1 (ko) | 2012-12-18 | 2014-05-09 | 현대자동차 주식회사 | 차량 내 역광을 이용한 영상 인식 방법 |
US8994867B2 (en) | 2013-03-15 | 2015-03-31 | Samsung Electronics Co., Ltd. | Image sensor, operating method thereof, and device including the image sensor |
CN105143820B (zh) * | 2013-03-15 | 2017-06-09 | 苹果公司 | 利用多个发射器进行深度扫描 |
JP6101134B2 (ja) * | 2013-04-01 | 2017-03-22 | キヤノン株式会社 | 情報処理装置及び情報処理方法 |
ES2506590B1 (es) * | 2013-04-11 | 2015-07-28 | Universidad De Alcalá | Sistema sensor y procedimiento para detectar los ejes de los trenes utilizando fibra óptica y cámaras de tiempo de vuelo |
EP3030384A1 (en) | 2013-08-06 | 2016-06-15 | Laser Projection Technologies, Inc. | Virtual laser projection system and method |
US10116883B2 (en) * | 2013-08-29 | 2018-10-30 | Texas Instruments Incorporated | System and methods for depth imaging using conventional CCD image sensors |
EP2851704B1 (de) * | 2013-09-19 | 2019-12-11 | Pepperl+Fuchs AG | Vorrichtung und Verfahren zum optischen Bestimmen von Abständen zu Objekten in einem Überwachungsbereich |
US10203399B2 (en) | 2013-11-12 | 2019-02-12 | Big Sky Financial Corporation | Methods and apparatus for array based LiDAR systems with reduced interference |
DE102013112553A1 (de) * | 2013-11-14 | 2015-06-03 | Odos Imaging Ltd. | Beleuchtungsvorrichtung und Verfahren zum Beleuchten eines Objekts |
US9557427B2 (en) | 2014-01-08 | 2017-01-31 | Rapiscan Systems, Inc. | Thin gap chamber neutron detectors |
JP6328965B2 (ja) * | 2014-03-12 | 2018-05-23 | スタンレー電気株式会社 | 距離画像生成装置および距離画像生成方法 |
US9360554B2 (en) | 2014-04-11 | 2016-06-07 | Facet Technology Corp. | Methods and apparatus for object detection and identification in a multiple detector lidar array |
US9256944B2 (en) * | 2014-05-19 | 2016-02-09 | Rockwell Automation Technologies, Inc. | Integration of optical area monitoring with industrial machine control |
TWI533646B (zh) * | 2014-06-10 | 2016-05-11 | 晨星半導體股份有限公司 | 配合可變增益放大器之信號處理系統及信號處理方法 |
US9671495B2 (en) | 2014-06-11 | 2017-06-06 | Intersil Americas LLC | Systems and methods for optical proximity detection with multiple field of views |
DE102014211071A1 (de) * | 2014-06-11 | 2015-12-17 | Robert Bosch Gmbh | Fahrzeug-Lidar-System |
US9266148B2 (en) | 2014-06-27 | 2016-02-23 | Key Technology, Inc. | Method and apparatus for sorting |
DE112015003608T5 (de) * | 2014-08-05 | 2017-04-20 | Fujifilm Corporation | Abstandsmessvorrichtung, Abstandsmessverfahren und Abstandsmessprogramm |
KR101632873B1 (ko) * | 2014-09-05 | 2016-07-01 | 현대모비스 주식회사 | 장애물 검출 시스템 및 방법 |
US10488492B2 (en) | 2014-09-09 | 2019-11-26 | Leddarttech Inc. | Discretization of detection zone |
US10295658B2 (en) | 2014-10-02 | 2019-05-21 | The Johns Hopkins University | Optical detection system |
KR102309863B1 (ko) | 2014-10-15 | 2021-10-08 | 삼성전자주식회사 | 전자 장치, 그 제어 방법 및 기록 매체 |
US9245333B1 (en) * | 2014-12-10 | 2016-01-26 | Semiconductor Components Industries, Llc | Systems and methods for detecting obstructions within the field-of-view of an image sensor |
US11425357B2 (en) * | 2015-02-13 | 2022-08-23 | Carnegie Mellon University | Method for epipolar time of flight imaging |
US11747135B2 (en) * | 2015-02-13 | 2023-09-05 | Carnegie Mellon University | Energy optimized imaging system with synchronized dynamic control of directable beam light source and reconfigurably masked photo-sensor |
US11493634B2 (en) | 2015-02-13 | 2022-11-08 | Carnegie Mellon University | Programmable light curtains |
US11972586B2 (en) | 2015-02-13 | 2024-04-30 | Carnegie Mellon University | Agile depth sensing using triangulation light curtains |
US10036801B2 (en) | 2015-03-05 | 2018-07-31 | Big Sky Financial Corporation | Methods and apparatus for increased precision and improved range in a multiple detector LiDAR array |
JP6671629B2 (ja) * | 2015-03-18 | 2020-03-25 | 株式会社リコー | 物体検出装置、センシング装置、及び移動体装置 |
EP3292060A4 (en) * | 2015-05-04 | 2019-05-08 | Mitutoyo Corporation | INSPECTION PROGRAM EDITING ENVIRONMENT PROVIDING USER-DEFINED COLLISION AVOIDANCE VOLUMES |
US9563957B1 (en) | 2015-07-02 | 2017-02-07 | Yesvideo, Inc. | 2D/3D image scanning and compositing |
US10073168B2 (en) * | 2015-07-30 | 2018-09-11 | Bae Systems Information And Electronic Systems Integration Inc. | Frequency measurement focal plane array input circuit |
WO2017022152A1 (ja) * | 2015-07-31 | 2017-02-09 | パナソニックIpマネジメント株式会社 | 測距撮像装置、及び、固体撮像装置 |
US10182758B2 (en) | 2015-10-05 | 2019-01-22 | Htc Corporation | Measuring device of human body and method thereof |
US10324171B2 (en) | 2015-12-20 | 2019-06-18 | Apple Inc. | Light detection and ranging sensor |
US10627490B2 (en) | 2016-01-31 | 2020-04-21 | Velodyne Lidar, Inc. | Multiple pulse, LIDAR based 3-D imaging |
US9866816B2 (en) | 2016-03-03 | 2018-01-09 | 4D Intellectual Properties, Llc | Methods and apparatus for an active pulsed 4D camera for image acquisition and analysis |
JP7149256B2 (ja) | 2016-03-19 | 2022-10-06 | ベロダイン ライダー ユーエスエー,インコーポレイテッド | Lidarに基づく3次元撮像のための統合された照射及び検出 |
CA3024510C (en) | 2016-06-01 | 2022-10-04 | Velodyne Lidar, Inc. | Multiple pixel scanning lidar |
US20170372602A1 (en) * | 2016-06-24 | 2017-12-28 | Continental Advanced Lidar Solutions Us, Llc | Ladar enabled traffic control |
US10298913B2 (en) | 2016-08-18 | 2019-05-21 | Apple Inc. | Standalone depth camera |
EP3343246A1 (en) * | 2016-12-30 | 2018-07-04 | Xenomatix NV | System for characterizing surroundings of a vehicle |
US10473766B2 (en) | 2017-03-13 | 2019-11-12 | The Charles Stark Draper Laboratory, Inc. | Light detection and ranging (LiDAR) system and method |
DE102017204668A1 (de) * | 2017-03-21 | 2018-09-27 | Robert Bosch Gmbh | Objektdetektionsvorrichtung und Verfahren zum Überwachen einer Lichtprojektionsoberfläche bezüglich eines Eindringens eines Objekts |
JP6850173B2 (ja) * | 2017-03-24 | 2021-03-31 | 京セラ株式会社 | 電磁波検出装置、プログラム、および電磁波検出システム |
EP3593166B1 (en) | 2017-03-31 | 2024-04-17 | Velodyne Lidar USA, Inc. | Integrated lidar illumination power control |
JP6925844B2 (ja) * | 2017-04-06 | 2021-08-25 | 京セラ株式会社 | 電磁波検出装置、プログラム、および電磁波検出システム |
EP3388855A1 (de) * | 2017-04-12 | 2018-10-17 | Siemens Healthcare GmbH | Vorrichtung und verfahren zur rückgewinnung des zeitlichen bezuges in freilaufenden mr-empfangsketten |
JP2020519881A (ja) | 2017-05-08 | 2020-07-02 | ベロダイン ライダー, インク. | Lidarデータ収集及び制御 |
KR101967049B1 (ko) * | 2017-06-28 | 2019-04-09 | 경성대학교 산학협력단 | 라이다와 카메라를 이용한 중장비용 객체 정보 제공 장치 |
WO2019021887A1 (ja) * | 2017-07-27 | 2019-01-31 | シャープ株式会社 | 光レーダ装置 |
CN107402385B (zh) * | 2017-07-31 | 2020-11-17 | 岭纬公司 | 适用于激光雷达的dlp信号接收***的自适应调节方法 |
US10447973B2 (en) | 2017-08-08 | 2019-10-15 | Waymo Llc | Rotating LIDAR with co-aligned imager |
JP7092319B2 (ja) * | 2017-08-31 | 2022-06-28 | エスゼット ディージェイアイ テクノロジー カンパニー リミテッド | 物体を検出及び測距するためのシステム |
CN111095018B (zh) | 2017-08-31 | 2022-03-29 | 深圳市大疆创新科技有限公司 | 固态光探测和测距(lidar)***、用于提高固态光探测和测距(lidar)分辨率的***和方法 |
US10523880B2 (en) | 2017-09-28 | 2019-12-31 | Waymo Llc | Synchronized spinning LIDAR and rolling shutter camera system |
CN108009474B (zh) * | 2017-11-01 | 2020-05-19 | 武汉万集信息技术有限公司 | 一种基于激光测距的车辆表面图文提取方法及装置 |
US11841424B2 (en) * | 2017-11-28 | 2023-12-12 | Texas Instruments Incorporated | Methods and electronic device for dynamic distance measurements |
US11294041B2 (en) | 2017-12-08 | 2022-04-05 | Velodyne Lidar Usa, Inc. | Systems and methods for improving detection of a return signal in a light ranging and detection system |
DE102017223102A1 (de) | 2017-12-18 | 2019-06-19 | Robert Bosch Gmbh | Multipuls-Lidarsystem zur mehrdimensionalen Erfassung von Objekten |
WO2019129544A1 (en) * | 2017-12-26 | 2019-07-04 | Robert Bosch Gmbh | Single-chip rgb-d camera |
US10996324B2 (en) * | 2018-05-14 | 2021-05-04 | Rockwell Automation Technologies, Inc. | Time of flight system and method using multiple measuring sequences |
US11002836B2 (en) * | 2018-05-14 | 2021-05-11 | Rockwell Automation Technologies, Inc. | Permutation of measuring capacitors in a time-of-flight sensor |
US11598861B2 (en) * | 2018-06-04 | 2023-03-07 | Analog Devices, Inc. | Optical distance detection |
US10969476B2 (en) | 2018-07-10 | 2021-04-06 | Rockwell Automation Technologies, Inc. | High dynamic range for sensing systems and methods |
US11971507B2 (en) | 2018-08-24 | 2024-04-30 | Velodyne Lidar Usa, Inc. | Systems and methods for mitigating optical crosstalk in a light ranging and detection system |
US20210009390A1 (en) * | 2018-08-28 | 2021-01-14 | Lingdong Technology (Beijing) Co. Ltd | Self-driving vehicle management systems and methods |
CA3111509C (en) | 2018-09-05 | 2022-09-20 | Blackmore Sensors & Analytics, Llc | Method and system for pitch-catch scanning of coherent lidar |
US10712434B2 (en) | 2018-09-18 | 2020-07-14 | Velodyne Lidar, Inc. | Multi-channel LIDAR illumination driver |
US11082010B2 (en) | 2018-11-06 | 2021-08-03 | Velodyne Lidar Usa, Inc. | Systems and methods for TIA base current detection and compensation |
US11885958B2 (en) | 2019-01-07 | 2024-01-30 | Velodyne Lidar Usa, Inc. | Systems and methods for a dual axis resonant scanning mirror |
CN109741634B (zh) * | 2019-03-02 | 2020-10-13 | 安徽超远信息技术有限公司 | 笔直路段内事故现场警戒区域防撞入预警方法及装置 |
US10613203B1 (en) | 2019-07-01 | 2020-04-07 | Velodyne Lidar, Inc. | Interference mitigation for light detection and ranging |
KR20190104478A (ko) * | 2019-08-20 | 2019-09-10 | 엘지전자 주식회사 | 라이다 시스템과 이를 이용한 자율 주행 시스템 |
US20230228875A1 (en) * | 2020-04-22 | 2023-07-20 | Sony Group Corporation | Solid-state imaging element, sensing system, and control method of solid-state imaging element |
Family Cites Families (36)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5057681A (en) * | 1990-07-27 | 1991-10-15 | Range Vision Inc. | Long range triangulating coordinate finder |
JPH04201642A (ja) * | 1990-11-30 | 1992-07-22 | Mitsubishi Automob Eng Co Ltd | 車間距離検知・警報装置 |
JP2858678B2 (ja) | 1991-03-01 | 1999-02-17 | 日本電信電話株式会社 | 形状計測装置 |
JPH05107359A (ja) * | 1991-10-15 | 1993-04-27 | Nikon Corp | 移動体用距離測定装置 |
JP3123303B2 (ja) | 1992-07-21 | 2001-01-09 | 日産自動車株式会社 | 車両用画像処理装置 |
JPH0735849A (ja) * | 1993-06-25 | 1995-02-07 | Japan Radio Co Ltd | 衝突予防レーダ装置 |
JPH0798381A (ja) | 1993-08-06 | 1995-04-11 | Omron Corp | 走査式距離測定装置,走査式距離測定装置を搭載した車両および光の検出装置 |
JPH07146357A (ja) * | 1993-11-25 | 1995-06-06 | Furukawa Electric Co Ltd:The | 移動体用レーダ装置 |
US6407817B1 (en) * | 1993-12-20 | 2002-06-18 | Minolta Co., Ltd. | Measuring system with improved method of reading image data of an object |
US5594413A (en) * | 1993-12-27 | 1997-01-14 | Hyundai Electronics Industries Co., Ltd. | Car collision prevention apparatus and method using dual processor and automatic sensor switching function |
JPH07225276A (ja) | 1994-02-10 | 1995-08-22 | Mitsubishi Electric Corp | 車両用光レーダ装置 |
US5754099A (en) * | 1994-03-25 | 1998-05-19 | Nippondenso Co., Ltd. | Obstacle warning system for a vehicle |
JP3192875B2 (ja) * | 1994-06-30 | 2001-07-30 | キヤノン株式会社 | 画像合成方法および画像合成装置 |
JPH0848199A (ja) * | 1994-08-09 | 1996-02-20 | Hitachi Ltd | 障害物警報システム |
JP3254928B2 (ja) * | 1994-09-12 | 2002-02-12 | 日産自動車株式会社 | レーダ用位置検出センサおよびこれを用いたレーダ |
JPH08304540A (ja) * | 1995-05-08 | 1996-11-22 | Nissan Motor Co Ltd | 画像および距離検知システム用センサ |
US6384859B1 (en) | 1995-03-29 | 2002-05-07 | Sanyo Electric Co., Ltd. | Methods for creating an image for a three-dimensional display, for calculating depth information and for image processing using the depth information |
US5682229A (en) | 1995-04-14 | 1997-10-28 | Schwartz Electro-Optics, Inc. | Laser range camera |
US6405132B1 (en) * | 1997-10-22 | 2002-06-11 | Intelligent Technologies International, Inc. | Accident avoidance system |
DE19603267A1 (de) * | 1996-01-30 | 1997-07-31 | Bosch Gmbh Robert | Vorrichtung zur Abstands- und/oder Positionsbestimmung |
US5988862A (en) | 1996-04-24 | 1999-11-23 | Cyra Technologies, Inc. | Integrated system for quickly and accurately imaging and modeling three dimensional objects |
US5889490A (en) * | 1996-08-05 | 1999-03-30 | Wachter; Eric A. | Method and apparatus for improved ranging |
JP3417222B2 (ja) | 1996-08-07 | 2003-06-16 | 松下電器産業株式会社 | 実時間レンジファインダ |
JPH10142331A (ja) | 1996-11-14 | 1998-05-29 | Komatsu Ltd | ミリ波レーダ搭載車両 |
EP1147370B1 (en) * | 1998-12-16 | 2009-02-25 | 3DV Systems Ltd. | Self gating photosurface |
JP4200343B2 (ja) | 1999-02-19 | 2008-12-24 | ソニー株式会社 | モニタ装置 |
ES2199822T3 (es) | 1999-03-18 | 2004-03-01 | Siemens Aktiengesellschaft | Sistema de medicion de la distancia de resolucion local. |
JP2001014596A (ja) * | 1999-04-30 | 2001-01-19 | Takata Corp | 車両衝突警報装置 |
US6323942B1 (en) * | 1999-04-30 | 2001-11-27 | Canesta, Inc. | CMOS-compatible three-dimensional image sensor IC |
US7366595B1 (en) * | 1999-06-25 | 2008-04-29 | Seiko Epson Corporation | Vehicle drive assist system |
JP3919975B2 (ja) | 1999-07-07 | 2007-05-30 | 本田技研工業株式会社 | 車両の周辺監視装置 |
JP2001076298A (ja) * | 1999-09-07 | 2001-03-23 | Mazda Motor Corp | 車両の表示装置 |
AU2001243285A1 (en) * | 2000-03-02 | 2001-09-12 | Donnelly Corporation | Video mirror systems incorporating an accessory module |
US6587186B2 (en) | 2000-06-06 | 2003-07-01 | Canesta, Inc. | CMOS-compatible three-dimensional image sensing using reduced peak energy |
US6535275B2 (en) | 2000-08-09 | 2003-03-18 | Dialog Semiconductor Gmbh | High resolution 3-D imaging range finder |
US7319777B2 (en) | 2001-04-04 | 2008-01-15 | Instro Precision Limited | Image analysis apparatus |
-
2002
- 2002-04-04 US US10/474,236 patent/US7319777B2/en not_active Expired - Fee Related
- 2002-04-04 JP JP2002580103A patent/JP4405155B2/ja not_active Expired - Fee Related
- 2002-04-04 DE DE60211497T patent/DE60211497T2/de not_active Expired - Lifetime
- 2002-04-04 EP EP02718331A patent/EP1373830B1/en not_active Expired - Lifetime
- 2002-04-04 DE DE60207395T patent/DE60207395T2/de not_active Expired - Lifetime
- 2002-04-04 ES ES02718331T patent/ES2264476T3/es not_active Expired - Lifetime
- 2002-04-04 AT AT02720176T patent/ATE310268T1/de not_active IP Right Cessation
- 2002-04-04 WO PCT/GB2002/001614 patent/WO2002082201A1/en active IP Right Grant
- 2002-04-04 PT PT02718331T patent/PT1373830E/pt unknown
- 2002-04-04 US US10/474,293 patent/US7248344B2/en not_active Expired - Fee Related
- 2002-04-04 ES ES02720176T patent/ES2250636T3/es not_active Expired - Lifetime
- 2002-04-04 WO PCT/GB2002/001612 patent/WO2002082016A1/en active IP Right Grant
- 2002-04-04 AT AT02718331T patent/ATE326685T1/de not_active IP Right Cessation
- 2002-04-04 JP JP2002579742A patent/JP4405154B2/ja not_active Expired - Fee Related
- 2002-04-04 EP EP02720176A patent/EP1374002B1/en not_active Expired - Lifetime
Also Published As
Publication number | Publication date |
---|---|
US7248344B2 (en) | 2007-07-24 |
EP1373830A1 (en) | 2004-01-02 |
EP1374002B1 (en) | 2005-11-16 |
DE60207395D1 (de) | 2005-12-22 |
ATE310268T1 (de) | 2005-12-15 |
JP4405154B2 (ja) | 2010-01-27 |
EP1373830B1 (en) | 2006-05-17 |
JP2004523769A (ja) | 2004-08-05 |
US20040151345A1 (en) | 2004-08-05 |
DE60207395T2 (de) | 2006-06-08 |
ES2250636T3 (es) | 2006-04-16 |
JP4405155B2 (ja) | 2010-01-27 |
WO2002082016A1 (en) | 2002-10-17 |
DE60211497T2 (de) | 2006-12-14 |
PT1373830E (pt) | 2006-09-29 |
DE60211497D1 (de) | 2006-06-22 |
US20050088644A1 (en) | 2005-04-28 |
EP1374002A1 (en) | 2004-01-02 |
JP2004529343A (ja) | 2004-09-24 |
US7319777B2 (en) | 2008-01-15 |
ATE326685T1 (de) | 2006-06-15 |
WO2002082201A1 (en) | 2002-10-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
ES2264476T3 (es) | Medida del perfil superficial. | |
US11408983B2 (en) | Lidar 2D receiver array architecture | |
US11726205B2 (en) | Light ranging device having an electronically scanned emitter array | |
CN110554401B (zh) | 混合lidar接收器和lidar方法 | |
EP2017651B2 (en) | Reference pixel array with varying sensitivities for TOF sensor | |
KR102324449B1 (ko) | 광 검출기 어레이 및 아날로그 판독 회로가 개재된 lidar 수신기용 멀티 검출기 | |
CN106896369A (zh) | 测距装置 | |
CN102947726A (zh) | 扫描3d成像仪 | |
WO2012085152A1 (en) | 3d landscape real-time imager and corresponding imaging methods | |
KR20220006638A (ko) | 전자 스캐닝 lidar 시스템을 위한 동기화된 이미지 캡처 | |
US11698447B2 (en) | Beam steering aware pixel clustering of segmented sensor area and implementing averaging algorithms for pixel processing | |
WO2019055979A1 (en) | ACQUISITION OF LIDAR SIGNAL | |
GB2374743A (en) | Surface profile measurement | |
US20210325540A1 (en) | Device and method of optical range imaging | |
US20230393245A1 (en) | Integrated long-range narrow-fov and short-range wide-fov solid-state flash lidar system | |
CN115552285A (zh) | 具有飞行时间感测能力的全局快门图像传感器 | |
WO2021034409A1 (en) | Depth sensor with interlaced sampling structure | |
US20240210526A1 (en) | Optical system for full frame flash solid state lidar system |