ES2264476T3 - Medida del perfil superficial. - Google Patents

Medida del perfil superficial.

Info

Publication number
ES2264476T3
ES2264476T3 ES02718331T ES02718331T ES2264476T3 ES 2264476 T3 ES2264476 T3 ES 2264476T3 ES 02718331 T ES02718331 T ES 02718331T ES 02718331 T ES02718331 T ES 02718331T ES 2264476 T3 ES2264476 T3 ES 2264476T3
Authority
ES
Spain
Prior art keywords
light
detector
light source
regions
flight time
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
ES02718331T
Other languages
English (en)
Inventor
Christopher John c/o Instro Precision Ltd MORCOM
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Instro Precision Ltd
Original Assignee
Instro Precision Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from GB0108497A external-priority patent/GB2374743A/en
Application filed by Instro Precision Ltd filed Critical Instro Precision Ltd
Application granted granted Critical
Publication of ES2264476T3 publication Critical patent/ES2264476T3/es
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/483Details of pulse systems
    • G01S7/486Receivers
    • G01S7/487Extracting wanted echo signals, e.g. pulse detection
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • G01S17/10Systems determining position data of a target for measuring distance only using transmission of interrupted, pulse-modulated waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • G01S17/10Systems determining position data of a target for measuring distance only using transmission of interrupted, pulse-modulated waves
    • G01S17/26Systems determining position data of a target for measuring distance only using transmission of interrupted, pulse-modulated waves wherein the transmitted pulses use a frequency-modulated or phase-modulated carrier wave, e.g. for pulse compression of received signals
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/87Combinations of systems using electromagnetic waves other than radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • G01S17/8943D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/51Display arrangements
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0238Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
    • G05D1/024Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors in combination with a laser
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • G05D1/0248Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means in combination with a laser
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/167Driving aids for lane monitoring, lane changing, e.g. blind spot detection
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/027Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means comprising intertial navigation means, e.g. azimuth detector
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0272Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means comprising means for registering the travel distance, e.g. revolutions of wheels
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0274Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Automation & Control Theory (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Optics & Photonics (AREA)
  • Multimedia (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Investigating Or Analysing Materials By Optical Means (AREA)
  • Crushing And Grinding (AREA)
  • Absorbent Articles And Supports Therefor (AREA)
  • Medicinal Preparation (AREA)
  • Image Input (AREA)

Abstract

Un sistema de formación de imágenes, que comprende: una disposición de fuente de luz (40) dirigida a un objeto (12) del que se va a formar una imagen; elementos ópticos de recepción (46, 50) estacionarios para recibir la luz reflejada del objeto que va a ser tratado por imágenes; un detector (70) de luz de regiones múltiples para detectar la luz recibida de los elementos ópticos de recepción, y en el que diferentes regiones del detector de luz pueden ser actuadas por separado; un medio (52) de control para sincronizar la operación de la disposición de fuente de luz (40) y la operación del detector (70) de luz, de manera que una región del detector sea actuada sincrónicamente con una operación asignada de la fuente de luz (40); un medio (54, 56) de proceso para medir el tiempo de vuelo de las señales de luz desde la fuente de luz a la porción actuada del detector, que se caracteriza porque el medio de proceso es operativo selectivamente para: (i) medir el tiempo de vuelo desde una señal recibida por una región individual del detector, o (ii)medir el tiempo de vuelo de las señales recibidas en paralelo desde un subgrupo de las regiones del detector.

Description

Medida del perfil superficial.
La invención se refiere a un aparato para medir el perfil superficial de una muestra, y en particular, se refiere a sistemas de medida sin contacto de perfil superficial en 3D.
La medición sin contacto de objetos de tres dimensiones (3D) para extraer datos que se refieren a sus formas físicas y posiciones en el espacio, es un asunto que ha provocado mucha investigación. Se han desarrollado muchas técnicas para adecuar la distancia al objeto, la precisión con la cual se debe medir las características del objeto, y otras del mismo tipo.
Una técnica común es iluminar el objeto remoto con una fuente de luz de patrón conocido; la denominada "iluminación estructurada". Se sitúa una cámara a una cierta distancia separada de la fuente de luz estructurada y se dispone para que recoja una imagen de la proyección del patrón de luz estructurada sobre la superficie del objeto remoto. La figura 1 muestra esta medición de perfil conocida utilizando iluminación estructurada.
Una fuente 10 de luz estructurada proyecta luz sobre el objeto 12, y la luz reflejada es capturada por una cámara 14 que tiene un campo de visión 15 que cubre el objeto 12. Un procesador 16 de imagen deriva los datos 18 de perfil en 3D analizando la deformación del patrón de luz estructurada, que es representativa de la distancia al objeto remoto.
La naturaleza 3D del objeto remoto hace que el patrón de luz estructurada en la imagen capturada por la cámara esté deformado. Por el conocimiento de la separación física de la cámara a la fuente de luz (línea de base 20) y la trigonometría, es posible calcular el perfil de la superficie 3D del objeto remoto a partir de la deformación de la imagen del patrón de luz estructurada.
Un beneficio de este sistema es que, si se utiliza una videocámara para capturar la imagen, entonces, con suficiente procesamiento, se podrá medir el perfil de la superficie 3D con una velocidad secuencial de vídeo (50 ó 60 veces por segundo). Puesto que este sistema trabaja sobre principios trigonométricos, la precisión de la profundidad está relacionada con la línea de base del sistema y con la resolución del sensor. Como resultado, las consideraciones prácticas tienden a limitar la aplicación de los sistemas de este tipo a objetos que no estén alejados más de unos pocos metros. Además, cuando se incrementa la línea de base, el ángulo entre el patrón de luz incidente y la línea de visión de la cámara se hace más obtuso y las sombras producidas por las características del objeto remoto pueden oscurecer la medición de perfil 3D.
Las técnicas alternativas se basan en el barrido de un dispositivo que mide la distancia a un punto remoto; por ejemplo, un telémetro de láser (LRF) o un interferómetro, utilizando una unidad de plato e inclinación controlada en remoto. Un ejemplo de un sistema de este tipo se ilustra en la figura 2.
Un dispositivo de medida de distancias, tal como un telémetro de láser 30, mide la distancia a un único punto en el objeto, y está controlado por una unidad 32 de plato e inclinación. Los elementos electrónicos de control 34, bajo el control de un ordenador, hacen que la unidad 32 de plato e inclinación realice el barrido de la línea de visión del dispositivo 30 de medida de distancia a través del objeto que se va a medir, para construir una matriz 3D de los datos de acimut, elevación y distancia al objeto remoto. Esta matriz de números representa el perfil de la superficie 3D del objeto remoto medido en coordenadas polares desde el eje de rotación de la unidad de plato e inclinación. Se pueden aplicar algunas correcciones a los datos si los ejes de rotación de la unidad de plato e inclinación no son coincidentes con la línea de visión del dispositivo de medición. El perfil superficial 18 en 3D resultante se puede transformar a otros sistemas de coordenadas utilizando técnicas matemáticas conocidas. Este técnica es análoga a los sistemas de radar en los que se utiliza el tiempo de vuelo de una señal de radio de microondas de barrido para determinar la distancia a uno o más objetos remotos.
Este enfoque de LRF de barrido no sufre de las limitaciones de rango del enfoque de luz estructurada, pero es relativamente caro de implantar debido a que se requieren componentes de alta precisión y costosos para conseguir una buena precisión. Además, debido a que se realiza el barrido de la masa total del dispositivo de medida de distancia, es problemático conseguir barridos a velocidades suficientes para proporcionar datos de imágenes en 3D "en tiempo real".
Para vencer esta dificultad, se han construido sistemas que utilizan un espejo o espejos de barrido delante del LRF. Por ejemplo, el documento PCT/US
97/06793 describe un sistema complejo que utiliza dos espejos ortogonales para barrer el haz LRF horizontal y verticalmente, para cubrir un campo de vista de, aproximadamente, 40º x 40º. Este enfoque permite que el LRF permanezca estático. Sin embargo, el/los espejo/espejos debe(n) ser lo suficientemente grande(s) para incluir el haz de láser así como la apertura de lentes del sistema de recepción sin que se produzca degradación o superposición óptica entre el haz de láser emitido y el haz recibido y, por consiguiente, los sistemas de barrido con espejo siguen siendo
caros.
Se han utilizado enfoques híbridos, en los que el dispositivo de medición de distancia realiza el barrido a lo largo de una línea en una dirección y se hace girar el objeto remoto, para crear un mapa en 3D de la superficie completa de un objeto remoto. Sin embargo, estas técnicas no son apropiadas para todos los objetivos.
Otros operadores han buscado solucionar estos problemas realizando el barrido con el haz de láser mientras mantienen estático el detector, como se describe en el documento GB 2 286 495. Con este enfoque, la única parte móvil del sistema es un espejo de barrido que solamente necesita ser lo suficientemente grande para conducir al haz de láser. Esto evita el alto coste de un cabezal de plato e inclinación motorizado de precisión, y permite una elevada velocidad de barrido. Además, debido a que los trayectos de láser y óptico de recepción pueden mantenerse completamente separados, no hay riesgo de superposición óptica. Sin embargo, este enfoque requiere que el campo de visión del sistema óptico de recepción incluya la totalidad del objeto remoto. Como resultado, el sistema óptico recogerá la iluminación del campo de visión completo. Esto genera un nivel de señal de desplazamiento del fondo en el fotodetector del sistema óptico. Aunque este nivel de desplazamiento se puede compensar en el proceso de detección de señales, el ruido de disparo inherente en el nivel de señal de desvío degrada significativamente la relación de nivel de señal láser detectada respecto al ruido y, por lo tanto, reduce el rango máximo del sistema.
Para solucionar esta significativa desventaja, se han propuesto algunos esquemas muy complejos. Uno de ellos es cómo se describe en la patente norteamericana 5.682.229, en la que la luz reflejada de un láser de barrido se enfoca sobre un conjunto detector estacionario que utiliza una serie de haces de fibras complejas para transferir la luz recogida a 128 fotodiodos de avalancha separados y la circuitería asociada de medición tiempo de vuelo. Se apreciará que la complejidad y la utilización de componentes relativamente caros, tales como los conjuntos de fibra óptica coherente y múltiples fotodiodos de avalancha discretos hacen que estos enfoques sean caros de
implantar.
El documento WO 00/36372 muestra un sistema de medición de distancia en el cual se direccionan individualmente píxeles de una agrupación fotosensible secuencialmente, y se miden los tiempos de vuelo para permitir el cálculo de la distancia.
El documento US 5 889 490 muestra la medición de la distancia a un objetivo utilizando una forma de onda modulada coherente en ráfagas.
De acuerdo con la invención, se proporciona un sistema de formación de imágenes que comprende: una disposición de fuente de luz dirigida a un objeto que va a ser tratado por imágenes; elementos ópticos estacionarios de recepción para recibir la luz reflejada por el objeto que va a ser tratado por imágenes; un detector de luz de regiones múltiples para detectar luz recibida de los elementos ópticos de recepción, y en el que las diferentes regiones del detector de luz pueden ser actuadas por separado; un medio de control para sincronizar el funcionamiento de la disposición de fuente de luz y la operación del detector de luz, de manera que una región del detector sea actuada sincrónicamente con una operación asignada de la fuente de luz; y un medio de proceso para medir el tiempo de vuelo de las señales de luz desde la fuente de luz a la porción actuada del detector,
en el que el medio de proceso es operativo de manera selectiva para: (i) medir el tiempo de vuelo de una señal recibida por una región individual del detector, ó (ii) medir el tiempo de vuelo de señales recibidas en paralelo de un subgrupo de regiones del detector.
Esto puede permitir que se realice un sistema de formación de imágenes sin partes amovibles, utilizando un detector de luz de regiones múltiples. Todas las regiones del detector de luz pueden ser actuadas en paralelo, para obtener una captura de imágenes a alta velocidad. Sin embargo, las diferentes regiones del detector de luz pueden ser actuadas preferiblemente por separado. Esto permite que diferentes subregiones del detector de luz sean actuadas secuencialmente, siendo asignada a cada subregión una operación diferente de la fuente de luz. Por ejemplo, cada subregión puede comprender una fila o columna de píxeles detectores de una agrupación de píxeles.
El sistema puede comprender, además, un medio para barrer con la luz de una disposición de fuente de luz sobre el objeto que va a ser tratado por imágenes, y en el que diferentes regiones del objeto que va a ser tratado por imágenes son tratadas por imágenes en diferentes regiones del detector por medio de elementos ópticos de recepción, el medio de control es para sincronizar el barrido de la fuente de luz y la actuación del detector de luz de manera que se actúe una región del detector que realiza el formación de imágenes de la región del objeto que está siendo iluminado por la disposición de fuente de luz, y el medio de proceso es para medir el tiempo de vuelo de las señales de luz desde la disposición de fuente de luz a la región actuada del detector en todas las direcciones de barrido.
Se pueden utilizar la dirección de barrido y el tiempo de vuelo medido asociado para construir una imagen en 3D del objeto. Esto proporciona una estructura simple con pocas partes móviles.
El medio para barrido puede comprender un reflector para dirigir la luz desde la fuente de luz a un objeto que va a ser tratado por imágenes, y un mecanismo de accionamiento para controlar el movimiento del reflector para barrer con la luz de la fuente de luz sobre el objeto que va a ser tratado por imágenes.
La disposición de fuente de luz puede comprender una pluralidad de fuentes de luz, siendo tratada por imágenes cada fuente de luz por los elementos ópticos de recepción en una región diferente o subgrupos de regiones del detector de luz, en la que las diferentes regiones o subgrupos de regiones del detector de luz pueden ser actuados por separado, y en la que las diferentes fuentes de luz son operadas secuencialmente.
De esta manera se evita la necesidad de barrer con la salida de fuente de luz sobre el objeto que va a ser tratado por imágenes.
La fuente de luz, o cada de ellas, puede comprender un láser pulsado o un diodo ó diodos emisores de luz, y la salida puede ser modulada con técnicas de correlación cruzada que se utilizan para la medida de tiempo de vuelo.
El detector de luz preferiblemente comprende una agrupación de fotodiodos, que se puede implantar a un costo bajo. La agrupación de fotodiodos puede ser operativa de dos modos; un primer modo en el cual las señales de luz de todos los fotodiodos en la agrupación son leídas secuencialmente, y un segundo modo en el cual las señales de luz de fotodiodos seleccionados o subgrupos de fotodiodos en la agrupación son leídas secuencialmente.
La invención también proporciona un procedimiento para obtener una imagen de un objeto que comprende: barrer con una señal de fuente de luz el objeto, dirigiendo secuencialmente la salida de la fuente de luz en una pluralidad de direcciones de barrido, y detectar la luz reflejada recibida desde el objeto utilizando una agrupación de detectores de luz de regiones múltiples de dos dimensiones; determinar las regiones de la agrupación de detectores de luz que están iluminadas en cada dirección de barrido; barrer de nuevo con la señal de fuente de luz sobre el objeto, y detectar la luz reflejada recibida desde el objeto utilizando solamente las regiones determinadas de la agrupación de detectores de luz, en el que se pueden seleccionar las regiones determinadas para que comprendan una única región o un subgrupo de regiones de la agrupación de detectores de luz, recibiéndose las señales en paralelo; calcular el tiempo de vuelo de los impulsos de luz desde la fuente de luz al detector en cada dirección de barrido; y obtener un perfil en 3D a partir de los cálculos del tiempo de vuelo.
A continuación se describirán ejemplos de la invención en detalle, con referencia a los dibujos que se acompañan, en los cuales:
la figura 1 muestra un primer sistema conocido de formación de imágenes en 3D;
la figura 2 muestra un segundo sistema conocido de formación de imágenes en 3D;
la figura 3 muestra un ejemplo simplificado de la agrupación de fotodiodos para su utilización en el sistema de la invención;
la figura 4 muestra un sistema de formación de imágenes de la invención, utilizando la agrupación de fotodiodos de la figura 3;
la figura 5 muestra una modificación de la agrupación de fotodiodos;
la figura 6 muestra cómo se pueden utilizar las fuentes de luz pulsada en el sistema de formación de imágenes de la invención.
La invención proporciona un sistema de formación de imágenes en 3D, con un sistema óptico de recepción estacionario. La invención utiliza un detector de dos dimensiones, que se describirá en primer lugar con referencia a la figura 3.
La figura 3 es un esquema simplificado de una agrupación de fotodiodos para su utilización en un sistema de formación de imágenes de la invención, en un formato de 2 x 2. El dispositivo consiste en una agrupación 60 de píxeles de fotodiodo, cada uno de los cuales comprende un fotodiodo (PD11 a PD22) y un transistor asociado (TR11 a TR22), que están configurados y accionados para actuar como conmutadores analógicos. Para las aplicaciones de formación de imágenes estándar, el dispositivo es operado en un modo de integración, en el que la iluminación incidente se enfoca sobre su superficie. La iluminación incidente genera una carga en cada fotodiodo por el efecto fotoeléctrico. Durante este periodo de integración, las conexiones X1, X2, Y1 e Y2 se mantienen bajas, de manera que todos los transistores están desconectados y los fotodiodos están asilados eléctricamente. A continuación, la carga fotogenerada se acumula en cada fotodiodo y se almacena en el autocondensador del fotodiodo.
Una vez que se haya recogido suficiente fotocarga, el dispositivo se lee como sigue. La entrada X1 se toma a un alto potencial de manera que TR1 se conecte, con lo cual permite que la carga fluya entre la columna y un amplificador 62 sensible a la carga. A continuación, la entrada Y1 se pulsa alta para direccionar una fila de píxeles, conectando TR11 y permitiendo que la carga fotogenerada almacenada en el fotodiodo PD11 fluya a través de TR11 y TR1 al amplificador 62 de salida, en donde la carga se convierte en un voltaje. Esto crea una señal de salida cuya amplitud es proporcional al nivel de carga almacenada en PD11 y, por lo tanto, al nivel de luz incidente en TR11.
Después de que se hayan descargado el autocondensador de PD11, la entrada Y1 se toma baja y la salida Y2 se toma alta, permitiendo que sea leída la carga almacenada en PD12. De esta manera, a su vez se lee una columna de píxeles.
Después de que toda la carga recogida por PD12 se haya descargado, Y2 se toma baja y X2 se toma alta para permitir que PD21 y PD22 (los píxeles en la siguiente columna) se lean secuencialmente pulsando Y1 e Y2 de la manera que se ha descrito más arriba.
Se puede ver que este proceso permite que la agrupación de 2 x 2 sea barrida y se genere una señal eléctrica que es la análoga de la iluminación incidente. En operación normal, se utilizan mayor número de fotodiodos, por ejemplo, 256 x 256, para incrementar la resolución. A menudo, las secuencias de lectura y los barridos del sensor se disponen para generar una señal de vídeo estándar.
Además, se hace notar que la estructura básica descrita aquí se ha simplificado con el propósito de describir la invención propuesta. De manera práctica, las agrupaciones de fotodiodos direccionados X-Y se fabrican en general como circuitos integrados a gran escala (LSI) únicos de semiconductores de oxido de metal complementarios (CMOS) que incluyen muchos perfeccionamientos, tales como circuitería de reloj en pastilla para generar las secuencias de impulsos para los electrodos X1 a Xn e Y1 a Yn. La circuitería a nivel de pixel y/o columna adicional y en pastilla mejora la amplificación y la detección de la fotocarga. Estos perfeccionamientos conocidos se pueden aplicar con ventaja al principio de medición de perfil de 3D que se describe en la presente memoria
descriptiva.
Para la medida de perfil en 3D, se ha apreciado que se pueden utilizar tales agrupaciones de fotodiodos direccionados X-Y no en un modo de integración, sino como un multiplexor sincronizado con el barrido y el impulso de láser, de manera que solamente los fotodiodos individuales que reciben la imagen reflejada del punto láser en el objeto remoto sean direccionados.
La figura 4 muestra un sistema que utiliza la agrupación de fotodiodos en este modo sincronizado de operación. Una salida de haz de láser pulsado secuencialmente de un láser 40 es barrida por un medio conocido para iluminar un punto en la superficie del objeto remoto 12. Para minimizar tamaño y costo, el sistema 44 de barrido por láser se puede implantar en un número de maneras, incluyendo el uso de espejos 42 de barrido electromecánico o piezoeléctrico, o montando una pastilla láser en una estructura piezoeléctrica de silicio o compacta micromecanizada.
Se forma una imagen del punto de láser sobre la superficie de la agrupación 70 de fotodiodos direccionados X-Y por el sistema óptico 46 de recepción, estacionario. Se puede utilizar un filtro óptico 50 de banda de paso estrecha para rechazar todas las longitudes de onda excepto aquellas cercanas a la longitud de onda del láser y optimizar la discriminación del impulso de láser contra la iluminación de fondo.
Los elementos electrónicos de control aplican señales de nivel lógico a las líneas de control X e Y relevantes de la agrupación direccionada X–Y, de manera que el fotodiodo iluminado por la imagen del punto de láser esté conectado al preamplificador y a los elementos electrónicos 56 de detección de tiempo de vuelo. En particular, el impulso de láser reflejado es capturado por este fotodiodo y la señal eléctrica resultante es dirigida a un detector 54 de impulsos eléctricos y a la circuitería 56 de medición del TOF (tiempo de vuelo). Esto calcula el TOF del impulso de láser al punto en el objeto remoto y de retorno al fotodiodo en la agrupación direccionada X-Y y, de esta manera, la distancia desde el objeto remoto a la agrupación direccionada X-Y. A continuación, este proceso se repite en muchos puntos sobre la superficie del objeto remoto para medir el perfil de la superficie del objeto remoto. Si la imagen formada del punto de láser es mayor que un pixel individual, entonces los elementos electrónicos de control pueden hacer que el detector direccione un grupo de fotodiodos adyacentes (por ejemplo, una subagrupación de 2 x 2 fotodiodos) en paralelo para optimizar la recogida y la detección de la energía del láser.
Se puede ver que, debido a que solamente uno o un número pequeño de fotodiodos está conectado al amplificador de recepción y a los elementos electrónicos de tiempo de vuelo en un momento dado, la señal de desvío de fondo estará limitada a la generada por parte del campo de visión enfocado en el fotodiodo individual/grupo de fotodiodos, en lugar de serlo en la totalidad del campo de visión de los elementos ópticos, como en el sistema que se ha descrito más arriba.
Por ejemplo, si el haz de láser se dispone para barrer secuencialmente 100 x 100 puntos separados por igual dentro del campo óptico de visión, entonces el nivel de señal de fondo recogido por cada fotodiodo/grupo de fotodiodos se reducirá nominalmente 10.000 veces en comparación con el sistema simple que se ha descrito más arriba, lo cual proporciona beneficios sustanciales en el funcionamiento del
sistema.
Se hace notar que se puede utilizar una versión simplificada de este sistema con una agrupación de fotodiodos lineal para medir un perfil de superficie en 2D, en lugar de 3D.
El rendimiento del sistema se puede mejorar sustancialmente reemplazando la fuente 40 de láser pulsado por una fuente de láser modulado y el discriminador 56 de impulsos por un sistema de correlación cruzada. Tales sistemas son conocidos, por ejemplo, por el documento DE 19949803 a Tenso Corp y por el documento PCT/GB/04968. En particular, el sistema puede incluir una fuente de señales, tal como un láser, para suministrar una señal de modulación y un sistema de transmisión conectado a la fuente de señales para transmitir una señal óptica transmitida modulada por la señal de modulación.
La señal de modulación puede ser, por ejemplo, una secuencia de longitud máxima. A continuación se proporciona un sistema de recepción para recibir una versión reflejada y retrasada de la señal transmitida, y un correlador cruzado para obtener el retraso de tiempo. El correlador cruzado se puede disponer para determinar, con una resolución basta, el retraso de tiempo de la señal de modulación necesaria para maximizar la correlación entre la señal de modulación retrasada en tiempo y la señal recibida. El correlador cruzado puede entonces determinar, con una resolución mas fina que la resolución basta, la correlación entre la señal de modulación y la señal recibida en función del retraso de tiempo de la señal de modulación con respecto a la señal recibida en un rango de retraso de tiempo menor que el retraso de tiempo determinado. Se calcula una medida de la distancia a partir del retraso de tiempo de la señal de modulación necesaria para maximizar la correlación entre la señal de modulación retrasada de tiempo y la señal recibida.
El correlador cruzado se puede implantar digitalmente. De esta manera, para un pico de potencia de láser dado, se puede suministrar mayor energía al objeto remoto que mejora la relación de señal a ruido y por lo tanto, el rango máximo del sistema. Este enfoque de sobremuestra permite que la resolución de distancia del sistema sea mejorada, y el procedimiento de proceso de señal eficiente utilizando correladores cruzados basto y fino minimiza la potencia de proceso necesaria.
En una realización preferente, el sensor X-Y, el sistema de medida de tiempo de vuelo y los elementos electrónicos de control se fabrican en un único circuito integrado para minimizar los costes de fabricación. Los fotodiodos se pueden fabricar y operar como fotodiodos de avalancha para proporcionar amplificación de señal por el efecto de avalancha, antes de la detección de señal. El enfoque de medida de tiempo de vuelo utilizado puede ser como el que se ha descrito más arriba en conexión con la figura 4, u otros esquemas de mayor rendimiento que se han descrito más arriba.
Los sensores X-Y tales como los que se han descrito en la presente memoria descriptiva, pueden sufrir de retardo de imágenes, que se presenta
debido a:
(a)
la fotocarga generada por la luz incidente sobre un pixel está dividida entre la capacitancia intrínseca del fotodiodo y la capacitancia de los electrodos de fila y de columna, lo cual hace que algo de carga se mantenga en las capacitancias de los electrodos de fila y columna después de que se haya leído cada pixel, y
(b)
se puede proporcionar un transistor de carga para descargar la capacitancia del fotodiodo y forzar el amplificador, pero la resistencia efectiva de este transistor de carga se incrementa con la corriente en disminución que incrementa la constante de tiempo del sistema a bajos niveles de luz.
En una realización preferente, este efecto se puede minimizar configurando el amplificador de recepción como un amplificador de transimpedancia mientras que se utiliza la agrupación de fotodiodos en un modo multiplexor. La tierra virtual ofrecida por la entrada del amplificador de transimpedancia proporciona un trayecto de baja impedancia por el cual puede circular la corriente fotogenerada, reduciendo el efecto de partición de carga y mejorando la anchura de banda del sistema. Este enfoque también proporciona un medio para polarizar los fotodiodos durante la lectura. En un desarrollo óptimo de la realización preferente, se proporciona una etapa de amplificador de transimpedancia para cada pixel, para accionar la circuitería de multiplexión de la agrupación.
El patrón de barrido del láser a menudo será un patrón repetitivo dispuesto para cubrir el campo óptico de vista al mismo tiempo que proporciona una resolución de tiempo adecuada para medir la posición de objetos móviles en el campo de visión. El patrón típicamente se dispone como un barrido de trama para facilitar la visualización en monitores convencionales. Sin embargo, se puede ver que se pueden utilizar otros patronos. Un patrón útil es un patrón de barrido en espiral en el que, controlando la velocidad del barrido del láser, se puede conseguir una resolución espacial incrementada en el centro del barrido mientras se sigue manteniendo una baja resolución espacial para detectar objetos que aparecen en la periferia del barrido.
Para aquellas aplicaciones en las que sea necesario monitorizar el movimiento en 3D de unos pocos objetos específicos dentro del campo de visión, se puede controlar el barrido de manera adaptativa para seguir los objetos e ignorar el resto del campo de visión. Este enfoque puede incrementar la resolución temporal de los objetos seguidos.
Un beneficio importante del enfoque que se ha descrito en la presente memoria descriptiva es que la agrupación direccionada X-Y todavía se puede operar en un modo de formación de imágenes, en lugar de hacerlo en un modo detector de tiempo de vuelo multiplexado. Esto se puede conseguir simplemente devolviendo la secuencia de impulsos aplicados a la agrupación direccionada X-Y a una secuencia de barrido de vídeo convencional.
Esto presenta varios beneficios significativos. En primer lugar, para el rendimiento óptimo, es importante que solamente el fotodiodo o el grupo local de fotodiodos que reciben la imagen del punto de láser en cualquier momento de tiempo sea direccionado; es decir, el barrido del láser y el barrido de la agrupación de fotodiodos están sincronizados. Esto normalmente requeriría una calibración precisa del escáner y del sistema óptico. Sin embargo, si se barre con el láser mientras el sensor se encuentra en el modo de formación de imágenes, se puede recoger una imagen del trayecto del láser por los elementos electrónicos de control. Esta imagen se puede utilizar para determinar el trayecto preciso de la imagen del haz de láser en la superficie de la agrupación de fotodiodos, y de esta manera establecer la secuencia de direccionamiento correcto de la agrupación direccionada X-Y y/o de la secuencia de impulsos de láser, para asegurar la sincronización en el modo detector de tiempo de vuelo multiplexado. De esta manera, el modo de direccionamiento normal se utiliza como una etapa de calibración para el modo de multiplexión del rendimiento más alto. En efecto, el sistema puede ser de autocalibración, lo cual es un beneficio importante en los sistemas que tienen que operar en rangos de temperatura grandes.
En segundo lugar, si el láser se desconecta y si la agrupación de fotodiodos direccionados X-Y funciona en un modo de formación de imágenes, entonces el sistema se puede utilizar como un dispositivo de formación de imágenes convencional, es decir, un vídeo o cámara fija para proporcionar información adicional referente al objeto remoto.
En tercer lugar, puesto que se utiliza el mismo detector para capturar un perfil de superficie 3D y una imagen estándar, el registro entre la imagen estándar y los datos 3D es casi perfecto.
Esto permite que se utilicen combinaciones beneficiosas de modos de medición de perfil 3D convencional y de formación de imágenes. Por ejemplo, conmutando la posición del sistema entre la captura de un barrido 3D y un barrido de imágenes convencionales, se pueden capturar y superponer una sobre otra una secuencia de imágenes de vídeo así como una secuencia 3D. Este enfoque es particularmente beneficioso para evitar colisiones o para la detección de intrusos. Si la imagen 3D muestra que un objeto dentro del campo de visión está demasiado cerca o se encuentra en un trayecto que pueda conducir a una colisión, la parte correspondiente de la imagen convencional puede ser coloreada o hacer que brille intermitentemente para atraer la atención al problema.
Otro beneficio de capturar datos de imagen registrados perfectamente en 3D y convencionales es que los procedimientos de formación de imágenes se pueden aplicar simultáneamente a ambos conjuntos de datos, utilizando el procedimiento óptimo para extraer las características importantes de cada imagen y combinar los datos de las características para conseguir más información respecto a los objetos en el campo de visión. Por ejemplo, los datos 3D se pueden utilizar para determinar la orientación y el tamaño de un objeto en el campo de visión. A continuación, estos datos se pueden utilizar para seleccionar, o para generar a partir de un modelo sólido en 3D de un objeto conocido, un patrón apropiado para la correspondencia de patrones y para el reconocimiento de objetos/objetivos.
Se puede ver que los beneficios de adquirir una imagen 3D perfectamente registrada y datos convencionales son muy numerosos.
Cuando se requieren velocidades de barrido más elevadas, el sistema que se ha descrito más arriba puede ser mejorado modificando los elementos ópticos del láser para iluminar una línea, en lugar de un punto, del objeto remoto y modificar la estructura de la agrupación direccionada X - Y para permitir que una fila de fotodiodos se conecte en paralelo para multiplicar los procesos de medida de tiempo de vuelo, es decir, una agrupación de salida de Y barrido, X
paralelo.
Se muestra una implantación de la estructura de agrupación de fotodiodos revisada para una agrupación de 2 x 2 de la figura 5. Cada transistor de conmutación de columna ha sido reemplazado por un amplificador 80 y la circuitería de medida de tiempo de vuelo (TOF) comprende un detector de impulsos 82, un contador 84 y un cierre 86.
Todos los contadores 84 se sintonizan a la misma frecuencia por medio de una entrada común 88 de reloj. El sistema de barrido por láser se dispone para iluminar una banda del objeto remoto. La imagen de la banda iluminada se enfoca en una fila N de la agrupación de fotodiodos. El láser está pulsado, los contadores 84 TOF se vuelven a restablecer en cero y los elementos electrónicos de control sitúan el electrodo Y relevante (Y1, Y2) en posición alta para conectar todos los fotodiodos a lo largo de la fila al amplificador correspondiente y a la circuitería TOF. Puesto que cada fotodiodo recibe el impulso reflejado de la luz del láser, el detector de impulsos hace que el contador correspondiente 84 deje de contar. Una vez que se hayan recibido todos los impulsos reflejados, el número mantenido en cada contador 84 se cierra en los cierres 86 y es leído de una manera normal, mientras que la siguiente fila se ilumina y se repite el proceso. Los números almacenados en cada cierre son proporcionales al tiempo de vuelo, lo cual permite que se mida la distancia a cada uno de los puntos iluminados por la línea del láser y sean tratados por imágenes por los fotodiodos.
Para mejorar el rendimiento de la circuitería de medición del tiempo de vuelo se puede usar los mismo principios que se han descrito más arriba.
Con este enfoque, se deben considerar los efectos de paralaje para los objetos próximos al sistema óptico. Estos efectos se pueden minimizar, ya sea configurando la fuente del láser y los elementos ópticos de recepción para que estén tan cercanos como sea posible, o preferiblemente coincidentes por medio de la utilización de un divisor de haz. De manera alternativa, la línea de láser puede ser desenfocada para iluminar una banda ancha del objeto remoto y asegurar que una única fila de fotodiodos recibirá toda la luz reflejada. Otro enfoque es que los elementos electrónicos de control hagan que no uno, sino que varios fotodiodos en cada columna, se conecten al amplificador de columna en un mismo momento. Estas técnicas se pueden utilizar por separado o en
combinación.
Para eliminar la necesidad de partes móviles, se puede utilizar un sistema de iluminación que comprende múltiples fuentes de luz pulsada o modulada. Este enfoque se ilustra en la figura 6, que muestra un sistema de iluminación compuesto por tres diodos de láser 90A, 90B y 90C configurados de manera que cada diodo de láser ilumine una región 91A, 91B, 91C del campo de visión 92 de los elementos ópticos de recepción. Cada fuente de luz sería operada secuencialmente para hacer que la región de la iluminación esté sincronizada con las lecturas de la agrupación de salida de Y barrida, X paralela. Preferiblemente, las fuentes luz, por ejemplo diodos de láser o diodos emisores de luz (LED), se fabrican sobre un substrato común con circuitería de accionamiento integrada para minimizar el coste. Para dirigir y enfocar la salida de cada fuente de luz individual, es ventajoso fabricar una agrupación de microlentes, estando cada uno alineado con una fuente de luz individual.
Se puede ver que se puede utilizar muchas combinaciones alternativas de láser/multiplexor, dependiendo de los requisitos de la aplicación final.
Por ejemplo, si solamente se requiere medir el perfil de distancia a lo largo de una línea, entonces se puede utilizar una agrupación de una dimensión de fotodiodos. Los especialistas en la técnica del formación de imágenes podrán ver que también es posible utilizar un dispositivo acoplado cargado (CCD) como agrupación de detector para medir el perfil de distancia a lo largo de una línea. Esto es particularmente apropiado con fuentes de luz modulada. En este caso, una agrupación CCD de dos dimensiones se enmascara de manera que la fila superior de los píxeles de sección de imagen, más alejada del registro de lectura paralelo, esté iluminada. A continuación, la sección de imagen CCD se temporiza con un retraso de tiempo y en un modo integrado de sincronismo (TDI) con la modulación de la fuente de luz para capturar la secuencia de modulación reflejada de cada pixel en la fila iluminada en paralelo. La secuencia capturada puede ser entonces leída por el CCD de la manera normal y los datos de cada columna procesados utilizando correlación cruzada para extraer el tiempo de vuelo desde la fuente de luz al pixel iluminado en la parte superior de cada columna.
De manera alternativa, se puede realizar un sistema muy simple utilizando una única fuente de luz brillante pulsada o modulada para iluminar la totalidad del campo de visión simultáneamente, y la agrupación direccionada X-Y o la agrupación de salida Y barrida, X paralela utilizada para capturar los datos de imágenes en 3D de la manera que se ha descrito más arriba.
Esto permite que se realice un sistema de formación de imágenes sin partes móviles. La fuente de luz se opera una vez para cada grupo de píxeles de la agrupación del detector para que se lean simultáneamente. Para las aplicaciones a la velocidad más elevada, la circuitería de medición TOF puede estar provista para cada fotodiodo de la agrupación. De esta manera, el grupo de píxeles es la agrupación completa de píxeles. Esto permite que el TOF y, por lo tanto, la distancia al objeto remoto sea medido en paralelo en todos los puntos en el campo de visión.
Sin embargo, en una implantación de coste más inferior, las regiones diferentes del detector de luz son actuadas por separado, en una secuencia. La secuencia puede ser de fila por fila o de columna por columna, dependiendo de las configuraciones del circuito accionador de las filas y columnas. Esto permite que subregiones diferentes (filas o columnas) del detector de luz sean actuadas secuencialmente, con una operación diferente de la fuente de luz que está asignada a cada subregión.
En todos los ejemplos anteriores, el modo de medida a distancia del funcionamiento de la agrupación de píxeles detectores incluye un modo de operación de lectura directa, en el cual las cargas fotogeneradas pasan directamente a la circuitería de medición, de manera que se conozca el tiempo de llegada de la luz incidente. El modo de formación de imágenes es un modo de operación en el cual se permite que las cargas se acumulen en el autocondensador del fotodiodo (o si no, en un condensador de almacenamiento de cargas adicionales en la disposición de píxeles). Los circuitos de accionamiento de fila y columna necesitan ser operativos en estos dos modos diferentes, y esto típicamente requerirá voltajes y temporización de control diferentes en los dos modos.
Los esquemas de control y configuraciones de pixel específicas posibles serán evidentes a los especialistas en la técnica.

Claims (18)

1. Un sistema de formación de imágenes, que comprende:
una disposición de fuente de luz (40) dirigida a un objeto (12) del que se va a formar una imagen;
elementos ópticos de recepción (46, 50) estacionarios para recibir la luz reflejada del objeto que va a ser tratado por imágenes;
un detector (70) de luz de regiones múltiples para detectar la luz recibida de los elementos ópticos de recepción, y en el que diferentes regiones del detector de luz pueden ser actuadas por separado;
un medio (52) de control para sincronizar la operación de la disposición de fuente de luz (40) y la operación del detector (70) de luz, de manera que una región del detector sea actuada sincrónicamente con una operación asignada de la fuente de luz (40);
un medio (54, 56) de proceso para medir el tiempo de vuelo de las señales de luz desde la fuente de luz a la porción actuada del detector,
que se caracteriza porque el medio de proceso es operativo selectivamente para:
(i)
medir el tiempo de vuelo desde una señal recibida por una región individual del detector, o
(ii)
medir el tiempo de vuelo de las señales recibidas en paralelo desde un subgrupo de las regiones del detector.
2. Un sistema de formación de imágenes como se ha reivindicado en la reivindicación 1, en el que diferentes subgrupos de regiones del detector de luz se actúan secuencialmente, siendo asignada una operación diferente de la disposición de fuente de luz a cada subregión.
3. Un sistema de formación de imágenes como se ha reivindicado en la reivindicación 1 ó 2, en el que cada subgrupo de regiones comprende una fila o columna de píxeles detectores de una agrupación de píxeles.
4. Un sistema de formación de imágenes como se ha reivindicado en una cualquiera de las reivindicaciones 1 a 3, en el que la disposición de fuente de luz (40) comprende un láser pulsado o un diodo o diodos emisor o emisores de luz.
5. Un sistema de formación de imágenes como se ha reivindicado en cualquiera de las reivindicaciones 1 a 3, en el que la disposición de fuente de luz (40) es un láser o diodo o diodos emisores de luz que tienen una salida modulada.
6. Un sistema de formación de imágenes como se ha reivindicado en cualquiera de las reivindicaciones precedentes, que comprende, además, un medio (42) para barrer la luz desde la disposición de fuente de luz (40) sobre el objeto (12) del que se va a formar una imagen, y en el que:
diferentes regiones del objeto (12) del que se va a formar una imagen son formadas por imágenes en regiones diferentes del detector por los elementos ópticos de recepción (46, 50);
el medio (52) de control es para sincronizar el barrido de la fuente de luz y la actuación del detector de luz, de manera que se actúa una región del detector que está formando imágenes de la región del objeto que está siendo iluminado por la disposición de fuente de luz;
el medio (54, 56) de proceso es para medir el tiempo de vuelo de las señales de luz desde la disposición de fuente de luz a la región actuada del detector en todas las direcciones de barrido.
7. Un sistema de formación de imágenes como se ha reivindicado en la reivindicación 6, en el que el medio para barrido comprende:
un reflector (42) para dirigir la luz desde la fuente de luz a un objeto del que se va a formar una imagen;
un mecanismo de accionamiento para controlar el movimiento del reflector para barrer la luz desde la fuente de luz sobre el objeto del que se va a formar una imagen.
8. Un sistema de formación de imágenes como se ha reivindicado en cualquiera de las reivindicaciones 1 a 5, en el que la disposición de fuente de luz (40) comprende una pluralidad de fuentes de luz (90A, 90B, 90C), siendo formada por imágenes cada fuente de luz por los elementos ópticos de recepción sobre una región diferente o subgrupo de regiones (91A, 91B, 91C) del detector de luz, en el que las regiones diferentes o subgrupo de regiones de detector de luz puede ser actuadas por separado, y en el que las diferentes fuentes de luz son operadas secuen-
cialmente.
9. Un sistema de formación de imágenes como se ha reivindicado en cualquiera de las reivindicaciones precedentes, en el que el detector de luz comprende una agrupación de fotodiodos.
10. Un sistema de formación de imágenes como se ha reivindicado en la reivindicación 9, en el que la agrupación de fotodiodos es operativa en dos modos, un primer modo en el cual las señales de luz de todos los fotodiodos en la agrupación son leídas secuencialmente, y un segundo modo en el cual las señales de luz de los fotodiodos o subgrupos de fotodiodos seleccionados en la agrupación se leen en una
secuencia.
11. Un sistema de formación de imágenes como se ha reivindicado en la reivindicación 9 ó 10, en el que el medio de proceso está integrado sobre el mismo substrato que la agrupación de fotodiodos.
12. Un sistema de formación de imágenes como se ha reivindicado en cualquiera de las reivindicaciones 9 a 11, en el que se integran múltiples canales de medición de tiempo de vuelo sobre el mismo substrato que la agrupación de fotodiodos, y están configurados para procesar señales de diferentes posiciones actuadas de la agrupación de fotodiodos en paralelo.
13. Un sistema de formación de imágenes como se ha reivindicado en cualquiera de las reivindicaciones precedentes, en el que el medio de proceso utiliza correlación cruzada para medir el tiempo de vuelo de las señales de luz desde la fuente de luz a la porción actuada del detector.
14. Un procedimiento para obtener una imagen de un objeto, que comprende: barrer con una señal de fuente de luz sobre el objeto dirigiendo una salida de fuente de luz (40) en una pluralidad de direcciones de barrido secuencialmente, y detectar la luz reflejada recibida desde el objeto utilizando una agrupación (70) de detectores de luz de regiones múltiples de 2D;
determinar las regiones de la agrupación de detector de luz que están iluminadas en cada dirección de barrido;
barrer de nuevo con la señal de la fuente de luz sobre el objeto, y detectar la luz reflejada recibida desde el objeto utilizando solamente las regiones determinadas de la agrupación de detectores de luz, en el que las regiones determinadas se pueden seleccionar para que comprendan una única región o un subgrupo de regiones de la agrupación de detectores de luz con las señales recibidas en paralelo;
calcular el tiempo de vuelo de los impulsos de luz desde la fuente de luz al detector en cada dirección de barrido;
obtener un perfil en 3D de los cálculos del tiempo de vuelo.
15. Un procedimiento como se ha reivindicado en la reivindicación 16, en el que el barrido de la fuente de luz está sincronizado con la actuación de regiones seleccionadas de la agrupación de detectores de luz.
16. Un procedimiento como se ha reivindicado en las reivindicaciones 16 ó 17, en el que la señal de la fuente de luz comprende una salida de láser pulsado o una salida de un diodo o diodos emisores de luz.
17. Un procedimiento como se ha reivindicado en la reivindicación 14 ó 15, en el que la señal de la fuente de luz comprende una salida modulada de un láser o de un diodo o diodos emisores de luz.
18. Un procedimiento como se ha reivindicado en la reivindicación 17, en el que el cálculo del tiempo de vuelo utiliza correlación cruzada.
ES02718331T 2001-04-04 2002-04-04 Medida del perfil superficial. Expired - Lifetime ES2264476T3 (es)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
GB0108497 2001-04-04
GB0108497A GB2374743A (en) 2001-04-04 2001-04-04 Surface profile measurement
GB0110577A GB2374228A (en) 2001-04-04 2001-04-30 A collision warning device
GB0110577 2001-04-30

Publications (1)

Publication Number Publication Date
ES2264476T3 true ES2264476T3 (es) 2007-01-01

Family

ID=26245931

Family Applications (2)

Application Number Title Priority Date Filing Date
ES02718331T Expired - Lifetime ES2264476T3 (es) 2001-04-04 2002-04-04 Medida del perfil superficial.
ES02720176T Expired - Lifetime ES2250636T3 (es) 2001-04-04 2002-04-04 Equipo de analisis de imagenes.

Family Applications After (1)

Application Number Title Priority Date Filing Date
ES02720176T Expired - Lifetime ES2250636T3 (es) 2001-04-04 2002-04-04 Equipo de analisis de imagenes.

Country Status (8)

Country Link
US (2) US7319777B2 (es)
EP (2) EP1373830B1 (es)
JP (2) JP4405155B2 (es)
AT (2) ATE310268T1 (es)
DE (2) DE60211497T2 (es)
ES (2) ES2264476T3 (es)
PT (1) PT1373830E (es)
WO (2) WO2002082201A1 (es)

Families Citing this family (178)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5877897A (en) 1993-02-26 1999-03-02 Donnelly Corporation Automatic rearview mirror, vehicle lighting control and vehicle interior monitoring system using a photosensor array
US6822563B2 (en) 1997-09-22 2004-11-23 Donnelly Corporation Vehicle imaging system with accessory control
US6891563B2 (en) 1996-05-22 2005-05-10 Donnelly Corporation Vehicular vision system
US7655894B2 (en) 1996-03-25 2010-02-02 Donnelly Corporation Vehicular image sensing system
US7319777B2 (en) * 2001-04-04 2008-01-15 Instro Precision Limited Image analysis apparatus
WO2003093857A2 (en) 2002-05-03 2003-11-13 Donnelly Corporation Object detection system for vehicle
US7963695B2 (en) 2002-07-23 2011-06-21 Rapiscan Systems, Inc. Rotatable boom cargo scanning system
DE10255797A1 (de) * 2002-11-28 2004-06-17 Daimlerchrysler Ag Verfahren zur Erfassung der vorausliegenden Umgebung eines Strassenfahrzeugs mittels eines Umgebungserfassungssystems
FR2848368B1 (fr) * 2002-12-06 2005-05-20 Thales Sa Systeme d'imagerie active tridimensionnelle d'un objet
US7916898B2 (en) * 2003-09-15 2011-03-29 Deere & Company Method and system for identifying an edge of a crop
US7526103B2 (en) 2004-04-15 2009-04-28 Donnelly Corporation Imaging system for vehicle
GB2415560A (en) * 2004-06-25 2005-12-28 Instro Prec Ltd Vehicle safety system having a combined range finding means and a communication means
GB0415219D0 (en) * 2004-07-07 2004-08-11 Koninkl Philips Electronics Nv Improvements in or relating to time-of-flight ranging systems
DE102004047022A1 (de) * 2004-09-28 2006-04-06 Siemens Ag Vorrichtung zur Überwachung von Raumbereichen
GB2420238B (en) * 2004-11-04 2007-03-21 Instro Prec Ltd Correlation apparatus and method
DE102004058251A1 (de) * 2004-12-03 2006-06-08 Valeo Schalter Und Sensoren Gmbh Verfahren zur Verarbeitung von Entfernungsdaten
GB2421383A (en) * 2004-12-07 2006-06-21 Instro Prec Ltd Surface profile measurement
US7804981B2 (en) * 2005-01-13 2010-09-28 Sensis Corporation Method and system for tracking position of an object using imaging and non-imaging surveillance devices
US8085388B2 (en) * 2005-02-01 2011-12-27 Laser Projection Technologies, Inc. Laser radar projection with object feature detection and ranging
JP4346568B2 (ja) * 2005-03-04 2009-10-21 三井造船株式会社 3次元画像情報取得装置
EP1712888A1 (en) * 2005-04-11 2006-10-18 Agilent Technologies Inc Time-of-flight measurement using pulse sequences
US7706978B2 (en) * 2005-09-02 2010-04-27 Delphi Technologies, Inc. Method for estimating unknown parameters for a vehicle object detection system
US8107812B2 (en) * 2005-09-23 2012-01-31 Honeywell International Inc. Dynamic range measurement and calculation of optical keyless entry sensor
JP2007101342A (ja) * 2005-10-04 2007-04-19 Omron Corp 距離測定装置
US9002511B1 (en) * 2005-10-21 2015-04-07 Irobot Corporation Methods and systems for obstacle detection using structured light
DE102005054359A1 (de) 2005-11-15 2007-05-16 Leuze Lumiflex Gmbh & Co Kg Schutzeinrichtung
US8130367B2 (en) * 2005-12-08 2012-03-06 Roger Stettner Laser ranging, tracking and designation using 3-D focal planes
US20070247688A1 (en) * 2006-01-18 2007-10-25 Turner Mark A Variable-beamwidth angle encoding laser scanner
US7894042B2 (en) 2006-01-18 2011-02-22 Lockheed Martin Corporation Omni-directional imaging sensor
CA2539645C (en) * 2006-03-15 2020-04-28 Lmi Technologies Inc. Time of flight teat location system
US20070255498A1 (en) * 2006-04-28 2007-11-01 Caterpillar Inc. Systems and methods for determining threshold warning distances for collision avoidance
WO2008018955A2 (en) * 2006-06-27 2008-02-14 Arete' Associates Camera-style lidar setup
USRE46672E1 (en) 2006-07-13 2018-01-16 Velodyne Lidar, Inc. High definition LiDAR system
WO2008024639A2 (en) 2006-08-11 2008-02-28 Donnelly Corporation Automatic headlamp control system
WO2008027150A2 (en) * 2006-08-30 2008-03-06 Usnr/Kockums Cancar Company Charger scanner system
EP1906208A1 (en) * 2006-09-27 2008-04-02 Harman Becker Automotive Systems GmbH Park assist system visually marking up dangerous objects
ATE466357T1 (de) 2006-11-14 2010-05-15 Instro Prec Ltd Detektionssystem für eindringlinge
DE102007004348A1 (de) 2007-01-29 2008-07-31 Robert Bosch Gmbh Imager-Halbleiterbauelement, Kamerasystem und Verfahren zum Erstellen eines Bildes
US7956988B1 (en) * 2007-02-06 2011-06-07 Alpha Technology, LLC Light detection and ranging systems and related methods
US20080273760A1 (en) * 2007-05-04 2008-11-06 Leonard Metcalfe Method and apparatus for livestock assessment
CA2606267A1 (fr) * 2007-10-11 2009-04-11 Hydro-Quebec Systeme et methode de cartographie tridimensionnelle d'une surface structurelle
US7978312B2 (en) 2007-11-01 2011-07-12 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration Three-dimensional range imaging apparatus and method
CN101458078A (zh) * 2007-12-10 2009-06-17 鸿富锦精密工业(深圳)有限公司 一种汽车防撞***及方法
US8279411B2 (en) * 2008-08-27 2012-10-02 The Boeing Company Systems and methods for reducing crosstalk in an avalanche photodiode detector array
US9310323B2 (en) 2009-05-16 2016-04-12 Rapiscan Systems, Inc. Systems and methods for high-Z threat alarm resolution
US20110285981A1 (en) * 2010-05-18 2011-11-24 Irvine Sensors Corporation Sensor Element and System Comprising Wide Field-of-View 3-D Imaging LIDAR
US20110102763A1 (en) * 2009-10-30 2011-05-05 Microvision, Inc. Three Dimensional Imaging Device, System and Method
US8514284B2 (en) * 2009-12-17 2013-08-20 Raytheon Company Textured pattern sensing and detection, and using a charge-scavenging photodiode array for the same
JP5469446B2 (ja) * 2009-12-22 2014-04-16 パナソニック株式会社 物体検知装置
CA2782180C (en) 2009-12-22 2015-05-05 Leddartech Inc. Active 3d monitoring system for traffic detection
US20110187878A1 (en) 2010-02-02 2011-08-04 Primesense Ltd. Synchronization of projected illumination with rolling shutter of image sensor
US8660324B2 (en) * 2010-03-29 2014-02-25 Raytheon Company Textured pattern sensing using partial-coherence speckle interferometry
US8780182B2 (en) 2010-03-31 2014-07-15 Raytheon Company Imaging system and method using partial-coherence speckle interference tomography
US8346426B1 (en) * 2010-04-28 2013-01-01 Google Inc. User interface for displaying internal state of autonomous driving system
US8260482B1 (en) 2010-04-28 2012-09-04 Google Inc. User interface for displaying internal state of autonomous driving system
US8641942B2 (en) 2010-05-12 2014-02-04 Corning Incorporated Laser scanning systems and methods for measuring extruded ceramic logs
US9161511B2 (en) 2010-07-06 2015-10-20 Technologies Holdings Corp. Automated rotary milking system
US10739460B2 (en) 2010-08-11 2020-08-11 Apple Inc. Time-of-flight detector with single-axis scan
US9149018B2 (en) 2010-08-31 2015-10-06 Technologies Holdings Corp. System and method for determining whether to operate a robot in conjunction with a rotary milking platform based on detection of a milking claw
US8720382B2 (en) 2010-08-31 2014-05-13 Technologies Holdings Corp. Vision system for facilitating the automated application of disinfectant to the teats of dairy livestock
US10111401B2 (en) 2010-08-31 2018-10-30 Technologies Holdings Corp. System and method for determining whether to operate a robot in conjunction with a rotary parlor
US8800487B2 (en) 2010-08-31 2014-08-12 Technologies Holdings Corp. System and method for controlling the position of a robot carriage based on the position of a milking stall of an adjacent rotary milking platform
US20120056982A1 (en) * 2010-09-08 2012-03-08 Microsoft Corporation Depth camera based on structured light and stereo vision
US9025019B2 (en) * 2010-10-18 2015-05-05 Rockwell Automation Technologies, Inc. Time of flight (TOF) sensors as replacement for standard photoelectric sensors
CN102608612B (zh) * 2010-12-20 2015-07-15 美泰有限公司 用于游戏设备的近程传感器装置
US8908831B2 (en) 2011-02-08 2014-12-09 Rapiscan Systems, Inc. Covert surveillance using multi-modality sensing
US9395182B1 (en) 2011-03-03 2016-07-19 The Boeing Company Methods and systems for reducing crosstalk in avalanche photodiode detector arrays
CN102760234B (zh) 2011-04-14 2014-08-20 财团法人工业技术研究院 深度图像采集装置、***及其方法
TWI463244B (zh) * 2011-04-14 2014-12-01 Ind Tech Res Inst 深度影像擷取裝置、系統及其方法
US8885891B2 (en) 2011-04-28 2014-11-11 Technologies Holdings Corp. System and method for analyzing data captured by a three-dimensional camera
US9058657B2 (en) 2011-04-28 2015-06-16 Technologies Holdings Corp. System and method for filtering data captured by a 3D camera
US9215861B2 (en) 2011-04-28 2015-12-22 Technologies Holdings Corp. Milking box with robotic attacher and backplane for tracking movements of a dairy animal
US8903129B2 (en) 2011-04-28 2014-12-02 Technologies Holdings Corp. System and method for filtering data captured by a 2D camera
US10357015B2 (en) 2011-04-28 2019-07-23 Technologies Holdings Corp. Robotic arm with double grabber and method of operation
US9161512B2 (en) 2011-04-28 2015-10-20 Technologies Holdings Corp. Milking box with robotic attacher comprising an arm that pivots, rotates, and grips
US9107378B2 (en) 2011-04-28 2015-08-18 Technologies Holdings Corp. Milking box with robotic attacher
US9357744B2 (en) 2011-04-28 2016-06-07 Technologies Holdings Corp. Cleaning system for a milking box stall
US9681634B2 (en) 2011-04-28 2017-06-20 Technologies Holdings Corp. System and method to determine a teat position using edge detection in rear images of a livestock from two cameras
US9049843B2 (en) 2011-04-28 2015-06-09 Technologies Holdings Corp. Milking box with a robotic attacher having a three-dimensional range of motion
US9107379B2 (en) 2011-04-28 2015-08-18 Technologies Holdings Corp. Arrangement of milking box stalls
US8671885B2 (en) 2011-04-28 2014-03-18 Technologies Holdings Corp. Vision system for robotic attacher
US9258975B2 (en) 2011-04-28 2016-02-16 Technologies Holdings Corp. Milking box with robotic attacher and vision system
US10127446B2 (en) 2011-04-28 2018-11-13 Technologies Holdings Corp. System and method for filtering data captured by a 2D camera
US9265227B2 (en) 2011-04-28 2016-02-23 Technologies Holdings Corp. System and method for improved attachment of a cup to a dairy animal
US8683946B2 (en) 2011-04-28 2014-04-01 Technologies Holdings Corp. System and method of attaching cups to a dairy animal
US9043988B2 (en) 2011-04-28 2015-06-02 Technologies Holdings Corp. Milking box with storage area for teat cups
US8746176B2 (en) 2011-04-28 2014-06-10 Technologies Holdings Corp. System and method of attaching a cup to a dairy animal according to a sequence
US8908159B2 (en) * 2011-05-11 2014-12-09 Leddartech Inc. Multiple-field-of-view scannerless optical rangefinder in high ambient background light
CA2839194C (en) 2011-06-17 2017-04-18 Leddartech Inc. System and method for traffic side detection and characterization
JP5858688B2 (ja) * 2011-08-30 2016-02-10 スタンレー電気株式会社 距離画像生成装置
CN102984446B (zh) * 2011-09-05 2016-01-13 联想(北京)有限公司 图像采集装置及图像采集方法
KR20140070595A (ko) * 2011-09-13 2014-06-10 오에스아이 옵토일렉트로닉스 개선된 레이저 레인지파인더 센서
CN102508259A (zh) * 2011-12-12 2012-06-20 中国科学院合肥物质科学研究院 基于mems扫描微镜的小型化无镜头激光三维成像***及其成像方法
US9075443B2 (en) 2011-12-27 2015-07-07 Maxim Integrated Products, Inc. Gesture detection and compact representation thereof
IL217361A0 (en) * 2012-01-04 2012-03-29 Rafael Advanced Defense Sys Device & method providing combined video camera and range finder functionality
EP2815251B1 (en) 2012-02-15 2017-03-22 Heptagon Micro Optics Pte. Ltd. Time of flight camera with stripe illumination
EP2820632B8 (en) 2012-03-02 2017-07-26 Leddartech Inc. System and method for multipurpose traffic detection and characterization
US9163936B1 (en) * 2012-05-07 2015-10-20 Physical Optics Corporation Three-dimensional profilometer
JP6103179B2 (ja) 2012-09-13 2017-03-29 株式会社リコー 距離測定装置
US20140149023A1 (en) * 2012-11-29 2014-05-29 Ford Global Technologies, Llc Method and system for engine position control
US8825258B2 (en) 2012-11-30 2014-09-02 Google Inc. Engaging and disengaging for autonomous driving
JP5870908B2 (ja) * 2012-12-11 2016-03-01 株式会社デンソー 車両の衝突判定装置
KR101394050B1 (ko) 2012-12-18 2014-05-09 현대자동차 주식회사 차량 내 역광을 이용한 영상 인식 방법
US8994867B2 (en) 2013-03-15 2015-03-31 Samsung Electronics Co., Ltd. Image sensor, operating method thereof, and device including the image sensor
CN105143820B (zh) * 2013-03-15 2017-06-09 苹果公司 利用多个发射器进行深度扫描
JP6101134B2 (ja) * 2013-04-01 2017-03-22 キヤノン株式会社 情報処理装置及び情報処理方法
ES2506590B1 (es) * 2013-04-11 2015-07-28 Universidad De Alcalá Sistema sensor y procedimiento para detectar los ejes de los trenes utilizando fibra óptica y cámaras de tiempo de vuelo
EP3030384A1 (en) 2013-08-06 2016-06-15 Laser Projection Technologies, Inc. Virtual laser projection system and method
US10116883B2 (en) * 2013-08-29 2018-10-30 Texas Instruments Incorporated System and methods for depth imaging using conventional CCD image sensors
EP2851704B1 (de) * 2013-09-19 2019-12-11 Pepperl+Fuchs AG Vorrichtung und Verfahren zum optischen Bestimmen von Abständen zu Objekten in einem Überwachungsbereich
US10203399B2 (en) 2013-11-12 2019-02-12 Big Sky Financial Corporation Methods and apparatus for array based LiDAR systems with reduced interference
DE102013112553A1 (de) * 2013-11-14 2015-06-03 Odos Imaging Ltd. Beleuchtungsvorrichtung und Verfahren zum Beleuchten eines Objekts
US9557427B2 (en) 2014-01-08 2017-01-31 Rapiscan Systems, Inc. Thin gap chamber neutron detectors
JP6328965B2 (ja) * 2014-03-12 2018-05-23 スタンレー電気株式会社 距離画像生成装置および距離画像生成方法
US9360554B2 (en) 2014-04-11 2016-06-07 Facet Technology Corp. Methods and apparatus for object detection and identification in a multiple detector lidar array
US9256944B2 (en) * 2014-05-19 2016-02-09 Rockwell Automation Technologies, Inc. Integration of optical area monitoring with industrial machine control
TWI533646B (zh) * 2014-06-10 2016-05-11 晨星半導體股份有限公司 配合可變增益放大器之信號處理系統及信號處理方法
US9671495B2 (en) 2014-06-11 2017-06-06 Intersil Americas LLC Systems and methods for optical proximity detection with multiple field of views
DE102014211071A1 (de) * 2014-06-11 2015-12-17 Robert Bosch Gmbh Fahrzeug-Lidar-System
US9266148B2 (en) 2014-06-27 2016-02-23 Key Technology, Inc. Method and apparatus for sorting
DE112015003608T5 (de) * 2014-08-05 2017-04-20 Fujifilm Corporation Abstandsmessvorrichtung, Abstandsmessverfahren und Abstandsmessprogramm
KR101632873B1 (ko) * 2014-09-05 2016-07-01 현대모비스 주식회사 장애물 검출 시스템 및 방법
US10488492B2 (en) 2014-09-09 2019-11-26 Leddarttech Inc. Discretization of detection zone
US10295658B2 (en) 2014-10-02 2019-05-21 The Johns Hopkins University Optical detection system
KR102309863B1 (ko) 2014-10-15 2021-10-08 삼성전자주식회사 전자 장치, 그 제어 방법 및 기록 매체
US9245333B1 (en) * 2014-12-10 2016-01-26 Semiconductor Components Industries, Llc Systems and methods for detecting obstructions within the field-of-view of an image sensor
US11425357B2 (en) * 2015-02-13 2022-08-23 Carnegie Mellon University Method for epipolar time of flight imaging
US11747135B2 (en) * 2015-02-13 2023-09-05 Carnegie Mellon University Energy optimized imaging system with synchronized dynamic control of directable beam light source and reconfigurably masked photo-sensor
US11493634B2 (en) 2015-02-13 2022-11-08 Carnegie Mellon University Programmable light curtains
US11972586B2 (en) 2015-02-13 2024-04-30 Carnegie Mellon University Agile depth sensing using triangulation light curtains
US10036801B2 (en) 2015-03-05 2018-07-31 Big Sky Financial Corporation Methods and apparatus for increased precision and improved range in a multiple detector LiDAR array
JP6671629B2 (ja) * 2015-03-18 2020-03-25 株式会社リコー 物体検出装置、センシング装置、及び移動体装置
EP3292060A4 (en) * 2015-05-04 2019-05-08 Mitutoyo Corporation INSPECTION PROGRAM EDITING ENVIRONMENT PROVIDING USER-DEFINED COLLISION AVOIDANCE VOLUMES
US9563957B1 (en) 2015-07-02 2017-02-07 Yesvideo, Inc. 2D/3D image scanning and compositing
US10073168B2 (en) * 2015-07-30 2018-09-11 Bae Systems Information And Electronic Systems Integration Inc. Frequency measurement focal plane array input circuit
WO2017022152A1 (ja) * 2015-07-31 2017-02-09 パナソニックIpマネジメント株式会社 測距撮像装置、及び、固体撮像装置
US10182758B2 (en) 2015-10-05 2019-01-22 Htc Corporation Measuring device of human body and method thereof
US10324171B2 (en) 2015-12-20 2019-06-18 Apple Inc. Light detection and ranging sensor
US10627490B2 (en) 2016-01-31 2020-04-21 Velodyne Lidar, Inc. Multiple pulse, LIDAR based 3-D imaging
US9866816B2 (en) 2016-03-03 2018-01-09 4D Intellectual Properties, Llc Methods and apparatus for an active pulsed 4D camera for image acquisition and analysis
JP7149256B2 (ja) 2016-03-19 2022-10-06 ベロダイン ライダー ユーエスエー,インコーポレイテッド Lidarに基づく3次元撮像のための統合された照射及び検出
CA3024510C (en) 2016-06-01 2022-10-04 Velodyne Lidar, Inc. Multiple pixel scanning lidar
US20170372602A1 (en) * 2016-06-24 2017-12-28 Continental Advanced Lidar Solutions Us, Llc Ladar enabled traffic control
US10298913B2 (en) 2016-08-18 2019-05-21 Apple Inc. Standalone depth camera
EP3343246A1 (en) * 2016-12-30 2018-07-04 Xenomatix NV System for characterizing surroundings of a vehicle
US10473766B2 (en) 2017-03-13 2019-11-12 The Charles Stark Draper Laboratory, Inc. Light detection and ranging (LiDAR) system and method
DE102017204668A1 (de) * 2017-03-21 2018-09-27 Robert Bosch Gmbh Objektdetektionsvorrichtung und Verfahren zum Überwachen einer Lichtprojektionsoberfläche bezüglich eines Eindringens eines Objekts
JP6850173B2 (ja) * 2017-03-24 2021-03-31 京セラ株式会社 電磁波検出装置、プログラム、および電磁波検出システム
EP3593166B1 (en) 2017-03-31 2024-04-17 Velodyne Lidar USA, Inc. Integrated lidar illumination power control
JP6925844B2 (ja) * 2017-04-06 2021-08-25 京セラ株式会社 電磁波検出装置、プログラム、および電磁波検出システム
EP3388855A1 (de) * 2017-04-12 2018-10-17 Siemens Healthcare GmbH Vorrichtung und verfahren zur rückgewinnung des zeitlichen bezuges in freilaufenden mr-empfangsketten
JP2020519881A (ja) 2017-05-08 2020-07-02 ベロダイン ライダー, インク. Lidarデータ収集及び制御
KR101967049B1 (ko) * 2017-06-28 2019-04-09 경성대학교 산학협력단 라이다와 카메라를 이용한 중장비용 객체 정보 제공 장치
WO2019021887A1 (ja) * 2017-07-27 2019-01-31 シャープ株式会社 光レーダ装置
CN107402385B (zh) * 2017-07-31 2020-11-17 岭纬公司 适用于激光雷达的dlp信号接收***的自适应调节方法
US10447973B2 (en) 2017-08-08 2019-10-15 Waymo Llc Rotating LIDAR with co-aligned imager
JP7092319B2 (ja) * 2017-08-31 2022-06-28 エスゼット ディージェイアイ テクノロジー カンパニー リミテッド 物体を検出及び測距するためのシステム
CN111095018B (zh) 2017-08-31 2022-03-29 深圳市大疆创新科技有限公司 固态光探测和测距(lidar)***、用于提高固态光探测和测距(lidar)分辨率的***和方法
US10523880B2 (en) 2017-09-28 2019-12-31 Waymo Llc Synchronized spinning LIDAR and rolling shutter camera system
CN108009474B (zh) * 2017-11-01 2020-05-19 武汉万集信息技术有限公司 一种基于激光测距的车辆表面图文提取方法及装置
US11841424B2 (en) * 2017-11-28 2023-12-12 Texas Instruments Incorporated Methods and electronic device for dynamic distance measurements
US11294041B2 (en) 2017-12-08 2022-04-05 Velodyne Lidar Usa, Inc. Systems and methods for improving detection of a return signal in a light ranging and detection system
DE102017223102A1 (de) 2017-12-18 2019-06-19 Robert Bosch Gmbh Multipuls-Lidarsystem zur mehrdimensionalen Erfassung von Objekten
WO2019129544A1 (en) * 2017-12-26 2019-07-04 Robert Bosch Gmbh Single-chip rgb-d camera
US10996324B2 (en) * 2018-05-14 2021-05-04 Rockwell Automation Technologies, Inc. Time of flight system and method using multiple measuring sequences
US11002836B2 (en) * 2018-05-14 2021-05-11 Rockwell Automation Technologies, Inc. Permutation of measuring capacitors in a time-of-flight sensor
US11598861B2 (en) * 2018-06-04 2023-03-07 Analog Devices, Inc. Optical distance detection
US10969476B2 (en) 2018-07-10 2021-04-06 Rockwell Automation Technologies, Inc. High dynamic range for sensing systems and methods
US11971507B2 (en) 2018-08-24 2024-04-30 Velodyne Lidar Usa, Inc. Systems and methods for mitigating optical crosstalk in a light ranging and detection system
US20210009390A1 (en) * 2018-08-28 2021-01-14 Lingdong Technology (Beijing) Co. Ltd Self-driving vehicle management systems and methods
CA3111509C (en) 2018-09-05 2022-09-20 Blackmore Sensors & Analytics, Llc Method and system for pitch-catch scanning of coherent lidar
US10712434B2 (en) 2018-09-18 2020-07-14 Velodyne Lidar, Inc. Multi-channel LIDAR illumination driver
US11082010B2 (en) 2018-11-06 2021-08-03 Velodyne Lidar Usa, Inc. Systems and methods for TIA base current detection and compensation
US11885958B2 (en) 2019-01-07 2024-01-30 Velodyne Lidar Usa, Inc. Systems and methods for a dual axis resonant scanning mirror
CN109741634B (zh) * 2019-03-02 2020-10-13 安徽超远信息技术有限公司 笔直路段内事故现场警戒区域防撞入预警方法及装置
US10613203B1 (en) 2019-07-01 2020-04-07 Velodyne Lidar, Inc. Interference mitigation for light detection and ranging
KR20190104478A (ko) * 2019-08-20 2019-09-10 엘지전자 주식회사 라이다 시스템과 이를 이용한 자율 주행 시스템
US20230228875A1 (en) * 2020-04-22 2023-07-20 Sony Group Corporation Solid-state imaging element, sensing system, and control method of solid-state imaging element

Family Cites Families (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5057681A (en) * 1990-07-27 1991-10-15 Range Vision Inc. Long range triangulating coordinate finder
JPH04201642A (ja) * 1990-11-30 1992-07-22 Mitsubishi Automob Eng Co Ltd 車間距離検知・警報装置
JP2858678B2 (ja) 1991-03-01 1999-02-17 日本電信電話株式会社 形状計測装置
JPH05107359A (ja) * 1991-10-15 1993-04-27 Nikon Corp 移動体用距離測定装置
JP3123303B2 (ja) 1992-07-21 2001-01-09 日産自動車株式会社 車両用画像処理装置
JPH0735849A (ja) * 1993-06-25 1995-02-07 Japan Radio Co Ltd 衝突予防レーダ装置
JPH0798381A (ja) 1993-08-06 1995-04-11 Omron Corp 走査式距離測定装置,走査式距離測定装置を搭載した車両および光の検出装置
JPH07146357A (ja) * 1993-11-25 1995-06-06 Furukawa Electric Co Ltd:The 移動体用レーダ装置
US6407817B1 (en) * 1993-12-20 2002-06-18 Minolta Co., Ltd. Measuring system with improved method of reading image data of an object
US5594413A (en) * 1993-12-27 1997-01-14 Hyundai Electronics Industries Co., Ltd. Car collision prevention apparatus and method using dual processor and automatic sensor switching function
JPH07225276A (ja) 1994-02-10 1995-08-22 Mitsubishi Electric Corp 車両用光レーダ装置
US5754099A (en) * 1994-03-25 1998-05-19 Nippondenso Co., Ltd. Obstacle warning system for a vehicle
JP3192875B2 (ja) * 1994-06-30 2001-07-30 キヤノン株式会社 画像合成方法および画像合成装置
JPH0848199A (ja) * 1994-08-09 1996-02-20 Hitachi Ltd 障害物警報システム
JP3254928B2 (ja) * 1994-09-12 2002-02-12 日産自動車株式会社 レーダ用位置検出センサおよびこれを用いたレーダ
JPH08304540A (ja) * 1995-05-08 1996-11-22 Nissan Motor Co Ltd 画像および距離検知システム用センサ
US6384859B1 (en) 1995-03-29 2002-05-07 Sanyo Electric Co., Ltd. Methods for creating an image for a three-dimensional display, for calculating depth information and for image processing using the depth information
US5682229A (en) 1995-04-14 1997-10-28 Schwartz Electro-Optics, Inc. Laser range camera
US6405132B1 (en) * 1997-10-22 2002-06-11 Intelligent Technologies International, Inc. Accident avoidance system
DE19603267A1 (de) * 1996-01-30 1997-07-31 Bosch Gmbh Robert Vorrichtung zur Abstands- und/oder Positionsbestimmung
US5988862A (en) 1996-04-24 1999-11-23 Cyra Technologies, Inc. Integrated system for quickly and accurately imaging and modeling three dimensional objects
US5889490A (en) * 1996-08-05 1999-03-30 Wachter; Eric A. Method and apparatus for improved ranging
JP3417222B2 (ja) 1996-08-07 2003-06-16 松下電器産業株式会社 実時間レンジファインダ
JPH10142331A (ja) 1996-11-14 1998-05-29 Komatsu Ltd ミリ波レーダ搭載車両
EP1147370B1 (en) * 1998-12-16 2009-02-25 3DV Systems Ltd. Self gating photosurface
JP4200343B2 (ja) 1999-02-19 2008-12-24 ソニー株式会社 モニタ装置
ES2199822T3 (es) 1999-03-18 2004-03-01 Siemens Aktiengesellschaft Sistema de medicion de la distancia de resolucion local.
JP2001014596A (ja) * 1999-04-30 2001-01-19 Takata Corp 車両衝突警報装置
US6323942B1 (en) * 1999-04-30 2001-11-27 Canesta, Inc. CMOS-compatible three-dimensional image sensor IC
US7366595B1 (en) * 1999-06-25 2008-04-29 Seiko Epson Corporation Vehicle drive assist system
JP3919975B2 (ja) 1999-07-07 2007-05-30 本田技研工業株式会社 車両の周辺監視装置
JP2001076298A (ja) * 1999-09-07 2001-03-23 Mazda Motor Corp 車両の表示装置
AU2001243285A1 (en) * 2000-03-02 2001-09-12 Donnelly Corporation Video mirror systems incorporating an accessory module
US6587186B2 (en) 2000-06-06 2003-07-01 Canesta, Inc. CMOS-compatible three-dimensional image sensing using reduced peak energy
US6535275B2 (en) 2000-08-09 2003-03-18 Dialog Semiconductor Gmbh High resolution 3-D imaging range finder
US7319777B2 (en) 2001-04-04 2008-01-15 Instro Precision Limited Image analysis apparatus

Also Published As

Publication number Publication date
US7248344B2 (en) 2007-07-24
EP1373830A1 (en) 2004-01-02
EP1374002B1 (en) 2005-11-16
DE60207395D1 (de) 2005-12-22
ATE310268T1 (de) 2005-12-15
JP4405154B2 (ja) 2010-01-27
EP1373830B1 (en) 2006-05-17
JP2004523769A (ja) 2004-08-05
US20040151345A1 (en) 2004-08-05
DE60207395T2 (de) 2006-06-08
ES2250636T3 (es) 2006-04-16
JP4405155B2 (ja) 2010-01-27
WO2002082016A1 (en) 2002-10-17
DE60211497T2 (de) 2006-12-14
PT1373830E (pt) 2006-09-29
DE60211497D1 (de) 2006-06-22
US20050088644A1 (en) 2005-04-28
EP1374002A1 (en) 2004-01-02
JP2004529343A (ja) 2004-09-24
US7319777B2 (en) 2008-01-15
ATE326685T1 (de) 2006-06-15
WO2002082201A1 (en) 2002-10-17

Similar Documents

Publication Publication Date Title
ES2264476T3 (es) Medida del perfil superficial.
US11408983B2 (en) Lidar 2D receiver array architecture
US11726205B2 (en) Light ranging device having an electronically scanned emitter array
CN110554401B (zh) 混合lidar接收器和lidar方法
EP2017651B2 (en) Reference pixel array with varying sensitivities for TOF sensor
KR102324449B1 (ko) 광 검출기 어레이 및 아날로그 판독 회로가 개재된 lidar 수신기용 멀티 검출기
CN106896369A (zh) 测距装置
CN102947726A (zh) 扫描3d成像仪
WO2012085152A1 (en) 3d landscape real-time imager and corresponding imaging methods
KR20220006638A (ko) 전자 스캐닝 lidar 시스템을 위한 동기화된 이미지 캡처
US11698447B2 (en) Beam steering aware pixel clustering of segmented sensor area and implementing averaging algorithms for pixel processing
WO2019055979A1 (en) ACQUISITION OF LIDAR SIGNAL
GB2374743A (en) Surface profile measurement
US20210325540A1 (en) Device and method of optical range imaging
US20230393245A1 (en) Integrated long-range narrow-fov and short-range wide-fov solid-state flash lidar system
CN115552285A (zh) 具有飞行时间感测能力的全局快门图像传感器
WO2021034409A1 (en) Depth sensor with interlaced sampling structure
US20240210526A1 (en) Optical system for full frame flash solid state lidar system