ES2758734T3 - Procedimiento para calibrar la imagen de una cámara - Google Patents

Procedimiento para calibrar la imagen de una cámara Download PDF

Info

Publication number
ES2758734T3
ES2758734T3 ES09450093T ES09450093T ES2758734T3 ES 2758734 T3 ES2758734 T3 ES 2758734T3 ES 09450093 T ES09450093 T ES 09450093T ES 09450093 T ES09450093 T ES 09450093T ES 2758734 T3 ES2758734 T3 ES 2758734T3
Authority
ES
Spain
Prior art keywords
image
camera
points
visual space
marks
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES09450093T
Other languages
English (en)
Inventor
Peter Kahler
Christian Janner
Maike Löhndorf
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kapsch TrafficCom AG
Original Assignee
Kapsch TrafficCom AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kapsch TrafficCom AG filed Critical Kapsch TrafficCom AG
Application granted granted Critical
Publication of ES2758734T3 publication Critical patent/ES2758734T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N17/00Diagnosis, testing or measuring for television systems or their details
    • H04N17/002Diagnosis, testing or measuring for television systems or their details for television cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Traffic Control Systems (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

Procedimiento para calibrar la imagen (3I, 3II) de una cámara 1, en particular una cámara de vigilancia del tráfico, con respecto a su espacio visual, para lo cual se determinan los parámetros de proyección de cámara (mkl) de una proyección de cámara del espacio visual sobre la imagen, caracterizado por las etapas de: habilitar un soporte 5 móvil (4) con al menos cuatro marcas visibles por la cámara (1) que confinan un volumen y forman unos primeros puntos mundiales conocidos (wi) en el espacio visual, tomar una primera imagen (3I) del espacio visual, desplazar el soporte (4) en el espacio visual con un decalaje desconocido (v) para obtener unos segundos puntos mundiales (wi) dependientes de este en el espacio visual, tomar una segunda imagen (3II) del espacio visual, detectar las marcas en la primera imagen (3I) como primeros puntos de imagen (pi) y en la segunda imagen (3II) como segundos puntos de imagen (pi), y determinar los parámetros de proyección de cámara (mkl), codeterminando el decalaje a partir de los primeros puntos mundiales conocidos, los segundos puntos mundiales dependientes del decalaje, los primeros puntos de imagen detectados y los segundos puntos de imagen detectados con ayuda del método de la transformación lineal directa ("DLT").

Description

DESCRIPCIÓN
Procedimiento para calibrar la imagen de una cámara
La presente invención se refiere a un procedimiento para calibrar la imagen de una cámara, en particular una cámara de vigilancia del tráfico, con respecto a su espacio visual, para lo cual se determinan los parámetros de proyección de cámara de una proyección del espacio visual sobre la imagen.
Las proyecciones de cámara pueden modelarse sobre clases muy diferentes, por ejemplo, como modelo de cámara oscura, modelo de “lente gruesa” o de “lente delgada”, modelo de ojo de pez, etc., con o sin considerar defectos y distorsiones de lentes. Es común a todos los modelos que pueda describirse la proyección por medio de los denominados parámetros de proyección que forman directamente, por ejemplo en modelos simplificados, los coeficientes de una matriz de proyección geométrica.
El uso de una transformación lineal directa (DLT) para determinar parámetros de proyección de cámara es conocido desde hace tiempo, véase, por ejemplo, en Abdel-Aziz, Y.I., y Karara, H.M: “Direct Linear Transformation from Comparator Coordinates into Objetc Space Coordinates in Close-range Photogrammetry”, Proceedings of the Symposium on Close-Range Photogrammetry, páginas 1-18, 1971, Falls Church, Virgina, American Society of Photogrammetry. Dos procedimientos de calibración basados en la transformación lineal directa (DLT) conocida se describen en Hatze, H: “High-precision three-dimensional photogrametric calibration and object space reconstruction using a modified DLT-approach”, Journal of Biomechanics, Pergamon Press, Nueva York, NY, US, Bd. 21, N° 7, 1 de enero de 1988, páginas 533-538, ISSN: 0021-9290.
Para la aplicación de la DLT a la determinación de los parámetros de proyección de cámara es necesario el conocimiento de al menos seis puntos de confinamiento espacial en el espacio visual, los denominados “puntos mundiales” y su asociación a los puntos de imagen en la imagen de cámara. Para ello, según el actual estado de la técnica, seis marcas deben disponerse distribuidas en todo el espacio visual de la cámara, acotarse y seguidamente asociarse a los puntos de imagen correctos en la imagen de cámara.
En cámaras de vigilancia del tráfico para túneles de carretera o autopistas, que pueden tener un gran campo de visión de hasta varios centenares de metros, esto significa un elevado coste de tiempo porque las marcas individuales deben disponerse, por ejemplo, a mano sobre la carretera y acotarse una con respecto a otra por medio de telémetros de láser o cintas métricas. En general, para ello es necesario también un bloqueo del túnel o del tramo de carretera, lo cual es extremadamente dificultoso: precisamente en cámaras de túnel es necesaria una nueva calibración frecuente de las cámaras de vigilancia porque estas se pueden desajustar durante un lavado regular del túnel o por colisiones de vehículos pesados que chocan con este. Asimismo, en cada operación de reparación o mantenimiento de una cámara, esta debe calibrarse de nuevo.
La invención tiene el objetivo de crear un procedimiento para calibrar imágenes de cámara, que pueda realizarse de forma más sencilla y rápida que los procedimientos conocidos hasta ahora. Este objetivo se logra con un procedimiento del tipo citado al principio que se caracteriza por las etapas de la reivindicación 1.
Con ayuda del procedimiento según la invención, ya no es necesario colocar y medir a mano las al menos seis marcas en el espacio visual necesarias para determinar los parámetros de proyección de cámara. En lugar de ello, se utiliza un soporte móvil, por ejemplo un vehículo, con marcas medidas previamente, que se mueve a través del campo de visión. En este caso, ni siquiera es necesario conocer la extensión del movimiento en el mundo real, de modo que, por ejemplo, pueden seleccionarse en gran medida de forma discrecional la velocidad y la dirección de marcha del soporte.
Los parámetros de proyección de cámara así determinados hacen posible seguidamente una reasignación del sistema de coordenadas de imagen de la imagen de cámara a un plano arbitrariamente seleccionado en el sistema de coordenadas mundiales del espacio de cámara, por ejemplo a un plano de carretera, con lo que se logra el objetivo de la calibración. A partir de la imagen de cámara calibrada de esta manera, pueden derivarse posteriormente otras informaciones, por ejemplo la velocidad y la dirección de marcha de un vehículo sobre una carretera contenida en la imagen. En el procedimiento propuesto se realiza el cálculo citado en un modelo de matriz con ayuda del método de la transformación lineal directa (“DLT”), en particular, de preferencia por solución de la ecuación DLT
Figure imgf000002_0001
con respecto a m, s y t, con
D(s,t), matriz DLT de todos los puntos mundiales y de imagen, en la que los segundos puntos mundiales se expresan por los primeros puntos mundiales desplazados con el decalaje (s, t, 0),
m, vector de los parámetros de proyección de cámara, y
p, vector de todos los puntos de imagen.
Esta forma de realización es especialmente adecuada para cámaras de vigilancia del tráfico que observan un plano de carretera, sobre el que se desplaza el soporte con un decalaje bidimensional, de modo que la tercera coordenada del decalaje pueda suponerse igual a cero.
Según una forma de realización especialmente ventajosa de la invención, para resolver la ecuación DLT se resuelve la tarea de minimización
Figure imgf000003_0001
por medio del procedimiento de Gauss-Newton. El procedimiento de Gauss-Newton se conoce en matemáticas, de modo que es necesario entrar aquí más en detalle. El uso del procedimiento de Gauss-Newton permite una solución rápida de la ecuación DLT con suficiente exactitud.
Para la forma de funcionamiento básica del procedimiento, no se requiere necesariamente que todas las marcas se detecten en cada imagen, siendo suficiente que se detecten al menos cuatro marcas en una imagen y al menos tres marcas en otra imagen. A partir de estos 7 puntos de imagen se pueden elaborar 14 ecuaciones, con las que se pueden determinar los 11 parámetros de proyección de cámara de un modelo de proyección de cámara oscura sencillo y hasta 3 coordenadas del decalaje.
En cualquier caso, es especialmente favorable que, como soporte, se utilice un vehículo y como decalaje se utilice un trayecto de circulación del vehículo. Por tanto, el procedimiento según la invención es adecuado especialmente para calibrar las imágenes de cámaras de vigilancia del tráfico, en particular cámaras de túneles y autopistas. El procedimiento de la invención puede realizarse durante los tiempos de funcionamiento del túnel o de la carretera y no requiere ninguna medida de acotamiento o bloqueo en el tramo de carretera.
Preferiblemente, se seleccionan como marcas puntos destacados del vehículo o se instalan, en particular, medios luminiscentes sobre un soporte trasero y un soporte de techo o de espejo retrovisor del vehículo, de modo que los vehículos convencionales puedan reequiparse para ello de manera correspondiente.
Es especialmente ventajoso que, según otra característica de la invención, se capturen más de dos imágenes para detectar otros puntos de imagen de las marcas, que se incorporan en el cálculo de los parámetros de proyección de cámara, con lo que puede elevarse la precisión del procedimiento.
Otra forma de realización del procedimiento de la invención se caracteriza por que se ejecuta repetidamente y se promedian los respectivos parámetros de proyección de cámara obtenidos, con lo que puede mejorarse aún más la precisión.
La invención se explica seguidamente con más detalle con ayuda de un ejemplo de realización representado en los dibujos adjuntos. En los dibujos, muestran:
la figura 1, el procedimiento de la invención con ayuda de dos posiciones de un vehículo que sirve como soporte de marca sobre una carretera, y
las figuras 2a y 2b, las imágenes de la cámara de vigilancia del tráfico de la figura 1 que pertenecen a las dos posiciones del vehículo.
La figura 1 muestra una cámara 1, en cuyo espacio visual se encuentra una carretera 2, de la que la cámara 1 toma al menos dos imágenes 3i, 3ii (figuras 2a, 2b) en un intervalo temporal. Por ejemplo, la cámara 1 es una videocámara con una tasa de repetición de imágenes de, por ejemplo, 25 fps (cuadros por segundo).
Un sistema de coordenadas mundiales (x, y, z) está asociado a los objetos reales (puntos mundiales) en el espacio visual de la cámara 1, y un sistema de coordenadas de imagen u, v está asociado a los puntos de imagen (píxeles) de las imágenes de cámara bidimensionales 3i, 3ii.
Los objetos en el espacio visual pueden ser en sí de cualquier tipo; aplicaciones a modo de ejemplo son el uso de una cámara 1 para vigilar vías de agua, lugares públicos, zonas peatonales, aeropuertos, pistas de rodadura, estacionamientos, edificios, áreas de entrada y espera, etc.
Como conoce el experto, la reproducción proyectiva geométrica de puntos mundiales Wi con las coordenadas (xi, yi, zi), por ejemplo los puntos mundiales mostrados w-i, W2, ...W8, sobre puntos de imagen pi con las coordenadas (ui, vi), por ejemplo, los puntos de imagen mostrados p1, p2, ...p8, por ejemplo como modelo de cámara oscura en perspectiva puede modelarse como:
Figure imgf000004_0001
o abreviadamente
Figure imgf000004_0002
La matriz M se designa también matriz de proyección de cámara del modelo de cámara seleccionado y sus coeficientes mkl se designan también parámetros de proyección de cámara. Si se utilizan modelos de cámara distintos del modelo de cámara oscura aquí descrito en detalle, por ejemplo, modelos de cámara de “lente gruesa”, “lente delgada”, de ojo de pez u otros modelos, con o sin consideración de defectos o distorsiones de lentes, entonces la proyección de cámara puede modelarse también por más y/u otros parámetros de proyección de cámara que no forman necesariamente solo una matriz de este tipo.
Cuando se conocen la posición exacta de la cámara 1 y todos sus parámetros internos como la distancia focal, el tamaño de sensor, etc., se podrían construir directamente los parámetros de la proyección de cámara, aquí la matriz M. El objetivo de la calibración de cámara es determinar sin este conocimiento los parámetros de proyección de cámara, aquí la matriz M. Por tanto, en el presente ejemplo, pueden obtenerse los 11 coeficientes m-i-i, mi2, ... m33.
En el supuesto de que conozcan al menos seis asociaciones de puntos mundiales Wi a puntos de imagen pi, los 11 parámetros de proyección de cámara mu, m12...m33 de la matriz M pueden obtenerse como parámetros de una transformación lineal directa (DLT) según la siguiente ecuación DLT (aquí establecida para ocho asociaciones; la finalidad de esto se pondrá claramente de manifiesto más tarde):
Figure imgf000004_0003
o abreviadamente
D ■ m - p (4)
En una primera etapa, un soporte móvil 4 en el espacio visual de la cámara 1, en el ejemplo mostrado un vehículo, se provee ahora de al menos cuatro marcas o primeros puntos mundiales W1, W2, W3, W4 visibles por la cámara 1. Los puntos mundiales W1, W2, W3, W4 se seleccionan de manera que abarquen un volumen y sea conocida su posición en el sistema de coordenadas mundiales x, y, z.
En una primera posición I del soporte 4, la cámara 1 toma una primera imagen 3|. En la imagen 3i, inmediatamente o con posterioridad, manualmente o con ayuda de procedimientos de reconocimiento de imagen, se detectan los puntos de imagen p1, p2, p3, p4 de las cuatro marcas o puntos mundiales W1, W2, W3, W4.
Seguidamente, el soporte 4 se desplaza con un decalaje v(s, t, 0) en el espacio visual de la cámara 1, por ejemplo el vehículo se mueve avanzando en un trayecto de circulación. En esta segunda posición II, se captura de nuevo una imagen 3ii y se detectan en ella los nuevos puntos de imagen p5, pe, p7, p8 de las marcas o puntos mundiales W1, W2, W3, W4 originales desplazados con respecto a los nuevos puntos mundiales W5, we, W7, W8.
Por tanto, para resolver la ecuación (3), los nuevos o segundos puntos mundiales W5, we, W7, W8 pueden expresarse por el decalaje v(s, t, 0) de los viejos o primeros cuatro puntos mundiales W1, W2, W3, W4como:
(^ 5 ^ 5 ^ 5 ) = (^i s.jv, '>zi) (5 )
Figure imgf000005_0001
Como puede verse, se asumió en el ejemplo mostrado un decalaje v paralelo al plano x/y del sistema de coordenadas mundiales seleccionado, en el supuesto de que el soporte 4 sea un vehículo, que se mueve a distancia z constante del plano de la carretera 2, y se haya fijado correspondientemente el sistema de coordenadas mundiales x, y, z. Sin embargo, en caso de que se desee, podría utilizarse también un decalaje v tridimensional.
Por tanto, en la ecuación (3) o (4), en las últimas ocho filas de la matriz D, los puntos mundiales w5, wa, w7, w8 pueden expresarse por los puntos mundiales wi, W2, W3, W4 y los parámetros de decalaje s, t, y nosotros llamamos a esto matriz modificada D(s, t).
La ecuación (3) o (4) posee ahora 13 incógnitas: 11 parámetros de proyección de cámara m« de la matriz de proyección de cámara M y 2 parámetros de decalaje s, t. La ecuación DLT (3) o (4) se convierte así en la nueva ecuación DLT
D ( s , t ) m = p (9 )
La ecuación (9) puede resolverse seguidamente como tarea de minimización de la forma:
Figure imgf000005_0002
En la tarea de minimización se busca mu, mi2, ...ITI33 y s y t, de modo que se haga mínima la norma
Para ello es adecuado básicamente cada procedimiento conocido en la técnica; la tarea de minimización (10) se resuelve preferentemente con ayuda del procedimiento de Gauss-Newton.
Como resultado, se determinan de esta manera - codeterminando simultáneamente el decalaje v - los parámetros de proyección de cámara m« de la matriz de proyección de cámara de la ecuación (1) de modelo de cámara oscura. Por tanto, como consecuencia adicional, a cada punto mundial cualquiera se le puede asociar un punto de imagen, o viceversa, a cada punto de imagen se le puede asociar un punto mundial en un plano seleccionado del espacio visual, por ejemplo, un punto sobre la carretera 2. Por tanto, pueden acotarse, por ejemplo, el lugar o la velocidad de los vehículos 4 sobre la carretera 2 a partir de las imágenes de cámara 3i, 3ii.
Dado que la ecuación DLT (9) o la tarea de minimización (10) solo tiene 13 incógnitas (siempre que se asuma un decalaje bidimensional v) o 14 incógnitas (cuando se asume un decalaje tridimensional v), son en sí suficientes para la solución siete asociaciones de punto mundial a punto de imagen W1^p¡. Por tanto, en el caso más sencillo, en una imagen se detectan cuatro puntos de imagen y en otra imagen se detectan también solo tres puntos de imagen; cualquier incremento adicional del número de las asociaciones detectadas w¡^ p¡, por ejemplo, aprovechando otras imágenes de cámara para más de dos posiciones I, II del soporte 4 y/o empleando más de cuatro marcas sobre el soporte 4, puede aprovecharse para mejorar la precisión de la solución. Asimismo, es posible repetir el procedimiento para estabilizar por promediado los parámetros de proyección de cámara determinados en las distintas pasadas.
La invención no está limitada a la forma de realización representada, sino que comprende todas las variantes y modificaciones que están en el ámbito de las reivindicaciones anexas.

Claims (9)

REIVINDICACIONES
1. Procedimiento para calibrar la imagen (3i, 3ii) de una cámara 1, en particular una cámara de vigilancia del tráfico, con respecto a su espacio visual, para lo cual se determinan los parámetros de proyección de cámara (mkl) de una proyección de cámara del espacio visual sobre la imagen, caracterizado por las etapas de:
habilitar un soporte móvil (4) con al menos cuatro marcas visibles por la cámara (1) que confinan un volumen y forman unos primeros puntos mundiales conocidos (wi) en el espacio visual,
tomar una primera imagen (3i) del espacio visual,
desplazar el soporte (4) en el espacio visual con un decalaje desconocido (v) para obtener unos segundos puntos mundiales (wi) dependientes de este en el espacio visual,
tomar una segunda imagen (3ii) del espacio visual, detectar las marcas en la primera imagen (3i) como primeros puntos de imagen (pi) y en la segunda imagen (3ii) como segundos puntos de imagen (p ) y
determinar los parámetros de proyección de cámara (mkl), codeterminando el decalaje a partir de los primeros puntos mundiales conocidos, los segundos puntos mundiales dependientes del decalaje, los primeros puntos de imagen detectados y los segundos puntos de imagen detectados con ayuda del método de la transformación lineal directa (“DLT”).
2. Procedimiento según la reivindicación 1, caracterizado por que la determinación se realiza resolviendo la ecuación DLT:
Figure imgf000006_0001
con respecto a m, s y t, significando
D(s, t), matriz DLT de todos los puntos mundiales y de imagen, en la que los segundos puntos mundiales se expresan por los primeros puntos mundiales desplazados con el decalaje (s, t, 0),
m, vector de los parámetros de proyección de cámara, y
p, vector de todos los puntos de imagen.
3. Procedimiento según la reivindicación 2, caracterizado por que, para resolver la ecuación DLT, se resuelve la tarea de minimización
Figure imgf000006_0002
por medio del procedimiento de Gauss-Newton.
4. Procedimiento según una de las reivindicaciones 1 a 3, caracterizado por que se detectan al menos cuatro marcas en una imagen y al menos tres marcas en otra imagen.
5. Procedimiento según una de las reivindicaciones 1 a 4, caracterizado por que se capturan más de dos imágenes (3i, 3ii) para detectar otros puntos de imagen (pi) de las marcas (wi), que se incorporan en la determinación de los parámetros de proyección de cámara (mkl).
6. Procedimiento según una de las reivindicaciones 1 a 5, caracterizado por que como soporte (4) se utiliza un vehículo y como decalaje (v) se utiliza un trayecto de circulación del vehículo (4).
7. Procedimiento según la reivindicación 6, caracterizado por que como marcas se utilizan puntos destacados del vehículo (4).
8. Procedimiento según la reivindicación 6, caracterizado por que, como marcas (wi) se instalan medios luminiscentes sobre un soporte trasero y un soporte de techo o de espejo retrovisor del vehículo (4).
9. Procedimiento según una de las reivindicaciones 1 a 8, caracterizado por que este se repite y se promedian los respectivos parámetros de proyección de cámara determinados.
ES09450093T 2009-05-05 2009-05-05 Procedimiento para calibrar la imagen de una cámara Active ES2758734T3 (es)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
EP09450093.1A EP2249580B1 (de) 2009-05-05 2009-05-05 Verfahren zur kalibrierung des bildes einer kamera

Publications (1)

Publication Number Publication Date
ES2758734T3 true ES2758734T3 (es) 2020-05-06

Family

ID=41110935

Family Applications (1)

Application Number Title Priority Date Filing Date
ES09450093T Active ES2758734T3 (es) 2009-05-05 2009-05-05 Procedimiento para calibrar la imagen de una cámara

Country Status (3)

Country Link
US (1) US8964035B2 (es)
EP (1) EP2249580B1 (es)
ES (1) ES2758734T3 (es)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130208121A1 (en) * 2012-02-10 2013-08-15 Xerox Corporation Traffic camera diagnostics via test targets
DE102012102600B3 (de) * 2012-03-26 2013-08-14 Jenoptik Robot Gmbh Verfahren zur Verifizierung der Ausrichtung eines Verkehrsüberwachungsgerätes
US9870704B2 (en) * 2012-06-20 2018-01-16 Conduent Business Services, Llc Camera calibration application
US9185402B2 (en) 2013-04-23 2015-11-10 Xerox Corporation Traffic camera calibration update utilizing scene analysis
CA2819956C (en) * 2013-07-02 2022-07-12 Guy Martin High accuracy camera modelling and calibration method
FR3023949B1 (fr) 2014-07-15 2016-08-12 Morpho Procede et systeme d'autodetermination des valeurs des parametres intrinseques et des parametres extrinseques d'une camera placee au bord d'une chaussee.
CN104346813A (zh) * 2014-10-28 2015-02-11 南京理工大学 一种火焰发射层析***中相机参数的标定方法
US9781412B2 (en) 2015-02-04 2017-10-03 Sony Corporation Calibration methods for thick lens model
AT518020A1 (de) * 2015-11-19 2017-06-15 Pke Electronics Ag Verfahren zum Rektifizieren einer Bildaufnahme
CN105488810B (zh) * 2016-01-20 2018-06-29 东南大学 一种聚焦光场相机内外参数标定方法
CN108805936B (zh) * 2018-05-24 2021-03-26 北京地平线机器人技术研发有限公司 摄像机外参标定方法、装置和电子设备
CN116309851B (zh) * 2023-05-19 2023-08-11 安徽云森物联网科技有限公司 一种智慧园区监控摄像头的位置及朝向标定方法

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1997016806A1 (en) * 1995-11-01 1997-05-09 Carl Kupersmit Vehicle speed monitoring system
NO303595B1 (no) * 1996-07-22 1998-08-03 Metronor Asa System og fremgangsmÕte for bestemmelse av romlige koordinater
DE10246067B4 (de) * 2002-10-02 2008-01-03 Robert Bosch Gmbh Verfahren und Vorrichtung zur Kalibrierung eines Bildsensorsystems in einem Kraftfahrzeug
US8260259B2 (en) * 2004-09-08 2012-09-04 Qualcomm Incorporated Mutual authentication with modified message authentication code
JP4681856B2 (ja) * 2004-11-24 2011-05-11 アイシン精機株式会社 カメラの校正方法及びカメラの校正装置
US20080291278A1 (en) * 2005-04-05 2008-11-27 Objectvideo, Inc. Wide-area site-based video surveillance system
DE102005061931B4 (de) * 2005-12-23 2011-04-14 Bremer Institut für angewandte Strahltechnik GmbH Verfahren und Vorrichtung zur Kalibrierung einer optischen Einrichtung
US20070239169A1 (en) * 2006-03-17 2007-10-11 Perception Raisonnement Action En Medecine Reference marker and use in a motion tracking system
WO2008060916A2 (en) * 2006-11-09 2008-05-22 University Of Florida Research Foundation, Inc. Passive single camera imaging system for determining motor vehicle speed
JP5124147B2 (ja) * 2007-02-01 2013-01-23 三洋電機株式会社 カメラ校正装置及び方法並びに車両
DE102007021107B4 (de) * 2007-05-03 2016-11-17 Adc Automotive Distance Control Systems Gmbh Vorrichtung und Verfahren zum Bestimmen des Hauptpunktes eines Kamerasystems
WO2009076182A1 (en) * 2007-12-13 2009-06-18 Clemson University Vision based real time traffic monitoring
US8120644B2 (en) * 2009-02-17 2012-02-21 Autoliv Asp, Inc. Method and system for the dynamic calibration of stereovision cameras

Also Published As

Publication number Publication date
US20100283856A1 (en) 2010-11-11
EP2249580A1 (de) 2010-11-10
US8964035B2 (en) 2015-02-24
EP2249580B1 (de) 2019-09-04

Similar Documents

Publication Publication Date Title
ES2758734T3 (es) Procedimiento para calibrar la imagen de una cámara
CN113227839B (zh) 具有结构光照明器的飞行时间传感器
US11477374B2 (en) Three dimensional image capture system for imaging building facades using a digital camera, a near-infrared camera, and laser range finder
CA3027921C (en) Integrated sensor calibration in natural scenes
CN112534303B (zh) 混合飞行时间和成像器模块
US20150116691A1 (en) Indoor surveying apparatus and method
EP2588882B1 (en) Method for producing a digital photo wherein at least some of the pixels comprise position information, and such a digital photo
KR102428765B1 (ko) 터널 조명을 이용한 자율주행 차량 항법 시스템
US20070273894A1 (en) Method and apparatus for remote spatial calibration and imaging
ES2894935T3 (es) Aparato de medición de distancias tridimensionales y procedimiento para el mismo
US20200200529A1 (en) Device and Method to Locate a Measurement Point with an Image Capture Device
Cavegn et al. A systematic comparison of direct and image-based georeferencing in challenging urban areas
JP2016090557A (ja) 移動体用の測位システム
NL2016718B1 (en) A method for improving position information associated with a collection of images.
CN114051627A (zh) 相机校准方法
Ho et al. Pointing, acquisition, and tracking system with omnivision
ES2543038B2 (es) Método y sistema de localización espacial mediante marcadores luminosos para cualquier ambiente
Iwaszczuk et al. Evaluation of a mobile multi-sensor system for seamless outdoor and indoor mapping
US20230083307A1 (en) Camera Calibration Method
Ibrahim et al. Circular Calibration of Depth Extraction in Stereo Configuration
Disa et al. Ghost effects and obscured areas in true orthophoto generation
Zhao Complementary imaging for pavement cracking measurements
Goeman et al. Automatic camera to laser calibration for high accuracy mobile mapping systems using INS
Nikolaus et al. High-accuracy surveying of Venice landmarks by Riegl VMX-250 Laser system
JP2015148754A (ja) 移動体用の画像表示方法及びシステム