ES2800725T3 - Métodos y sistemas para detectar intrusiones en un volumen controlado - Google Patents

Métodos y sistemas para detectar intrusiones en un volumen controlado Download PDF

Info

Publication number
ES2800725T3
ES2800725T3 ES16175808T ES16175808T ES2800725T3 ES 2800725 T3 ES2800725 T3 ES 2800725T3 ES 16175808 T ES16175808 T ES 16175808T ES 16175808 T ES16175808 T ES 16175808T ES 2800725 T3 ES2800725 T3 ES 2800725T3
Authority
ES
Spain
Prior art keywords
dimensional
sensor
local
controlled volume
global
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES16175808T
Other languages
English (en)
Inventor
Orellana Raul Bravo
Olivier Garcia
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Outsight SA
Original Assignee
Outsight SA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Outsight SA filed Critical Outsight SA
Application granted granted Critical
Publication of ES2800725T3 publication Critical patent/ES2800725T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/181Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using active radiation detection systems
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B29/00Checking or monitoring of signalling or alarm systems; Prevention or correction of operating errors, e.g. preventing unauthorised operation
    • G08B29/02Monitoring continuously signalling or alarm systems
    • G08B29/04Monitoring of the detection circuits
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/16Actuation by interference with mechanical vibrations in air or other fluid
    • G08B13/1654Actuation by interference with mechanical vibrations in air or other fluid using passive vibration detection systems
    • G08B13/1672Actuation by interference with mechanical vibrations in air or other fluid using passive vibration detection systems using sonic detecting means, e.g. a microphone operating in the audio frequency range
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19602Image analysis to detect motion of the intruder, e.g. by frame subtraction
    • G08B13/19608Tracking movement of a target, e.g. by detecting an object predefined as a target, using target direction and or velocity to predict its new position
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19678User interface
    • G08B13/19682Graphic User Interface [GUI] presenting system data to the user, e.g. information on a screen helping a user interacting with an alarm system
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19678User interface
    • G08B13/19691Signalling events for better perception by user, e.g. indicating alarms by making display brighter, adding text, creating a sound

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Security & Cryptography (AREA)
  • Multimedia (AREA)
  • Alarm Systems (AREA)
  • Burglar Alarm Systems (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)

Abstract

Un método para detectar intrusiones en un volumen controlado, en el cual una pluralidad de N sensores (2) tridimensionales controlan, respectivamente, al menos una parte de un volumen (V) controlado y se comunican, respectivamente, con una unidad central de procesamiento (3), que comprende: - cada sensor (2) de dicha pluralidad de N sensores tridimensionales adquiere una nube (C) de puntos locales en un sistema (S) local de coordenadas de dicho sensor, comprendiendo dicha nube de puntos locales un conjunto de puntos (D) de datos tridimensionales de las superficies del objeto en un volumen (L) local que rodea dicho sensor (2) y que se superpone al volumen (V) controlado, - dicha unidad central de procesamiento (3) recibe las nubes (C) de puntos locales adquiridas de la pluralidad de N sensores (2) tridimensionales, almacenando dichas nubes (C) de puntos adquiridas en una memoria (5) y, para cada sensor (2) de dicha pluralidad de N sensores (2) tridimensionales, calcular la posición y orientación tridimensionales actualizadas de dicho sensor (2) en un sistema (G) de coordenadas global del volumen controlado alineando una nube (C) de puntos locales adquirida por dicho sensor tridimensional con un mapa (M) tridimensional global del volumen (V) controlado, que se determina de manera automatizada y se almacena en una memoria (5), y generar una nube (A) de puntos local alineada en el sistema (G) de coordenadas global a partir de dicha nube (C) de puntos adquirida sobre la base de la posición y orientación tridimensionales actualizadas del sensor (2), - controlar una intrusión en el volumen (V) controlado comparando un espacio libre de dicha nube (A) de puntos locales alineada con un espacio libre del mapa (M) tridimensional global.

Description

DESCRIPCIÓN
Métodos y sistemas para detectar intrusiones en un volumen controlado
Sector de la técnica
La presente invención se refiere a métodos y sistemas para detectar intrusiones en un volumen o espacio tridimensional.
Estado de la técnica
La presente solicitud pertenece al campo de control de área y volumen para aplicaciones de vigilancia, tales como ingeniería de seguridad o seguridad de emplazamientos. En tales aplicaciones, se realizan verificaciones regulares o continuas para detectar si hay una intrusión de un objeto, en particular un cuerpo humano, en un volumen controlado, por ejemplo, una zona de peligro que rodea una máquina o una zona prohibida en un área privada. Cuando se detecta una intrusión, se notifica al operador del sistema de control y/o la instalación puede detenerse o quedar protegida.
Los enfoques tradicionales para el control del área implican el uso de una cámara 2D para rastrear individuos y objetos en el área espacial. El documento US 20060033746 describe un ejemplo de tal control por cámara.
El uso de una cámara bidimensional proporciona una solución de control de bajo coste y fácil de configurar. Sin embargo, un inconveniente importante de estos enfoques radica en el hecho de que una sola cámara solo proporciona información de posición bidimensional y no proporciona información sobre la distancia del objeto detectado desde la cámara. Como resultado, las alertas falsas pueden desencadenarse por objetos distantes que parecen estar en el volumen controlado pero que en realidad están fuera del peligro o zona prohibida.
Para superar este problema, se propuso utilizar sensores de distancia o tridimensionales o cámara estereoscópica para adquirir información tridimensional sobre los individuos y objetos ubicados en el área espacial controlada. Tal sistema de control generalmente comprende varios sensores 3D o cámaras estereoscópicas distribuidas en el área controlada para evitar el efecto de sombra de los objetos ubicados dentro del volumen controlado.
Los documentos US 7.164.116, US 7.652.238 y US 9.151.446 describen ejemplos de tales sistemas de sensores 3D.
En el documento US 7.164.116, cada sensor se considera de forma independiente, se calibra por separado y su información de adquisición se trata por separado de los otros sensores. Después, el operador del sistema puede combinar la información de varios sensores 3D para resolver problemas de sombreado. La calibración y la configuración de dicho sistema es un proceso costoso en cuanto a tiempo, ya que cada sensor 3D debe calibrarse de forma independiente, por ejemplo, especificando un área peligrosa o prohibida por separado para cada sensor. Además, el uso de dicho sistema es engorroso ya que el operador tiene que combinar mentalmente la información de varios sensores.
Los documentos US 7.652.238 y US 9.151.446 desvelan otro enfoque en el que se define un sistema de coordenadas uniforme para todos los sensores 3D del sistema de control. De este modo, los sensores se calibran en un sistema de coordenadas común del volumen controlado. Sin embargo, en tales sistemas, la posición respectiva de cada sensor con respecto a la zona controlada debe ser fija y estable a lo largo del tiempo para poder fusionar las mediciones de manera fiable, que a menudo es difícil de garantizar con el tiempo y dar como resultado necesita recalibrar periódicamente el sistema de control.
Además, el proceso de calibración de estos sistemas requiere una determinación precisa de la posición y orientación tridimensional de cada sensor, lo que implica herramientas de medición 3D y una interfaz de entrada 3D que son difíciles de gestionar para un operador no experto. El documento US2010/0053330 es otro ejemplo de un sistema de seguridad.
Objeto de la invención
La presente invención está definida por las reivindicaciones adjuntas y tiene como objetivo mejorar esta situación.
Con este objetivo, un primer objeto de la invención es un método para detectar intrusiones en un volumen controlado, en el cual una pluralidad de N sensores tridimensionales controlan, respectivamente, al menos una parte del volumen controlado y se comunican respectivamente con una unidad central de procesamiento, que comprende:
- adquisición por cada sensor de dicha pluralidad de N sensores tridimensionales de una nube de puntos local en un sistema de coordenadas local de dicho sensor, comprendiendo dicha nube de puntos local un conjunto de puntos D de datos tridimensionales superficies de objetos en un volumen local que rodea dicho sensor y se superpone al volumen controlado,
- recepción por dicha unidad central de procesamiento las nubes de puntos locales adquiridas de la pluralidad de N sensores tridimensionales, almacenando dichas nubes de puntos adquiridas en una memoria y, para cada sensor de dicha pluralidad de N sensores tridimensionales,
calcular la posición y orientación tridimensional actualizadas de dicho sensor en un sistema de coordenadas global del volumen controlado alineando una nube de puntos locales adquirida por dicho sensor tridimensional con un mapa tridimensional global del volumen controlado almacenado en una memoria, y
generar una nube de puntos locales alineada a partir de dicha nube de puntos adquirida sobre la base de la posición y orientación tridimensionales actualizadas del sensor,
- controlar una intrusión en el volumen controlado comparando un espacio libre de dicha nube de puntos locales alineada con un espacio libre del mapa tridimensional global.
En algunas realizaciones, también se podría usar una o más de las siguientes características:
- para cada sensor de dichos al menos dos sensores tridimensionales, la posición y orientación tridimensionales actualizadas de dicho sensor en el sistema de coordenadas global se calcula realizando una alineación multiescaneada simultánea de cada nube de puntos adquirida por dicho sensor con el mapa tridimensional global del volumen controlado;
- la posición y orientación tridimensionales actualizadas de cada sensor de dichos al menos dos sensores se calcula solo a partir de las nubes de puntos locales adquiridas por dicho sensor tridimensional y el mapa tridimensional global del volumen controlado almacenado en una memoria, y sin información de posicionamiento adicional; - los N sensores tridimensionales están ubicados de manera que la unión de los volúmenes locales que rodean dichos sensores es un espacio conectado, formando dicho espacio conectado el volumen controlado, el mapa tridimensional global del volumen controlado se determina mediante
- recibir al menos una nube de puntos locales de cada uno de dichos al menos dos sensores tridimensionales y almacenar dichas nubes de puntos locales en una memoria,
- realizar una alineación simultánea de barridos múltiples de las nubes de puntos locales almacenadas para generar una pluralidad de nubes de puntos locales alineadas, respectivamente, asociadas a las nubes de puntos locales adquiridas de cada uno de dichos al menos dos sensores tridimensionales, y
- fusionar dicha pluralidad de nubes de puntos locales alineadas para determinar un mapa tridimensional global del volumen controlado y almacenar dicho mapa tridimensional global en la memoria;
- el método comprende además mostrar a un usuario una indicación gráfica de la intrusión en un dispositivo de visualización;
- el método comprende además generar una imagen bidimensional del volumen controlado mediante la proyección del mapa tridimensional global del volumen controlado y ordenar al dispositivo de visualización que muestre la indicación gráfica de la intrusión superpuesta sobre dicha imagen bidimensional del volumen controlado;
- el método comprende además ordenar al dispositivo de visualización que muestre la indicación gráfica de la intrusión superpuesta sobre una imagen bidimensional de al menos una parte del volumen controlado adquirido por una cámara del sistema de control autocalibrado;
- el método comprende además orientar la cámara del sistema de control autocalibrado de modo que la intrusión detectada se localice en un campo de visión de la cámara.
Otro objeto de la invención es un método para extender un volumen controlado por un método como se ha detallado anteriormente, en el cual una pluralidad de N sensores tridimensionales controlan, respectivamente, al menos una parte del volumen controlado y se comunican respectivamente con una unidad central de procesamiento, que comprende:
- posicionar un sensor tridimensional N lésimo adicional que se comunica con la unidad central de procesamiento, adquiriendo el sensor tridimensional N lésimo adicional una nube de puntos locales en un sistema de coordenadas local de dicho sensor, comprendiendo dicha nube de puntos locales un conjunto de puntos D de datos tridimensionales las superficies del objeto en un volumen local que rodea dicho sensor y solapando al menos parcialmente el volumen controlado por la pluralidad de N sensores tridimensionales,
- determinar una mapa tridimensional global actualizado del sistema de control autocalibrado mediante
recibir al menos una nube de puntos locales adquirida de cada uno de dichos al menos dos sensores tridimensionales y almacenar dichas nubes de puntos locales en una memoria,
realizar una alineación simultánea de barridos múltiples de las nubes de puntos locales almacenadas para generar una pluralidad de nubes de puntos locales alineadas, respectivamente, asociadas a las nubes de puntos locales adquiridas de cada uno de dichos al menos dos sensores tridimensionales, y
determinar un mapa tridimensional global de un volumen controlado fusionando dicha pluralidad de nubes de puntos locales alineadas.
Otro objeto de la invención es un método para determinar una ubicación tridimensional de una cámara para un sistema de control autocalibrado, en el cual una pluralidad de N sensores tridimensionales controlan, respectivamente, al menos una parte del volumen controlado y se comunican respectivamente con una unidad central de procesamiento,
- proporcionar una cámara que comprende al menos un patrón reflectante de manera que un punto de datos de dicho patrón reflectante adquirido por un sensor tridimensional del sistema de control autocalibrado pueda asociarse a dicha cámara,
- posicionar la cámara en el volumen controlado, en un campo de visión de al menos un sensor de la pluralidad de N sensores tridimensionales para que dicho sensor adquiera una nube de puntos local que comprenda al menos un punto de datos tridimensional del patrón reflectante de la cámara,
- recibir una nube de puntos local de dicho al menos un sensor tridimensional y calcular una nube de puntos local alineada alineando dicha nube C de puntos locales son el mapa tridimensional global del sistema de control autocalibrado,
- identificar, en la nube de puntos local alineada, al menos un punto de datos correspondiente al patrón reflectante de la cámara, y
- determinar al menos una ubicación tridimensional de la cámara en un sistema de coordenadas global del mapa tridimensional global sobre la base de las coordenadas de dicho punto de datos identificado de la nube de puntos local alineada correspondiente al patrón reflectante de la cámara.
Otro objeto de la invención es un sistema de control autocalibrado para detectar intrusiones en un volumen controlado, comprendiendo el sistema:
- una pluralidad de N sensores tridimensionales respectivamente capaces de controlar al menos una parte del volumen controlado, siendo cada sensor de dicha pluralidad de N sensores tridimensionales capaz de adquirir una nube de puntos local en un sistema de coordenadas local de dicho sensor, comprendiendo dicha nube de puntos local un conjunto de puntos D de datos tridimensionales las superficies del objeto en un volumen local que rodea dicho sensor y que se superpone al volumen controlado
- una memoria para almacenar dicha nube de puntos local y un mapa tridimensional global de un volumen controlado que comprende un conjunto de puntos D de datos tridimensionales las superficies del objeto en un volumen controlado, solapando el volumen local menos parcialmente con el volumen controlado,
- una unidad central de procesamiento capaz de recibir las nubes de puntos locales adquiridas de la pluralidad de N sensores tridimensionales, almacenar dichas nubes de puntos adquiridas en una memoria y,
para cada sensor de dicha pluralidad de N sensores tridimensionales,
calcular la posición y orientación tridimensionales actualizadas de dicho sensor en un sistema de coordenadas global del volumen controlado alineando una nube de puntos local adquirida por dicho sensor tridimensional con un mapa tridimensional global del volumen controlado almacenado en una memoria,
generar una nube de puntos local alineada a partir de dicha nube de puntos adquirida sobre la base de la posición y orientación tridimensionales actualizadas del sensor, y
controlar una intrusión en el volumen controlado comparando un espacio libre de dicha nube de puntos local alineada con un espacio libre del mapa tridimensional global.
En algunas realizaciones, también se podría usar una o más de las siguientes características:
- el sistema comprende además al menos una cámara capaz de adquirir una imagen bidimensional de una parte del volumen controlado;
- dicha al menos una cámara comprende al menos un patrón reflectante de manera que un punto de datos de dicho patrón reflectante adquirido por un sensor tridimensional del sistema de control autocalibrado puede asociarse a dicha cámara mediante la unidad central de procesamiento del sistema;
- el sistema comprende además al menos un dispositivo de visualización capaz de mostrar a un usuario una indicación gráfica de la intrusión.
Otro objeto de la invención es un medio de almacenamiento legible por ordenador no transitorio, que ha almacenado en él un programa informático que comprende instrucciones del programa, pudiéndose cargar el programa informático en una unidad central de procesamiento de un sistema de control como se ha detallado anteriormente y adaptado para hacer que la unidad de procesamiento lleve a cabo las etapas de un método como se ha detallado anteriormente, cuando la unidad central de procesamiento ejecuta el programa informático.
Descripción de las figuras
Otras características y ventajas de la invención aparecerán fácilmente a partir de la siguiente descripción de varias de sus realizaciones, proporcionadas como ejemplos no limitativos, y de los dibujos adjuntos.
En los dibujos:
- La figura 1 es una vista superior esquemática de un sistema de control para detectar intrusiones en un volumen controlado de acuerdo con una realización de la invención,
- la figura 2 es un diagrama de flujo que detalla un método para detectar intrusiones en un volumen controlado de acuerdo con una realización de la invención,
- la figura 3 es un diagrama de flujo que detalla un método para determinar un mapa tridimensional global de un volumen controlado y un método para extender un volumen controlado de acuerdo con las realizaciones de la invención,
- la figura 4 es un diagrama de flujo que detalla un método para determinar una ubicación tridimensional de una cámara para un sistema de control autocalibrado de acuerdo con una realización de la invención.
En las diferentes figuras, los mismos signos de referencia designan elementos iguales o similares.
Descripción detallada de la invención
La figura 1 ilustra un sistema 1 de control autocalibrado para detectar intrusiones en un volumen V controlado, capaz de realizar un método para detectar intrusiones en un volumen controlado como se detalla más adelante.
El sistema 1 de control se puede usar para controlar objetos valiosos (control de una cámara acorazada y otras) y/o para controlar áreas de entrada en edificios públicos, aeropuertos, etc. El sistema 1 de control también se puede usar para controlar áreas de trabajo peligrosas alrededor de un robot o una instalación de fábrica por ejemplo. La invención no está restringida a estas aplicaciones y puede usarse en otros campos.
El volumen V controlado puede estar delimitado, por ejemplo, por un suelo F que se extiende a lo largo de un plano horizontal H y paredes reales o virtuales que se extienden a lo largo de una dirección vertical Z perpendicular a dicho plano horizontal H.
El volumen V controlado puede comprender una o varias zonas de peligro o zonas prohibidas F. Una zona prohibida F puede definirse, por ejemplo, mediante el movimiento de un brazo robótico dentro del volumen V. Los objetos que entran en la zona prohibida F pueden ponerse en riesgo por los movimientos del brazo del robot de modo que una intrusión de este tipo debe, por ejemplo, provocar la desconexión del robot. Una zona prohibida F también puede definirse como una zona privada a la que solo deben acceder personas acreditadas por razones de seguridad. Por lo tanto, una zona prohibida F es un área espacial dentro de la zona de control que puede abarcar la zona de control completa en algunas realizaciones de la invención.
Como se ilustra en la figura 1, el sistema de control 1 comprende una pluralidad de N sensores 2 tridimensionales y una unidad central de procesamiento 3.
En una realización, la unidad central de procesamiento 3 está separada de los sensores 2 y está conectada funcionalmente a cada sensor 2 para poder recibir datos de cada sensor 2. La unidad central de procesamiento 3 puede estar conectada a cada sensor 2 mediante una conexión por cable o inalámbrica.
En una variante, la unidad central de procesamiento 3 puede integrarse en uno de los sensores 2, por ejemplo, siendo un circuito de procesamiento integrado en dicho sensor 2.
La unidad central de procesamiento 3 recoge y procesa las nubes de puntos de todos los sensores 2 y, por lo tanto, es, ventajosamente, una sola unidad centralizada.
La unidad central de procesamiento 3 comprende, por ejemplo, un procesador 4 y una memoria 5.
El número N de sensores 2 tridimensionales del sistema 1 de control puede estar comprendido entre 2 y varias decenas de sensores.
Cada sensor 2 tridimensional puede controlar un volumen L local que rodea dicho sensor 2 que se superpone al volumen v controlado.
Más precisamente, cada sensor 2 tridimensional puede adquirir una nube C de puntos locales en un sistema S de coordenadas local de dicho sensor 2. Una nube C de puntos locales comprende un conjunto de puntos D de datos tridimensionales. Cada uno de los puntos D de datos de la nube C de puntos locales corresponde a un punto P de una superficie de un objeto ubicado en el volumen L local que rodea el sensor 2.
Por un "punto de datos tridimensionales", se entienden las coordenadas tridimensionales de un punto P en el entorno del sensor 2. Un punto D de datos tridimensionales puede comprender además características adicionales, por ejemplo, la intensidad de la señal detectada por el sensor 2 en dicho punto P.
El sistema S local de coordenadas de dicho sensor 2 es un sistema S de coordenadas relacionado con dicho sensor 2, por ejemplo con un punto de origen ubicado en la ubicación del sensor. El sistema S local de coordenadas puede ser un sistema de coordenadas cartesianas, cilíndricas o polares.
Un sensor 2 tridimensional puede comprender, por ejemplo, un telémetro láser, tal como un módulo de detección de luz y rango (LIDAR), un módulo de radar, un módulo de rango ultrasónico, un módulo de sonar, un módulo de rango que utiliza triangulación o cualquier otro dispositivo capaz de adquirir la posición de un único o una pluralidad de puntos P del entorno en un sistema S local de coordenadas del sensor 2.
En una realización preferida, un sensor 2 tridimensional emite una señal física inicial y recibe una señal física reflejada a lo largo de la dirección controlada del sistema local de coordenadas. Las señales físicas emitidas y reflejadas pueden ser, por ejemplo, haces de luz, ondas electromagnéticas u ondas acústicas.
A continuación, el sensor 2 calcula un rango, que corresponde a una distancia desde el sensor 2 hasta un punto P de reflexión de la señal inicial en una superficie de un objeto ubicado en el volumen L local que rodea el sensor 2. Dicho rango puede calcularse comparando la señal inicial y la señal reflejada, por ejemplo comparando el tiempo o las fases de emisión y recepción.
Por tanto, los puntos D de datos tridimensionales pueden calcularse a partir de dicho rango y dicha dirección controlada.
En un ejemplo, el sensor 2 comprende un láser que emite pulsos de luz con una velocidad de tiempo constante, siendo desviados dichos pulsos de luz por un espejo en movimiento que gira a lo largo de dos direcciones. El sensor recoge los pulsos de luz reflejada y la diferencia de tiempo entre los pulsos emitidos y recibidos da la distancia de las superficies reflectantes de los objetos en el entorno local del sensor 2. Un procesador del sensor 2, o una unidad de procesamiento separada, transforma después, usando fórmulas trigonométricas simples, cada observación adquirida por el sensor en un punto D de datos tridimensionales.
Periódicamente se adquiere un escaneo completo del entorno local del sensor 2 y comprende un conjunto de puntos D de datos tridimensionales representativos de los objetos en el volumen local del sensor 2.
Por "escaneo completa del entorno local", se entiende que el sensor 2 ha cubierto un campo de visión completo. Por ejemplo, después de un escaneo completo del entorno local, el espejo móvil de un sensor basado en láser vuelve a su posición original y está listo para comenzar un nuevo período de movimiento de rotación. Por lo tanto, una nube C de puntos locales del sensor 2 también se denomina a veces "fotograma" y es el equivalente tridimensional de un fotograma adquirido por una cámara bidimensional.
Un conjunto de puntos D de datos tridimensionales adquiridos en un escaneo completo del entorno local del sensor 2 se denomina nube C de puntos locales.
El sensor 2 puede adquirir periódicamente nubes C de puntos locales con una velocidad de fotogramas dada.
Las nubes C de puntos locales de cada sensor 2 se transmiten a la unidad central de procesamiento 3 y se almacenan en la memoria 5 de la unidad central de procesamiento 3.
Como se detalla a continuación, la memoria 5 de la unidad central de procesamiento 3 también almacena un mapa M tridimensional global del volumen V controlado.
El mapa M tridimensional global comprende un conjunto de puntos D de datos tridimensionales de las superficies del objeto en el volumen V controlado.
Un método para detectar intrusiones en un volumen controlado que ahora se desvelará con mayor detalle con referencia a la figura 2.
El método para detectar intrusiones es realizado por un sistema 1 de control como se ha detallado anteriormente. En una primera etapa del método, cada sensor 2 de los N sensores tridimensionales adquiere una nube C de puntos locales en un sistema S local de coordenadas de dicho sensor 2 como se ha detallado anteriormente.
La unidad central de procesamiento 3 recibe las nubes C de puntos locales adquiridas de los N sensores 2 y almacena dichas nubes C de puntos adquiridas en la memoria 5.
La memoria 5 puede contener otras nubes C de puntos locales de adquisiciones anteriores de cada sensor 2.
En una tercera etapa, la unidad central de procesamiento 3 realiza varias operaciones para cada sensor 2 de los N sensores tridimensionales.
La unidad central de procesamiento 3 primero calcula la posición y orientación tridimensionales actualizadas de cada sensor 2 en un sistema G global de coordenadas del volumen V controlado alineando al menos una nube C de puntos locales adquirida por dicho sensor 2 con el mapa M tridimensional global del volumen V controlado almacenado en la memoria 5.
Por "posición y orientación tridimensionales", se entiende información de la localización 6D para un sensor 2, que comprende, por ejemplo, la posición 3D y la orientación 3D de dicho sensor 2 en un sistema G de coordenadas global.
El sistema G de coordenadas global es un sistema de coordenadas virtual obtenido mediante la alineación de las nubes C de puntos locales. Es posible que no sea necesario calibrar el sistema G de coordenadas global con respecto al entorno físico real del sistema 1, en particular si no hay una zona prohibida F por definir.
Gracias a estas características del método y sistema de acuerdo con la invención, es posible recalibrar automáticamente la posición de cada sensor 2 en cada fotograma. De este modo, los errores de calibración se reducen considerablemente y aumenta la facilidad de uso del sistema. Esto resuelve el problema de fiabilidad cuando los sensores se mueven en el viento o se mueven debido a choques mecánicos.
La posición y orientación tridimensionales actualizadas de un sensor 2 se calculan solo a partir de las nubes C de puntos locales adquiridas por dicho sensor 2 y del mapa M tridimensional global del volumen controlado almacenado en una memoria, y sin información adicional de posicionamiento.
Por "sin información de posicionamiento adicional", se entiende, en particular, que el cálculo de la posición y orientación tridimensionales actualizadas de un sensor no requiere otros datos de entrada que las nubes C de puntos locales adquiridas por dicho sensor 2 y el mapa M tridimensional global. Por ejemplo, no se requiere una localización adicional del dispositivo de orientación, tal como un GPS o un acelerómetro. Además, no se debe suponer la ubicación o el movimiento del sensor.
Con este objetivo, la unidad central de procesamiento 3 realiza una alineación simultánea de barridos múltiples de cada nube C de puntos adquirida por dicho sensor con el mapa tridimensional global del volumen controlado.
Por "alineación simultánea de múltiples barridos", se entiende que las nubes C de puntos adquiridas por los N sensores, junto con el mapa M tridimensional global del volumen controlado, se consideran barridos que deben alinearse simultáneamente.
En una realización, las nubes C de puntos adquiridas por los N sensores durante el tiempo de funcionamiento se alinean en cada etapa. Por ejemplo, el sistema puede haber realizado M fotogramas de adquisición sucesivos de los sensores 2 hasta un tiempo t actual. Las M nubes C de puntos adquiridas por los N sensores se agrupan así con el mapa M tridimensional global para formar M * N 1 barridos para que la unidad central de procesamiento 3 los alinee.
En una variante, las M-1 nubes C de puntos previamente adquiridas pueden reemplazarse por sus nubes A de puntos alineadas asociadas respectivamente como se detalla más adelante. La (M-1)*N nube A de puntos alineados puede, por lo tanto, agruparse con las N nubes C de puntos adquiridas más recientes y con el mapa M tridimensional global para formar nuevamente M * N 1 barridos para ser alineados juntos por la unidad central de procesamiento 3.
Tal alineación simultánea de múltiples barridos puede realizarse, por ejemplo, utilizando un algoritmo de punto más cercano iterativo (ICP) como se detalla en P.J. Besl y N.D. McKay en "A method for registration of 3-d shapes" published in IEEE Transactions on Pattern Analysis and Machine Intelligence, 14(2):239-256, 1992 o en "Object modelling by registration of multiple range images" de Yang Chen y Gerard Medioni publicado en Image Vision Comput., 10(3), 1992. Un algoritmo ICP implica la búsqueda en el espacio de transformación tratando de encontrar el conjunto de transformaciones de barridos en pares optimizando una función definida en el espacio de transformación. La variante de ICP implica funciones de optimización que van desde métricas de error como "suma de distancias de mínimos cuadrados" hasta métricas de calidad como "distancia de imagen" o métricas probabilísticas. En esta realización, la unidad central de procesamiento 3 puede optimizar de este modo una función definida en un espacio de transformación de cada nube C de puntos para determinar la posición y orientación tridimensionales actualizadas de un sensor 2.
De esta manera, es posible realizar de manera fácil y eficiente una alineación simultánea de múltiples barridos de cada nube C de punto para calcular la posición y orientación tridimensionales actualizadas de un sensor 2.
A continuación, la unidad central de procesamiento 3 genera una nube A de puntos locales alineada asociada a cada nube C de puntos adquirida en la que los puntos D de datos de dicha nube C de punto se traducen desde el sistema S local de coordenadas al sistema G de coordenadas global del mapa M tridimensional global. La nube A de puntos locales alineada se determina sobre la base de la posición y orientación tridimensionales actualizadas del sensor 2.
La nube A de puntos locales alineada de cada sensor 2 se puede comparar de manera fiable, ya que la posición y orientación de cada sensor se han actualizado durante el proceso.
En una etapa posterior del método, la unidad central de procesamiento 3 puede controlar una intrusión en el volumen V controlado.
Con este objetivo, la unidad central de procesamiento 3 puede comparar un espacio libre de cada nube A de puntos locales alineada con un espacio libre del mapa M tridimensional global.
Con este objetivo, el volumen V de control puede dividirse, por ejemplo, en una matriz de volúmenes E elementales y cada volumen E elemental puede marcarse como "espacio libre" o "espacio ocupado" sobre la base del mapa M tridimensional global.
La nube A de puntos locales alineada se puede usar para determinar una alerta actualizada para el volumen E elemental contenido en el volumen L local que rodea un sensor 2.
Un cambio en la señalización de un volumen E elemental de "espacio libre" a "espacio ocupado", por ejemplo, por intrusión de un objeto O como se ilustra en la figura 1, puede activar la detección de una intrusión en el volumen V controlado por el Unidad central de procesamiento 3.
En una realización de la invención, el mapa M tridimensional global del volumen V controlado puede ser determinado por el propio sistema 1 de control de manera automatizada como se describirá a continuación con referencia a la figura 3.
Con este fin, los N sensores tridimensionales pueden ubicarse de modo que la unión de los volúmenes L locales que rodean dichos sensores 2 sea un espacio conectado. Este espacio conectado forma el volumen controlado.
Por "espacio conectado", se entiende que la unión de los volúmenes L locales que rodean los N sensores 2 forman un espacio único y no dos o más subespacios abiertos no vacíos disjuntos.
A continuación, se puede determinar un mapa M tridimensional global del volumen V controlado recibiendo primero al menos una nube C de puntos locales de cada uno de dichos sensores y almacenando dichas nubes C de puntos locales en la memoria 5 del sistema.
A continuación, la unidad central de procesamiento 5 realiza una alineación simultánea de barridos múltiples de las nubes C de puntos locales almacenadas para generar una pluralidad de nubes A de puntos locales alineadas como se ha detallado anteriormente. Cada nube A de puntos locales alineada está asociada, respectivamente, a una nube C de puntos locales adquirida de un sensor 2 tridimensional.
A diferencia de lo que se ha detallado anteriormente, los fotogramas utilizados para la alineación simultánea de múltiples barridos no comprenden el mapa M tridimensional global ya que aún no se ha determinado. Los fotogramas utilizados para la alineación simultánea de barridos múltiples pueden comprender una pluralidad de M nubes C de puntos adquiridas sucesivamente para cada sensor 2. Las M nubes C de puntos adquiridas por los N sensores se agrupan así para formar M * N 1 barridos para que la unidad central de procesamiento 3 los alinee como se ha detallado anteriormente.
Al alinear las nubes C de puntos locales almacenadas, se obtiene un sistema G de coordenadas global en el que las nubes A de puntos locales alineadas se pueden comparar juntas.
Una vez que se ha determinado la pluralidad de nubes A de puntos locales alineadas, la unidad central de procesamiento 5 puede fusionar de este modo la pluralidad de nubes A de puntos locales alineadas para formar un mapa M tridimensional global del volumen controlado V. El mapa M tridimensional global se almacena después en la memoria 5 del sistema 1.
En una realización de la invención, una vez que el sistema 1 ha detectado una intrusión, el método puede implicar además mostrar a un usuario una indicación gráfica I de la intrusión en un dispositivo 6 de visualización.
El dispositivo 6 de visualización puede ser cualquier pantalla, LCD, OLED y similares, que sea conveniente para un operador del sistema 1. El dispositivo 6 de visualización está conectado y controlado por la unidad central de procesamiento 3 del sistema 1.
En una primera realización del método, la unidad de procesamiento 3 puede generar una imagen bidimensional B del volumen V controlado proyectando el mapa M tridimensional global del volumen V controlado a lo largo de una dirección de observación.
A continuación, la unidad de procesamiento 3 puede ordenar al dispositivo 6 de visualización que muestre la indicación I gráfica de la intrusión superpuesta sobre dicha imagen B bidimensional del volumen V controlado.
En otra realización, el sistema 1 puede comprender además al menos una cámara 7. La cámara 7 puede ser capaz de adquirir directamente una imagen B bidimensional de una parte del volumen V controlado. La cámara 7 está conectada y controlada por la unidad central de procesamiento 3 del sistema 1.
A continuación, la unidad central de procesamiento 3 puede ordenar al dispositivo 6 de visualización que muestre la indicación I gráfica de la intrusión superpuesta sobre la imagen B bidimensional adquirida por la cámara 7.
En una variante, la unidad central de procesamiento 3 puede controlar la panorámica, la rotación o el zoom de la cámara 7 para que la intrusión detectada pueda ubicarse en un campo de visión de la cámara 7.
Con este objetivo, otro objeto de la invención es un método para determinar una ubicación tridimensional de una cámara 7 de un sistema 1 de control autocalibrado como se ha descrito anteriormente. Este método permite una fácil calibración sin requerir una medición manual y la entrada de la posición de la cámara 7 en el volumen V de control. Una realización de este método se ilustra en la figura 4.
La cámara 7 está provista de al menos un patrón 8 reflectante. El patrón 8 reflectante es tal que un punto de datos de dicho patrón reflectante adquirido por un sensor 2 tridimensional del sistema 1 de control autocalibrado puede asociarse a dicha cámara mediante la unidad central de procesamiento 3 del sistema 1.
El patrón 8 reflectante puede estar hecho de un material de alta reflectividad de modo que los puntos D de datos Del patrón 8 reflectante adquiridos por el sensor 2 presenten una alta intensidad, por ejemplo, una intensidad por encima de una intensidad umbral predefinida.
El patrón 8 reflectante también puede tener una forma predefinida, por ejemplo, la forma de una cruz o un círculo o marcadores en "L". Tal forma puede ser identificada por la unidad central de procesamiento 3 utilizando algoritmos de análisis de datos e imágenes conocidos HABITUALMENTE.
En una primera etapa del método para determinar una ubicación tridimensional de una cámara 7, la cámara se coloca en el volumen V controlado. La cámara 7 está dispuesta en al menos un volumen L local que rodea un sensor 2 del sistema 1, de modo que el patrón 8 reflectante de la cámara 7 está en un campo de visión de al menos un sensor 2 de la pluralidad de N sensores tridimensionales. Dicho al menos un sensor 2 puede así adquirir una nube C de puntos locales que comprende al menos un punto D de datos tridimensionales correspondiente al patrón 8 reflectante de la cámara 7.
A continuación, la unidad central de procesamiento 3 recibe una nube C de puntos locales de dicho al menos un sensor tridimensional y calcula una nube A de puntos locales alineada alineando dicha nube C de puntos locales con el mapa M tridimensional global del sistema de control autocalibrado como se ha detallado anteriormente.
En la nube A de puntos locales alineada, la unidad central de procesamiento 3 puede identificar después al menos un punto de datos correspondiente al patrón 8 reflectante de la cámara 7. Como se ha mencionado anteriormente, esta identificación puede realizarse sobre la base de la intensidad de los puntos D de datos recibidos del sensor 2 y/o la forma de los puntos de datos de alta intensidad adquiridos por el sensor 2. Esta identificación puede realizarse utilizando algoritmos de procesamiento de datos e imágenes conocidos, por ejemplo, la biblioteca OpenCV.
Eventualmente, la unidad central de procesamiento 3 puede determinar una ubicación y/u orientación tridimensionales de la cámara en el sistema G de coordenadas global del mapa M tridimensional global sobre la base de las coordenadas de dicho punto de datos identificado del patrón 8 reflectante de la cámara 7 en la nube A de puntos locales alineada.
El concepto subyacente de la invención también se puede usar para extender de manera fácil y eficiente un volumen controlado por un sistema y un método como se ha detallado anteriormente.
Tal método puede encontrar interés en muchas situaciones en las que un ligero cambio en el volumen controlado implica mover o agregar sensores 2 adicionales y generalmente requiere una calibración manual compleja y lenta del sistema de control. Por el contrario, la presente invención proporciona un sistema y método de autocalibración que supera esos problemas.
Por lo tanto, otro objeto de la invención es un método para extender un volumen controlado por un método y sistema como se ha detallado anteriormente.
En el sistema 1 de control, una pluralidad de N sensores 2 tridimensionales controlan, respectivamente, al menos una parte del volumen V controlado y se comunican respectivamente con una unidad central de procesamiento 3 como se ha detallado anteriormente. Un mapa M tridimensional global está asociado al volumen V controlado por los N sensores 2 tridimensionales como se ha detallado anteriormente.
El método para extender el volumen controlado por el sistema 1 implica así determinar un mapa M' tridimensional global actualizado del sistema de control autocalibrado asociado a un volumen V' actualizado controlado por los N 1 sensores 2 tridimensionales.
El método para extender el volumen controlado por el sistema 1 implica primero colocar un N+lésimo sensor 2 tridimensional adicional capaz de comunicarse con la unidad central de procesamiento 3.
El N+lésimo sensor 2 tridimensional adicional es similar a los N sensores 2 del sistema 1 de control y, por lo tanto, puede adquirir una nube C de puntos locales en un sistema L local de coordenadas de dicho sensor 2. Esta nube C de puntos locales comprende un conjunto de puntos D de datos tridimensionales de las superficies del objeto en un volumen L local que rodea dicho sensor 2. El volumen L local se superpone al menos parcialmente al volumen V controlado por la pluralidad de N sensores tridimensionales.
El mapa M tridimensional global actualizado del sistema de control autocalibrado se puede determinar de la siguiente manera.
En primer lugar, la unidad central de procesamiento 3 recibe al menos una nube C de puntos locales adquirida de cada uno de dichos al menos dos sensores tridimensionales y almacenar dichas nubes de puntos locales en una memoria.
A continuación, la unidad central de procesamiento 3 realiza una alineación simultánea de barridos múltiples de las nubes C de puntos locales almacenadas para generar una pluralidad de nubes A de puntos locales alineadas, respectivamente, asociadas a las nubes C de puntos locales adquiridas de cada sensor 2 como se ha detallado anteriormente.
La alineación de barridos múltiples se puede calcular en un grupo de barridos que comprende el mapa M tridimensional global.
Esto es particularmente interesante si la unión de los volúmenes L locales que rodean los sensores 2 tridimensionales no es un espacio conectado.
La alineación de barridos múltiples también se puede calcular solo en las nubes C de puntos adquiridas por los sensores 2.
En este caso, la determinación del mapa M tridimensional global actualizado M es similar al cálculo del mapa M tridimensional global del volumen V controlado por el sistema 1 de control como se ha detallado anteriormente. Una vez que se ha determinado la pluralidad de nubes A de puntos locales alineadas, la unidad central de procesamiento 5 puede fusionar la pluralidad de nubes A de puntos locales alineadas y, si es necesario, el mapa M tridimensional global, para formar un mapa M' tridimensional global actualizado del volumen V' controlado actualizado. El mapa M' tridimensional global actualizado se almacena después en la memoria 5 del sistema 1 para uso futuro en un método para detectar intrusiones en un volumen controlado como se ha detallado anteriormente.

Claims (14)

REIVINDICACIONES
1. Un método para detectar intrusiones en un volumen controlado, en el cual una pluralidad de N sensores (2) tridimensionales controlan, respectivamente, al menos una parte de un volumen (V) controlado y se comunican, respectivamente, con una unidad central de procesamiento (3), que comprende:
- cada sensor (2) de dicha pluralidad de N sensores tridimensionales adquiere una nube (C) de puntos locales en un sistema (S) local de coordenadas de dicho sensor, comprendiendo dicha nube de puntos locales un conjunto de puntos (D) de datos tridimensionales de las superficies del objeto en un volumen (L) local que rodea dicho sensor (2) y que se superpone al volumen (V) controlado,
- dicha unidad central de procesamiento (3) recibe las nubes (C) de puntos locales adquiridas de la pluralidad de N sensores (2) tridimensionales, almacenando dichas nubes (C) de puntos adquiridas en una memoria (5) y, para cada sensor (2) de dicha pluralidad de N sensores (2) tridimensionales,
calcular la posición y orientación tridimensionales actualizadas de dicho sensor (2) en un sistema (G) de coordenadas global del volumen controlado alineando una nube (C) de puntos locales adquirida por dicho sensor tridimensional con un mapa (M) tridimensional global del volumen (V) controlado, que se determina de manera automatizada y se almacena en una memoria (5), y
generar una nube (A) de puntos local alineada en el sistema (G) de coordenadas global a partir de dicha nube (C) de puntos adquirida sobre la base de la posición y orientación tridimensionales actualizadas del sensor (2), - controlar una intrusión en el volumen (V) controlado comparando un espacio libre de dicha nube (A) de puntos locales alineada con un espacio libre del mapa (M) tridimensional global.
2. El método de acuerdo con la reivindicación 1, en el que, para cada sensor (2) de dichos al menos dos sensores tridimensionales, la posición y orientación tridimensionales actualizadas de dicho sensor en el sistema (G) de coordenadas global se calcula realizando una alineación simultánea de múltiples barridos de cada nube (C) de puntos adquirida por dicho sensor (2) con el mapa (M) tridimensional global del volumen (V) controlado.
3. El método de acuerdo con la reivindicación 1 o 2, en el que la posición y orientación tridimensionales actualizadas de cada sensor (2) de dichos al menos dos sensores se calcula solo a partir de las nubes (C) de puntos locales adquiridas por dicho sensor tridimensional y el mapa ( M) tridimensional global del volumen (V) controlado almacenado en una memoria (5) y sin información adicional de posicionamiento.
4. El método de acuerdo con una cualquiera de las reivindicaciones 1 a 3, en el que los N sensores (2) tridimensionales están ubicados de manera que la unión de los volúmenes (L) locales que rodean dichos sensores es un espacio conectado, formando dicho espacio conectado formando el volumen (V) controlado,
y en el que el mapa (M) tridimensional global del volumen (V) controlado está determinado por
- recibir al menos una nube (C) de puntos locales de cada uno de dichos al menos dos sensores (2) tridimensionales y almacenar dichas nubes (C) de puntos locales en una memoria (5),
- realizar una alineación simultánea de barridos múltiples de las nubes (C) de puntos locales almacenadas para generar una pluralidad de nubes (A) de puntos locales alineadas asociadas, respectivamente, a las nubes de puntos locales adquiridas de cada uno de dichos al menos dos sensores tridimensionales, y
- fusionar dicha pluralidad de nubes (A) de puntos locales alineadas para determinar un mapa (M) tridimensional global del volumen (V) controlado y almacenar dicho mapa tridimensional global en la memoria (5).
5. El método de acuerdo con una cualquiera de las reivindicaciones 1 a 4, que comprende además mostrar a un usuario una indicación gráfica de la intrusión en un dispositivo (6) de visualización.
6. El método de acuerdo con la reivindicación 5, que comprende además generar una imagen bidimensional del volumen (V) controlado mediante la proyección del mapa (M) tridimensional global del volumen (V) controlado y ordenar al dispositivo (6) de visualización que muestre la indicación gráfica de la intrusión superpuesta sobre dicha imagen bidimensional del volumen (V) controlado.
7. El método de acuerdo con una cualquiera de las reivindicaciones 1 a 6, que comprende además ordenar al dispositivo (6) de visualización que muestre la indicación gráfica de la intrusión superpuesta sobre una imagen bidimensional de al menos una parte del volumen controlado adquirido por una cámara (7) del sistema (1) de control autocalibrado.
8. El método de acuerdo con la reivindicación 7, que comprende además orientar la cámara (7) del sistema (1) de control autocalibrado para que la intrusión detectada se ubique en un campo de visión de la cámara (7).
9. Un método para extender un volumen controlado por un método de acuerdo con una cualquiera de las reivindicaciones 1 a 8, en el que una pluralidad de N sensores (2) tridimensionales controlan, respectivamente, al menos una parte del volumen (V) controlado y se comunican, respectivamente, con un procesamiento central unidad (5), que comprende:
- colocar un sensor tridimensional N lésimo adicional (2) que se comunica con la unidad central de procesamiento (3), adquiriendo el sensor tridimensional N lésimo adicional una nube (C) de puntos locales en un sistema (S) local de coordenadas de dicho sensor, comprendiendo dicha nube (C) de puntos locales un conjunto de puntos (D) de datos tridimensionales de superficies de objetos en un volumen (L) local que rodea dicho sensor y que se solapa al menos parcialmente con el volumen controlado por la pluralidad de N sensores tridimensionales,
- determinar un mapa (M) tridimensional global actualizado del sistema de control autocalibrado mediante
recibir al menos una nube de puntos locales adquirida de cada uno de dichos al menos dos sensores tridimensionales y almacenar dichas nubes de puntos locales en una memoria,
realizar una alineación simultánea de barridos múltiples de las nubes de puntos locales almacenadas (C) para generar una pluralidad de nubes de puntos locales alineadas, respectivamente, asociadas a las nubes de puntos locales adquiridas de cada uno de dichos al menos dos sensores tridimensionales, y
determinar un mapa (M) tridimensional global de un volumen controlado fusionando dicha pluralidad de nubes de puntos locales alineadas.
10. Un sistema (1) de control autocalibrado para detectar intrusiones en un volumen (V) controlado, comprendiendo el sistema:
- una pluralidad de N sensores (2) tridimensionales, respectivamente, capaces de controlar (M) al menos una parte del volumen controlado, pudiendo cada sensor de dicha pluralidad de N sensores (2) tridimensionales adquirir una nube (C) de puntos locales en un sistema (S) local de coordenadas de dicho sensor, comprendiendo dicha nube de puntos locales un conjunto de puntos (D) de datos tridimensionales de superficies de objetos en un volumen (L) local que rodea dicho sensor y se superpone al volumen controlado
- una memoria (5) para almacenar dicha nube (C) de puntos local y un mapa (M) tridimensional global de un volumen controlado que comprende un conjunto de puntos D de datos tridimensionales se las superficies del objeto en un volumen (V) controlado, solapando el volumen local menos parcialmente con el volumen controlado, - una unidad central de procesamiento (3) capaz de recibir las nubes de puntos locales adquiridas de la pluralidad de N sensores (2) tridimensionales, almacenar dichas nubes de puntos adquiridas en una memoria y,
para cada sensor (2) de dicha pluralidad de N sensores tridimensionales,
calcular la posición y orientación tridimensionales actualizadas de dicho sensor (2) en un sistema (G) de coordenadas global del volumen (V) controlado alineando una nube (C) de puntos locales adquirida por dicho sensor tridimensional con un mapa (M) tridimensional global del volumen controlado, que se determina mediante el sistema (1) de control y se almacena en una memoria,
generar una nube (A) de puntos local alineada en el sistema (G) de coordenadas global a partir de dicha nube de puntos adquirida sobre la base de la posición y orientación tridimensionales actualizadas del sensor (2), y controlar una intrusión en el volumen (V) controlado comparando un espacio libre de dicha nube (A) de puntos locales alineada con un espacio libre del mapa (M) tridimensional global.
11. El sistema de control de acuerdo con la reivindicación 10, que comprende además al menos una cámara (7) capaz de adquirir una imagen bidimensional de una parte del volumen (V) controlado.
12. El sistema de control de acuerdo con la reivindicación 11, en el que dicha al menos una cámara (7) comprende al menos un patrón (8) reflectante de tal manera que un punto de datos de dicho patrón (8) reflectante adquirido por un sensor (2) tridimensional del sistema (1) de control autocalibrado puede ser asociado por el sistema (1) de control autocalibrado a dicha cámara (7).
13. El sistema de control de acuerdo con una cualquiera de las reivindicaciones 10 a 12, que comprende además al menos un dispositivo (6) de visualización capaz de mostrar a un usuario una indicación gráfica de la intrusión.
14. Un medio de almacenamiento legible por ordenador no transitorio, que ha almacenado en él un programa informático que comprende instrucciones del programa, pudiéndose cargar el programa informático en una unidad central de procesamiento (3) de un sistema de control de acuerdo con una cualquiera de las reivindicaciones 10 a 13 y adaptado para hacer que la unidad de procesamiento (3) lleve a cabo las etapas de un método de acuerdo con una cualquiera de las reivindicaciones 1 a 9, cuando la unidad central de procesamiento ejecuta el programa informático.
ES16175808T 2016-06-22 2016-06-22 Métodos y sistemas para detectar intrusiones en un volumen controlado Active ES2800725T3 (es)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
EP16175808.1A EP3261071B1 (en) 2016-06-22 2016-06-22 Methods and systems for detecting intrusions in a monitored volume

Publications (1)

Publication Number Publication Date
ES2800725T3 true ES2800725T3 (es) 2021-01-04

Family

ID=56148318

Family Applications (1)

Application Number Title Priority Date Filing Date
ES16175808T Active ES2800725T3 (es) 2016-06-22 2016-06-22 Métodos y sistemas para detectar intrusiones en un volumen controlado

Country Status (6)

Country Link
US (2) US10878689B2 (es)
EP (2) EP3657455B1 (es)
CN (1) CN109362237B (es)
CA (1) CA3024504A1 (es)
ES (1) ES2800725T3 (es)
WO (1) WO2017220714A1 (es)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109949347B (zh) * 2019-03-15 2021-09-17 百度在线网络技术(北京)有限公司 人体跟踪方法、装置、***、电子设备和存储介质
CN111724558B (zh) * 2019-03-21 2021-10-19 杭州海康威视数字技术股份有限公司 一种监控方法、装置及入侵报警***
US10943456B1 (en) * 2019-09-30 2021-03-09 International Business Machines Corporation Virtual safety guardian
CN110927731B (zh) * 2019-11-15 2021-12-17 深圳市镭神智能***有限公司 一种立体防护方法、三维检测装置和计算机可读存储介质
US11327506B2 (en) * 2019-11-20 2022-05-10 GM Global Technology Operations LLC Method and system for localized travel lane perception
US11216669B1 (en) * 2020-01-16 2022-01-04 Outsight SA Single frame motion detection and three-dimensional imaging using free space information
EP4097968B1 (en) * 2020-01-30 2024-07-24 Outsight A surveillance sensor system
CN111553844B (zh) 2020-04-29 2023-08-29 阿波罗智能技术(北京)有限公司 用于更新点云的方法及装置
CN112732313B (zh) * 2020-12-21 2021-12-21 南方电网电力科技股份有限公司 一种变电站巡检机器人地图增量更新方法及***

Family Cites Families (68)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5517429A (en) * 1992-05-08 1996-05-14 Harrison; Dana C. Intelligent area monitoring system
IL106617A (en) * 1993-08-08 1995-06-29 Israel State Intrusion detector
US5910767A (en) * 1997-07-11 1999-06-08 Laser Guard Intruder detector system
US6560354B1 (en) * 1999-02-16 2003-05-06 University Of Rochester Apparatus and method for registration of images to physical space using a weighted combination of points and surfaces
US7208720B2 (en) * 1999-07-06 2007-04-24 Larry C. Hardin Intrusion detection system
US7995096B1 (en) * 1999-09-23 2011-08-09 The Boeing Company Visual security operations system
US7433493B1 (en) * 2000-09-06 2008-10-07 Hitachi, Ltd. Abnormal behavior detector
CN1554193A (zh) * 2001-07-25 2004-12-08 �����J��ʷ����ɭ 摄像机控制装置及方法
JP2003187342A (ja) * 2001-12-19 2003-07-04 Hitachi Ltd セキュリティシステム
JP4006577B2 (ja) 2002-03-13 2007-11-14 オムロン株式会社 監視装置
JP3704706B2 (ja) * 2002-03-13 2005-10-12 オムロン株式会社 三次元監視装置
US8111289B2 (en) * 2002-07-15 2012-02-07 Magna B.S.P. Ltd. Method and apparatus for implementing multipurpose monitoring system
US7317456B1 (en) * 2002-12-02 2008-01-08 Ngrain (Canada) Corporation Method and apparatus for transforming point cloud data to volumetric data
JP4568009B2 (ja) * 2003-04-22 2010-10-27 パナソニック株式会社 カメラ連携による監視装置
JP4609125B2 (ja) 2004-05-06 2011-01-12 日本電気株式会社 データ転送システムおよびその方法
DE102004043515A1 (de) 2004-09-08 2006-03-09 Sick Ag Verfahren und Vorrichtung zum Erfassen eines Objekts
US8284254B2 (en) * 2005-08-11 2012-10-09 Sightlogix, Inc. Methods and apparatus for a wide area coordinated surveillance system
US8471910B2 (en) * 2005-08-11 2013-06-25 Sightlogix, Inc. Methods and apparatus for providing fault tolerance in a surveillance system
DE102005063217C5 (de) 2005-12-22 2022-08-18 Pilz Gmbh & Co. Kg Verfahren zum Konfigurieren einer Überwachungseinrichtung zum Überwachen eines Raumbereichsund entsprechende Überwachungseinrichtung
US7940955B2 (en) * 2006-07-26 2011-05-10 Delphi Technologies, Inc. Vision-based method of determining cargo status by boundary detection
US8619140B2 (en) 2007-07-30 2013-12-31 International Business Machines Corporation Automatic adjustment of area monitoring based on camera motion
US8002465B2 (en) * 2007-11-19 2011-08-23 Pyronia Medical Technologies, Inc. Patient positioning system and methods for diagnostic radiology and radiotherapy
US20090153326A1 (en) * 2007-12-13 2009-06-18 Lucent Technologies, Inc. Method for locating intruder
CN101350125A (zh) * 2008-03-05 2009-01-21 中科院嘉兴中心微***所分中心 三维智能防入侵***
CN101236688B (zh) * 2008-03-05 2011-08-24 中国科学院嘉兴无线传感网工程中心 基于传感器网络技术的防入侵传感器***测试平台
WO2009121053A2 (en) * 2008-03-28 2009-10-01 On-Net Surveillance Systems, Inc. Method and systems for video collection and analysis thereof
US8086876B2 (en) * 2008-07-02 2011-12-27 Dell Products L.P. Static and dynamic power management for a memory subsystem
US8294881B2 (en) * 2008-08-26 2012-10-23 Honeywell International Inc. Security system using LADAR-based sensors
US7961137B2 (en) * 2008-11-10 2011-06-14 The Boeing Company System and method for detecting performance of a sensor field at all points within a geographic area of regard
WO2010141120A2 (en) * 2009-02-20 2010-12-09 Digital Signal Corporation System and method for generating three dimensional images using lidar and video measurements
US9536348B2 (en) * 2009-06-18 2017-01-03 Honeywell International Inc. System and method for displaying video surveillance fields of view limitations
JP5643552B2 (ja) * 2010-06-28 2014-12-17 キヤノン株式会社 撮像装置
US9087258B2 (en) * 2010-08-17 2015-07-21 Lg Electronics Inc. Method for counting objects and apparatus using a plurality of sensors
ES2392229B1 (es) * 2010-08-27 2013-10-16 Telefónica, S.A. Método de generación de un modelo de un objeto plano a partir de vistas del objeto.
US8890936B2 (en) * 2010-10-12 2014-11-18 Texas Instruments Incorporated Utilizing depth information to create 3D tripwires in video
US8829417B2 (en) * 2010-11-08 2014-09-09 The Johns Hopkins University Lidar system and method for detecting an object via an optical phased array
JP5883881B2 (ja) * 2010-11-17 2016-03-15 オムロン サイエンティフィック テクノロジーズ, インコーポレイテッドOmron Scientific Technologies, Inc. ゾーンを監視する方法及び装置
EP2772676B1 (de) * 2011-05-18 2015-07-08 Sick Ag 3D-Kamera und Verfahren zur dreidimensionalen Überwachung eines Überwachungsbereichs
KR101302803B1 (ko) * 2011-05-26 2013-09-02 주식회사 엘지씨엔에스 네트워크 카메라를 이용한 지능형 감시 방법 및 시스템
US20140225988A1 (en) * 2011-09-07 2014-08-14 Commonwealth Scientific And Industrial Research Organisation System and method for three-dimensional surface imaging
DE102012212613A1 (de) * 2012-07-18 2014-01-23 Robert Bosch Gmbh Überwachungssystem mit positionsabhängigem Schutzbereich, Verfahren zur Überwachung eines Überwachungsbereichs sowie Computerprogramm
EP2893521A1 (en) * 2012-09-07 2015-07-15 Siemens Schweiz AG Methods and apparatus for establishing exit/entry criteria for a secure location
CN104756165B (zh) * 2012-09-13 2017-09-22 Mbda英国有限公司 房间占用感测装置和方法
US20140104413A1 (en) * 2012-10-16 2014-04-17 Hand Held Products, Inc. Integrated dimensioning and weighing system
WO2014080330A2 (en) * 2012-11-22 2014-05-30 Geosim Systems Ltd. Point-cloud fusion
US9182812B2 (en) * 2013-01-08 2015-11-10 Ayotle Virtual sensor systems and methods
US9080856B2 (en) * 2013-03-13 2015-07-14 Intermec Ip Corp. Systems and methods for enhancing dimensioning, for example volume dimensioning
US10228452B2 (en) * 2013-06-07 2019-03-12 Hand Held Products, Inc. Method of error correction for 3D imaging device
US20150062123A1 (en) * 2013-08-30 2015-03-05 Ngrain (Canada) Corporation Augmented reality (ar) annotation computer system and computer-readable medium and method for creating an annotated 3d graphics model
US9652852B2 (en) * 2013-09-24 2017-05-16 Faro Technologies, Inc. Automated generation of a three-dimensional scanner video
CN104574722A (zh) * 2013-10-12 2015-04-29 北京航天长峰科技工业集团有限公司 一种基于多传感器的海港安全控制***
US9412040B2 (en) * 2013-12-04 2016-08-09 Mitsubishi Electric Research Laboratories, Inc. Method for extracting planes from 3D point cloud sensor data
US9237315B2 (en) * 2014-03-03 2016-01-12 Vsk Electronics Nv Intrusion detection with directional sensing
US9641830B2 (en) * 2014-04-08 2017-05-02 Lucasfilm Entertainment Company Ltd. Automated camera calibration methods and systems
US9823059B2 (en) * 2014-08-06 2017-11-21 Hand Held Products, Inc. Dimensioning system with guided alignment
WO2016116946A2 (en) * 2015-01-20 2016-07-28 Indian Institute Of Technology, Bombay A system and method for obtaining 3-dimensional images using conventional 2-dimensional x-ray images
US10142538B2 (en) * 2015-02-24 2018-11-27 Redrock Microsystems, Llc LIDAR assisted focusing device
US10436904B2 (en) * 2015-04-15 2019-10-08 The Boeing Company Systems and methods for modular LADAR scanning
US10066982B2 (en) * 2015-06-16 2018-09-04 Hand Held Products, Inc. Calibrating a volume dimensioner
CN104935893B (zh) * 2015-06-17 2019-02-22 浙江大华技术股份有限公司 监视方法和装置
US9857167B2 (en) * 2015-06-23 2018-01-02 Hand Held Products, Inc. Dual-projector three-dimensional scanner
US10795000B2 (en) * 2015-07-10 2020-10-06 The Boeing Company Laser distance and ranging (LADAR) apparatus, array, and method of assembling thereof
US10249030B2 (en) * 2015-10-30 2019-04-02 Hand Held Products, Inc. Image transformation for indicia reading
US9855661B2 (en) * 2016-03-29 2018-01-02 The Boeing Company Collision prevention in robotic manufacturing environments
US9824559B2 (en) * 2016-04-07 2017-11-21 Tyco Fire & Security Gmbh Security sensing method and apparatus
US10718613B2 (en) * 2016-04-19 2020-07-21 Massachusetts Institute Of Technology Ground-based system for geolocation of perpetrators of aircraft laser strikes
US11379688B2 (en) * 2017-03-16 2022-07-05 Packsize Llc Systems and methods for keypoint detection with convolutional neural networks
US10789506B2 (en) * 2018-09-24 2020-09-29 Rockwell Automation Technologies, Inc. Object intrusion detection system and method

Also Published As

Publication number Publication date
US10878689B2 (en) 2020-12-29
CA3024504A1 (en) 2017-12-28
CN109362237B (zh) 2021-06-25
US20200175844A1 (en) 2020-06-04
EP3261071A1 (en) 2017-12-27
EP3261071B1 (en) 2020-04-01
WO2017220714A1 (en) 2017-12-28
CN109362237A (zh) 2019-02-19
EP3657455A1 (en) 2020-05-27
EP3657455B1 (en) 2024-04-24
US20210125487A1 (en) 2021-04-29
US11335182B2 (en) 2022-05-17

Similar Documents

Publication Publication Date Title
ES2800725T3 (es) Métodos y sistemas para detectar intrusiones en un volumen controlado
CN108663681B (zh) 基于双目摄像头与二维激光雷达的移动机器人导航方法
US9898821B2 (en) Determination of object data by template-based UAV control
US8699005B2 (en) Indoor surveying apparatus
US9188430B2 (en) Compensation of a structured light scanner that is tracked in six degrees-of-freedom
US20150323672A1 (en) Point-cloud fusion
US9746311B2 (en) Registering of a scene disintegrating into clusters with position tracking
CN108089196A (zh) 一种光学主被动融合的非合作目标位姿测量装置
RU2652535C2 (ru) Способ и система измерения расстояния до удаленных объектов
US11145116B2 (en) System and method of scanning an environment and generating two dimensional images of the environment
US20220057518A1 (en) Capturing environmental scans using sensor fusion
JP6333396B2 (ja) モバイルプラットフォームの変位を計測する方法及び装置
EP3566178A1 (en) Tracking image collection for digital capture of environments, and associated systems and methods
JP2017096813A (ja) キャリブレーション装置、キャリブレーション方法およびキャリブレーションプログラム
Piniotis et al. Experimental assessment of 3D narrow space mapping technologies
ES2918126T3 (es) Medidor de sondeo portátil y método
ES2742831T3 (es) Aparato y método para determinar elementos de referencia de un entorno
Pfeifer et al. The Riegl laser scanner for the survey of the interiors of Schönbrunn Palace
EP4024339A1 (en) Automatic registration of multiple measurement devices
EP4181063A1 (en) Markerless registration of image data and laser scan data
US20240210563A1 (en) Scanning project planning
Jia A Model-based, Optimal Design System for Terrestrial Laser Scanning Networks in Complex Sites
Ravi Interactive Environment for the Calibration and Visualization of Multi-Sensor Mobile Mapping Systems
Li et al. Mapping gray-scale image to 3D surface scanning data by ray tracing