ES2924977T3 - Sistema y procedimiento de detección automática de daños en vehículos - Google Patents

Sistema y procedimiento de detección automática de daños en vehículos Download PDF

Info

Publication number
ES2924977T3
ES2924977T3 ES19162604T ES19162604T ES2924977T3 ES 2924977 T3 ES2924977 T3 ES 2924977T3 ES 19162604 T ES19162604 T ES 19162604T ES 19162604 T ES19162604 T ES 19162604T ES 2924977 T3 ES2924977 T3 ES 2924977T3
Authority
ES
Spain
Prior art keywords
vehicle
images
delivery
return
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES19162604T
Other languages
English (en)
Inventor
Eliron Ekstein
Roman Sandler
Alexander Kenis
Alexander Serebryiani
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ravin Ai Ltd
Original Assignee
Ravin Ai Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ravin Ai Ltd filed Critical Ravin Ai Ltd
Application granted granted Critical
Publication of ES2924977T3 publication Critical patent/ES2924977T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0283Price estimation or determination
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • G06Q30/0645Rental transactions; Leasing transactions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q40/00Finance; Insurance; Tax strategies; Processing of corporate or income taxes
    • G06Q40/08Insurance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/751Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/06Recognition of objects for industrial automation
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C5/00Registering or indicating the working of vehicles
    • G07C5/006Indicating maintenance

Landscapes

  • Business, Economics & Management (AREA)
  • Engineering & Computer Science (AREA)
  • Accounting & Taxation (AREA)
  • Theoretical Computer Science (AREA)
  • Finance (AREA)
  • Development Economics (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Strategic Management (AREA)
  • Economics (AREA)
  • General Business, Economics & Management (AREA)
  • Marketing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Artificial Intelligence (AREA)
  • Game Theory and Decision Science (AREA)
  • Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Technology Law (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

La presente invención se refiere a un sistema automático para la detección de daños en un vehículo, que comprende: a. al menos una cámara para capturar conjuntos de imágenes de "entrega" y "retorno" de un vehículo, donde cada una de las imágenes dentro de dichos conjuntos se captura sustancialmente independientemente del movimiento del vehículo o de la orientación del vehículo con respecto a la cámara de captura; b. una memoria para almacenar imágenes de partes básicas de al menos un vehículo; c. una primera unidad de determinación que está configurada para, en base a dichas imágenes de partes básicas, determinar la ubicación de una o más partes básicas dentro de las imágenes de dichos conjuntos de imágenes de "entrega" y "retorno"; d. una segunda unidad de determinación que está configurada para, en base a dichas ubicaciones determinadas de las partes básicas del vehículo dentro de las imágenes, determinar las ubicaciones de "otras partes" del vehículo dentro de dichos conjuntos de imágenes de "entrega" y "retorno", para así formar imágenes parciales de "entrega" y "devolución", respectivamente;e. una unidad de transformación que está configurada para transformar por separado cada par de imágenes parciales de "entrega" y "retorno", respectivamente, a un mismo plano, en el que dicha transformación incluye además la realización de uno o más de: desplazamiento, rotación y zoom de una primera imagen relativa a la segunda imagen del par; f. una unidad de comparación configurada para comparar por separado, píxel por píxel, cada uno de dichos pares transformados de imágenes parciales de "entrega" y "retorno", para detectar así una diferencia por encima de un umbral predefinido, para alertar cuando se detecta tal diferencia por encima del umbral El sistema de la invención proporciona un sistema automático de detección de daños en vehículos que es sencillo y de bajo coste. (Traducción automática con Google Translate, sin valor legal)

Description

DESCRIPCIÓN
Sistema y procedimiento de detección automática de daños en vehículos
Campo de la invención
La invención se refiere en general al campo de la detección, evaluación y estimación de daños en vehículos.
Antecedentes de la invención
La industria del automóvil y el uso de vehículos conllevan frecuentes y masivas entregas de vehículos. Se espera que los vehículos sean entregados y devueltos en unas condiciones determinadas, sin daños añadidos. Los ejemplos incluyen: la entrega de vehículos de un fabricante a un cliente, la entrega de vehículos usados a talleres de reparación, concesionarios y clientes, el arrendamiento/alquiler de vehículos, el uso compartido de vehículos personales y la evaluación de reclamaciones a seguros. En lo sucesivo, y a menos que se indique específicamente lo contrario, la exposición supondrá el caso del alquiler de vehículos, aunque la invención también puede utilizarse igualmente para todos los casos mencionados anteriormente. Esta situación requiere una cuidadosa verificación del vehículo en los momentos de la entrega y la devolución, que generalmente se lleva a cabo mediante una inspección visual del vehículo simultáneamente por todas las partes implicadas. En ocasiones, incluso cuando se realiza una verificación visual, surgen disputas sobre las diferencias entre el estado del vehículo en el momento de la entrega y el estado del vehículo en el momento de la devolución, respectivamente, y en cuanto a la entidad responsable de los daños (cuando se observan). Esta situación se complica aún más cuando el vehículo se devuelve en un lugar geográfico diferente al lugar de la entrega.
Algunos sistemas del estado de la técnica proponen la captura de imágenes mediante cámaras en los momentos de entrega y devolución, y se prevé que estas imágenes puedan utilizarse como prueba del estado del vehículo en los momentos de entrega y devolución. Si bien estas imágenes pueden utilizarse para la verificación en casos de disputa, no eliminan la necesidad de una cuidadosa verificación visual del vehículo simultáneamente por ambas partes y la identificación de los daños. De manera alternativa, en el momento de una disputa, estas imágenes capturadas deben ser analizadas visualmente.
Otros sistemas de verificación del estado de la técnica, tales como los publicados en los documentos US8.892.293 y US 2016/0140778, han intentado aplicar técnicas de comparación automática de imágenes para detectar las diferencias entre las respectivas imágenes en los momentos de entrega y devolución, aunque con una fiabilidad muy baja. Además, todos estos sistemas de verificación automática requieren que se cumplan al menos varias de las siguientes condiciones para poder ser aplicados:
• (a) El uso de costosas cámaras de alta resolución (por ejemplo, cámaras de 15 a 20 megapíxeles) para capturar imágenes de todos los lados del vehículo;
• (b) La colocación de las cámaras en ubicaciones y orientaciones muy específicas con respecto al vehículo, y su ajuste para capturar imágenes fiables que puedan utilizarse posteriormente para la observación y estimación de los daños;
• (c) El posicionamiento estacionario del vehículo en posiciones marcadas de antemano con respecto a las cámaras para poder realizar la verificación automática de forma fiable;
• (d) El uso de iluminación y sensores costosos;
• (e) La dedicación de determinas zonas exclusivamente a la captura de imágenes;
• (f) El control de la posición del vehículo y del rendimiento del sistema, que requiere operadores humanos, que realmente pueden realizar el examen visual por sí mismos;
• (g) La conducción a través de tales sistemas, que requiere un esfuerzo de conducción no trivial y puede por sí sola provocar accidentes;
• (h) Los costes operativos de tales sistemas, que suelen ser más elevados que los daños que intentan capturar. El documento US 2016/140778 A1 describe un sistema para identificar los daños causados a un vehículo que incluye un dispositivo móvil de captura de imágenes conectado a un servidor remoto por un módulo de transmisión. Un procedimiento para identificar los daños causados al vehículo incluye capturar al menos una imagen del vehículo mediante un dispositivo de captura de imágenes, transmitir la imagen capturada a un servidor remoto y procesar la imagen capturada. La captura incluye guiar el dispositivo de captura de imágenes hacia una zona predefinida del vehículo.
Satya Mallick: "8/16/2019 Image Alignment (Feature Based) using OpenCV (C++/Python) / learn OpenCV", 10 de diciembre de 2018 (10-12-2018) XP055613483 describe cómo aprender a realizar la alineación de imágenes basada en características utilizando OpenCV.
Las condiciones anteriores han dado lugar a sistemas muy complicados, incómodos y costosos, que de hecho requieren un empleado profesional en cada uno de los sistemas para su funcionamiento y/o para guiar al conductor hasta una posición estacionaria exacta, tal como se señala en las condiciones [c] y [f] anteriores. Por lo tanto, en lugar de reducir los costes y simplificar el procedimiento de detección y estimación de daños, tales sistemas del estado de la técnica en muchas ocasiones aumentan los costes e introducen incluso más complicaciones.
Además, el estado de la técnica no puede abordar los casos en los que solo se dispone de información visual parcial.
Por lo tanto, es un objeto de la presente invención proporcionar un sistema automático de detección de daños en vehículos que sea sencillo y de bajo coste.
Otro objeto de la presente invención es proporcionar un sistema automático de detección de daños en vehículos que permita el uso de cámaras de relativamente baja resolución.
Otro objeto adicional de la presente invención es proporcionar un sistema automático de detección de daños en vehículos que elimine la necesidad de asignar una zona específica para la captura de imágenes. En términos más específicos, es un objeto de la invención proporcionar un sistema que pueda ser instalado incluso en el carril de entrada o salida de una empresa de alquiler de vehículos sin interrumpir otras actividades en ese carril.
Otro objeto adicional de la presente invención es proporcionar un sistema automático de detección de daños en el vehículo que elimine la necesidad de posicionar y ajustar con precisión las cámaras con respecto al vehículo y, de hecho, un sistema que deje mucha libertad en cuanto a las ubicaciones de las cámaras.
Otro objeto adicional de la presente invención es proporcionar un sistema que elimine la necesidad de posicionar con precisión el vehículo en posición estacionaria con respecto a las cámaras. Más específicamente, es un objeto de la invención proporcionar un sistema que pueda realizar la detección de daños en el vehículo basándose en imágenes capturadas mientras el vehículo está en movimiento y en una orientación aleatoria con respecto a las cámaras.
Otro objeto adicional de la presente invención es proporcionar un sistema de detección de daños en el vehículo que elimine la necesidad de asignar un empleado capacitado para operar el sistema.
Otro objeto adicional de la presente invención es proporcionar un sistema de detección de daños en el vehículo que pueda detectar daños en el vehículo incluso en ubicaciones del vehículo para las que no existe una imagen de referencia.
Otro objeto adicional de la presente invención es proporcionar un sistema de detección de daños en el vehículo que pueda también sugerir automáticamente una estimación del coste de los daños, a veces incluso con daños en partes ocultas.
Otros objetos y ventajas de la invención resultarán evidentes a medida que avance la descripción.
Sumario de la invención
El objeto se resuelve mediante las características de las reivindicaciones independientes. Las realizaciones preferidas se dan en las reivindicaciones dependientes.
La invención se refiere a un sistema automático (100) para la detección de daños exteriores en un vehículo, que comprende: a. al menos una cámara (103) instalada en un carril de captura de imágenes (102) para capturar conjuntos de imágenes de "entrega" (301a) y "devolución" (301b) de un vehículo que cubren toda la superficie exterior de la carrocería del vehículo durante la entrega y devolución del mismo, en donde cada una de las imágenes de dichos conjuntos se captura con independencia del movimiento del vehículo o de la orientación del vehículo con respecto a la cámara de captura; b. una unidad de transformación (407) configurada para transformar por separado cada par de imágenes parciales de "entrega" y "devolución", respectivamente, en el mismo plano, en donde dicha transformación incluye, además, la realización de uno o más de: desplazamiento, rotación y ampliación de una primera imagen con respecto a una segunda imagen del par; c. una unidad de comparación (409) configurada para comparar por separado, píxel por píxel, cada uno de los pares transformados de imágenes parciales de "entrega" y "devolución" con el fin de detectar así una diferencia que excede un valor umbral predefinido, y emitir una alarma cuando se detecta tal diferencia que excede el valor umbral; estando el sistema caracterizado por que comprende, además: d. una base de datos (307) para almacenar previamente imágenes de partes básicas de al menos un vehículo, en donde dichas partes básicas se seleccionan de entre de las manillas de las puertas del vehículo, los limpiaparabrisas, los retrovisores derecho e izquierdo, las cuatro ruedas, las placas de matrícula, las luces y los distintivos del fabricante; e. una primera unidad de determinación (402) que está configurada para determinar, basándose en dichas imágenes de partes básicas almacenadas previamente (307), la ubicación de una o más partes básicas dentro de las imágenes de dichos conjuntos de imágenes de "entrega" y "devolución" capturadas; f. una segunda unidad de determinación (403) configurada para determinar respectivamente, basándose en dichas ubicaciones determinadas de una o más partes básicas del vehículo dentro de las imágenes capturadas, las ubicaciones de "otras partes" existentes en el exterior del vehículo dentro de dichos conjuntos de imágenes de "entrega" y "devolución", en donde las "otras partes" son generalmente partes más grandes del vehículo, tales como puertas, un parachoques delantero y trasero, un techo y un capó, formando así dichas imágenes parciales de "entrega" y "devolución", respectivamente, que serán proporcionadas a dicha unidad de transformación (407), en donde dicha determinación de las "otras partes" por parte de la segunda unidad de determinación (403) se basa en ubicaciones relativas constantes entre dichas "partes básicas" y cada "otra parte", respectivamente.
En una realización de la invención, dichos conjuntos de imágenes de "entrega" y "devolución" se capturan en momentos diferentes, posiblemente por diferentes conjuntos de una o más cámaras.
En una realización de la invención, cada una de las cámaras tiene una resolución de al menos 2 megapíxeles.
En una realización de la invención, dicha alarma comprende, además, una indicación de ubicación en al menos una imagen parcial del par.
En una realización de la invención, dicha primera unidad de determinación aplica técnicas de reconocimiento de imágenes.
En una realización de la invención, dicho conjunto de imágenes de "entrega" es un conjunto reducido, que comprende imágenes de un solo lado del vehículo, y el sistema comprende, además, un módulo de reflejo configurado para transformar una imagen de un primer lado del vehículo en una imagen de un segundo lado del vehículo.
En una realización de la invención, cada uno de dichos conjuntos de "entrega" y "devolución" comprende imágenes que cubren todo el exterior del vehículo.
En una realización de la invención, el sistema comprende, además, una base de datos de costes de los daños, y un módulo para estimar el coste de los daños basándose en una parte indicada por dicha alarma y en dicha base de datos de costes de daños.
En una realización de la invención, el sistema está diseñado para ser utilizado por uno o más de: empresas de alquiler o arrendamiento de vehículos, operadores de flotas de vehículos, compañías de seguros, talleres de mantenimiento de vehículos, operadores de vehículos autónomos, empresas de venta de vehículos, empresas de uso compartido de vehículos o concesionario de vehículos.
La invención también se refiere a un procedimiento de detección automática de daños exteriores en un vehículo, que comprende: a. capturar mediante al menos una cámara (103), instalada en un carril de captura de imágenes (102), un conjunto de imágenes de "entrega" (301a) de un vehículo, que cubren toda la superficie exterior de la carrocería del vehículo durante la entrega del vehículo, capturándose cada una de las imágenes con independencia del movimiento del vehículo o de la orientación del vehículo con respecto a la cámara de captura; b. capturar, en un paso posterior, un conjunto de imágenes de "devolución" (301b) del vehículo, mediante al menos una cámara (103), instalada en un carril de captura de imágenes (102) que cubren toda la superficie exterior de la carrocería del vehículo durante la devolución del vehículo, capturándose también cada una de las imágenes con independencia del movimiento del vehículo o de la orientación del vehículo con respecto a la cámara de captura y posiblemente también mediante cámaras diferentes de las que capturaron dichas imágenes de "entrega"; c. activar una unidad de transformación (407) para transformar por separado cada par de imágenes parciales de "entrega" y "devolución", respectivamente, en el mismo plano, en donde dicha transformación incluye, además, la realización de uno o más de: desplazamiento, rotación y ampliación de una primera imagen con respecto a la segunda imagen del par; d. comparar por separado (409), píxel por píxel, cada uno de dichos pares transformados de imágenes parciales de "entrega" y "devolución" con el fin de detectar así una diferencia que excede un valor umbral predefinido, y emitir una alarma cuando se detecta tal diferencia que excede el valor umbral; estando el procedimiento caracterizado por que comprende, además: e. almacenar previamente (307) en una base de datos imágenes de partes básicas de al menos un vehículo, en donde dichas partes básicas se seleccionan de entre las manillas de las puertas del vehículo, los limpiaparabrisas, los retrovisores derecho e izquierdo, las cuatro ruedas, las placas de matrícula, las luces y los distintivos del fabricante; f. activar una primera unidad de determinación (402) para determinar, basándose en dichas imágenes de partes básicas almacenadas previamente (307), la ubicación de una o más partes básicas dentro de las imágenes de dicho conjunto de imágenes de "entrega" y dentro de las imágenes de dicho conjunto de imágenes de "devolución"; g. activar una segunda unidad de determinación (403) para determinar, basándose en dichas ubicaciones de una o más partes básicas del vehículo dentro de las imágenes, las ubicaciones de "otras partes" existentes en el exterior del vehículo dentro de dichos conjuntos de imágenes de "entrega" y "devolución", en donde las "otras partes" son generalmente partes más grandes del vehículo, tales como puertas, un parachoques delantero y trasero, un techo y un capó, formando así dichas imágenes parciales de "entrega" y "devolución", respectivamente, en donde dicha determinación de las "otras partes" por parte la segunda unidad de determinación (403) se basa en ubicaciones relativas constantes entre dichas "partes básicas" y cada "otra parte", respectivamente.
En una realización de la invención, cada una de las cámaras tiene una resolución de al menos 2 megapíxeles.
En una realización de la invención, dicha alarma comprende, además, una indicación de ubicación en al menos una imagen parcial del par.
En una realización de la invención, dicha primera unidad de determinación aplica técnicas de reconocimiento de imágenes.
En una realización de la invención, dicho conjunto de imágenes de "entrega" es un conjunto reducido, que comprende imágenes de un solo lado del vehículo, y el procedimiento comprende, además, un paso de reflejo para transformar una imagen de un primer lado del vehículo en una imagen de un segundo lado del vehículo.
En una realización de la invención, cada uno de dichos conjuntos de "entrega" y "devolución" comprende imágenes que cubren todo el exterior del vehículo.
En una realización de la invención, el procedimiento comprende la formación de una base de datos de costes de daños y, además, comprende un paso de activación de un módulo para estimar el coste de los daños basándose en la parte que estaba en dicha base de datos de costes de daños, según lo indicado por dicha alarma.
En una realización de la invención, el sistema está diseñado para ser utilizado por uno o más de: una empresa de alquiler o arrendamiento de vehículos, un operador de flotas de vehículos, una compañía de seguros, un taller de mantenimiento de vehículos, un operador de vehículos autónomos, una empresa de venta de vehículos, una empresa de uso compartido de vehículos o un concesionario de vehículos.
Breve descripción de los dibujos
En los dibujos:
• La Figura 1 muestra esquemáticamente, en forma de diagrama de bloques, la estructura general de un sistema para la detección automática de daños en un vehículo, según una realización de la presente invención.
• la Figura 2 ilustra en general la estructura de una unidad captura de imágenes de vehículos según una realización de la invención;
• la Figura 3 ilustra en general, en forma de diagrama de flujo, el procedimiento realizado por la unidad de análisis de imágenes de la invención;
• la Figura 4a describe, en forma de diagrama de flujo, cómo se realiza el procedimiento de análisis para la detección automática de daños en un vehículo;
• la Figura 4b describe, en forma de diagrama de flujo, cómo se realiza el procedimiento de análisis para la detección automática de daños en un vehículo, cuando solo se dispone de un conjunto de imágenes de "entrega" de un lado;
• la Figura 5a muestra una imagen de "entrega" del lado posterior izquierdo de un vehículo captada por una cámara de vídeo con una resolución de 4 megapíxeles;
• La Figura 5b muestra las "partes básicas", así como las "otras partes", determinadas por el procedimiento de análisis de la invención en una imagen de "devolución", así como el daño detectado.
Descripción detallada de la invención
La Figura 1 muestra esquemáticamente, en forma de diagrama de bloques, la estructura general del sistema 10 de detección automática de daños en un vehículo, según una realización de la presente invención. El sistema generalmente incluye (a) una unidad de captura de imágenes de vehículos 100 y (b) una unidad de análisis de imágenes 200. La unidad de captura de imágenes de vehículos 100 captura imágenes de vehículos en dos sesiones separadas en el tiempo. La unidad de análisis de imágenes 200, a su vez, realiza una comparación entre las respectivas imágenes de las dos sesiones y proporciona una indicación 220 de si se han producido daños en el vehículo durante el periodo comprendido entre estas dos sesiones de captura de imágenes. El sistema de la invención puede ser aplicado, por ejemplo, por una empresa de alquiler de vehículos. La siguiente exposición supondrá el uso del sistema de la invención por parte de una empresa de alquiler de vehículos. Sin embargo, el sistema puede ser utilizado, de manera alternativa, igualmente por cualquier otra entidad que necesite una detección automática de daños de un vehículo.
En una realización de la invención, se capturan dos conjuntos de imágenes del vehículo, un primer conjunto (en adelante, conjunto de "entrega" o "referencia") se captura en el momento de la entrega del vehículo, y un segundo conjunto (en adelante, conjunto de "devolución") en el momento en que se devuelve el vehículo a la empresa de alquiler de vehículos.
La Figura 2 ilustra en general la estructura de la unidad de captura de imágenes de vehículos 100 según una realización de la invención. Por ejemplo, tras la entrega del vehículo 101, y en su salida del área de estacionamiento, el conductor del vehículo 101 pasa por un carril de captura de imágenes 102 donde una o más cámaras 103a-103n se activan para capturar imágenes fijas o de vídeo del vehículo que cubren toda la superficie exterior de la carrocería del vehículo. El vehículo 101 se desplaza libremente dentro del carril 102, por ejemplo, a una velocidad de 15-25Km/h, sin necesidad de detenerse, hasta abandonar el carril de captura de imágenes en la salida 104. La una o más cámaras 103a-103n se colocan a cualquier altura o posición conveniente en el carril, o se apoyan en cualquier estructura conveniente (tal como una o más paredes, postes, etc.), siempre que cada una de las cámaras cubra al menos una superficie del vehículo durante el paso del vehículo 101 por el carril 102, y mientras la selección de imágenes del conjunto de imágenes capturadas pueda formar una cobertura completa de la superficie exterior de la carrocería del vehículo, generalmente excluyendo la superficie inferior. Al final de la sesión de captura de imágenes, se forma un primer conjunto de imágenes que se transmite a la unidad de análisis de imágenes 200 y se almacena allí para un uso posterior. Más tarde, cuando el conductor del vehículo 101 regresa a la instalación de devolución de vehículos para devolver el vehículo, la unidad de captura imágenes de vehículos 100 repite el mismo procedimiento, se captura un segundo conjunto de imágenes y luego se transmite y almacena en la unidad de análisis de imágenes 200. Cabe señalar que, de acuerdo con la presente invención, no existe ninguna limitación en cuanto a la dirección de paso del vehículo por el carril 102, por lo que, en el momento de la devolución del vehículo, este puede pasar dinámicamente por el carril 102 en una dirección opuesta a la que se muestra en la Figura 2, es decir, esta vez en la dirección desde la "salida" 104 hasta la "entrada" 105. Además, la sesión de captura de imágenes de "devolución" puede ser realizada por otra unidad física de captura de imágenes del vehículo 100 que puede estar situada en otra ubicación geográfica con respecto a la unidad 100 que realizó la sesión de captura de imágenes de "entrega".
Por lo tanto, al final de las dos sesiones de captura de imágenes de "entrega" y "devolución", se almacenan dos conjuntos respectivos de imágenes en la unidad de análisis de imágenes 200 del sistema. Los dos conjuntos de imágenes garantizan que habrá al menos dos imágenes, a saber, al menos una imagen de "entrega" y al menos una imagen de "devolución", respectivamente, que cubren cada una de las superficies delantera, trasera, derecha, izquierda y del techo del vehículo. Sin embargo, teniendo en cuenta este modo de "movimiento libre del vehículo" en donde las imágenes se capturan de forma sustancialmente aleatoria (en términos de tiempo y orientación relativa), no hay garantía alguna de que, tras estas dos sesiones, se encuentre algún par de imágenes correspondientes (imágenes de "entrega" y "devolución") que muestren cualquier superficie relevante del vehículo en dicho par desde una distancia, ampliación y orientación exactos con respecto a la cámara de captura. Esta situación plantea importantes dificultades técnicas cuando se intenta realizar una comparación automática de las imágenes relevantes para determinar si se ha producido un daño durante el periodo comprendido entre las dos sesiones de "entrega" y "devolución".
Cabe señalar que un conjunto de imágenes de otro vehículo que se sabe que no presenta daño alguno, en lo sucesivo, conjunto "sin daños", podría utilizarse como alternativa al conjunto de imágenes de "entrega", suponiendo que la empresa de alquiler de vehículos y el cliente hayan acordado que el vehículo no presentaba daños en el momento de la entrega. Además, el conjunto "sin daños" puede incluso ser un conjunto reducido, en cuyo caso el sistema puede aplicar el conocimiento de la simetría y el reflejo para comparar diferentes partes del vehículo. Por ejemplo, una imagen de la puerta delantera izquierda de un conjunto de imágenes "sin daños" podría compararse con una imagen de la puerta delantera derecha del conjunto de imágenes de "devolución", utilizando la simetría y/o el reflejo.
La Figura 3 ilustra en general, en forma de diagrama de flujo, un procedimiento realizado por la unidad de análisis de imágenes 200 de la invención. En los pasos 301a y 301b, se reciben los conjuntos de imágenes de "entrega" y "devolución" desde la unidad de captura de imágenes de vehículos 100. En los pasos opcionales 303a y 303b, la identificación del vehículo se determina automáticamente sobre la base de la realización de un OCR en las placa del vehículo en las imágenes adecuadas, respectivamente, y cada uno de los conjuntos 305a, 305b se almacena respectivamente en una carpeta, de modo que puedan ser fácilmente encontrados más tarde. Los pasos 303a y 303b son opcionales, ya que los dos conjuntos pueden almacenarse de forma similar en función, por ejemplo, de sus respectivas horas de captura, etc. En el paso 400, se inicia el análisis. Tal como se detalla a continuación, el paso de análisis 400 implica una comparación entre las respectivas imágenes de "entrega" y "devolución" para determinar automáticamente si existe una diferencia "apreciable". Entre otras cosas, el paso de análisis 400 se basa en una base de datos de imágenes de componentes básicos del vehículo 307. Los componentes básicos son normalmente, pero no exclusivamente, aquellas partes del vehículo que tienen casi la misma forma en un gran número de vehículos, con independencia del fabricante del vehículo, del año de fabricación, del modelo, etc. Dichos componentes básicos incluyen las manillas de las puertas del vehículo, los limpiaparabrisas, los retrovisores derecho e izquierdo, las cuatro ruedas, las placas de matrícula, las luces, los distintivos del fabricante, etc.
La Figura 4a describe, en forma de diagrama de flujo, cómo se realiza el procedimiento de análisis 400a para la detección automática de daños en un vehículo. En un paso preliminar 402 se prepara la base de datos de componentes básicos 307 (que también aparece en la Figura 3). Tal como se ha señalado, los componentes básicos (las manillas de las puertas, los limpiaparabrisas, los retrovisores derecho e izquierdo, las cuatro ruedas, las placas de matrícula, las luces, etc.) son aquellas partes del vehículo que normalmente tienen una forma visible sustancialmente igual, con independencia del fabricante o del modelo del vehículo. La base de datos 307 contiene una pluralidad de imágenes que muestran una variedad de manillas de puertas, una variedad de limpiaparabrisas, una variedad de retrovisores, etc. Partiendo de la base de datos 307, y aplicando técnicas de reconocimiento de imágenes en las imágenes de los conjuntos de "entrega" y "devolución", el procedimiento identifica en el paso 402 estos componentes básicos dentro de los dos conjuntos de imágenes (o dentro de imágenes seleccionadas de los dos conjuntos que cubren todo el vehículo).
A partir de los componentes básicos identificados en las respectivas imágenes de los conjuntos de "entrega" y "devolución", las otras partes del vehículo, generalmente más grandes, tales como las puertas, los parachoques delantero y trasero, el techo, el capó, etc. se identifican en el paso 403 dentro de los dos conjuntos de imágenes. Este paso, de hecho, utiliza la identificación de los componentes básicos, cuyas ubicaciones con respecto a las otras partes del vehículo son sustancialmente constantes, como guía para determinar las otras partes del vehículo dentro de los respectivos pares de imágenes de "entrega" y "devolución". Sin embargo, cada una de las "otras" partes identificadas, que se ve en la imagen de "entrega" desde una perspectiva específica, probablemente se verá en la imagen de "devolución" del par desde otra perspectiva, al menos ligeramente diferente. Esta situación obedece al hecho de que las imágenes se capturan mientras el vehículo se encuentra en movimiento "libre" (sin guía y sin restricciones) durante las sesiones de captura de imágenes (a diferencia de algunas publicaciones del estado de la técnica en las que el vehículo debe estar parado en una ubicación y orientación específicas con respecto a la cámara durante las sesiones de captura de imágenes), y al hecho de que, según la invención, las imágenes de "entrega" y "devolución" pueden ser capturadas por dos sistemas separados que están geográficamente alejados, o al hecho de que el vehículo se movió en direcciones opuestas durante la captura de los dos conjuntos de imágenes, respectivamente. De hecho, esta situación complica de forma muy significativa la capacidad de realizar una comparación precisa de imágenes entre dos imágenes respectivas de un par, como se requiere para una determinación precisa de los daños. Más específicamente, esta situación requiere la resolución de un arduo problema de visión por ordenador, para comparar con precisión las dos imágenes respectivas del par y determinar los daños. A continuación, en el paso 405, se recortan las imágenes de cada una de las "otras" partes, respectivamente, del par de imágenes que muestran el vehículo completo, formando para cada parte un par que contiene las imágenes parciales de "entrega" y "devolución", respectivamente. Sin embargo, tal como se ha señalado, los pares de imágenes parciales del paso 405 siguen sin estar habilitados para la comparación, en vista de las diferencias (incluso leves) de perspectivas. Para resolver este problema, el procedimiento transforma en el paso 407 el plano de cada imagen parcial de cada par en un plano común. Esta transformación también implica una rotación, una ampliación y un desplazamiento para alcanzar la mejor coincidencia. Por ejemplo, el plano común para las puertas sustancialmente verticales (u otras partes que se ven mejor en la vista lateral del vehículo) puede ser, por ejemplo, un plano vertical paralelo al eje longitudinal d del carril 102 (véase la Figura 2). Un plano común para el techo y el capó (u otras partes similares) sustancialmente (o relativamente) horizontales puede ser, por ejemplo, un plano horizontal sustancialmente paralelo a la superficie del carril 102. Un plano común para el techo, el capó, etc. sustancialmente (o relativamente) horizontales puede ser, por ejemplo, un plano horizontal sustancialmente paralelo a la superficie del carril 102. Un plano común para aquellas partes que se ven mejor en las vistas frontal o posterior del vehículo puede ser, por ejemplo, un plano vertical sustancialmente paralelo al eje transversal c del carril 102. En cualquier caso, para cada par específico de imágenes parciales (que muestran, respectivamente, una misma parte que aparece en los conjuntos de "entrega" y "devolución"), las partes se transforman en un plano común, lo que da lugar a una base de comparación entre estas imágenes parciales, respectivamente. Una técnica para realizar esta transformación puede encontrarse, por ejemplo, en "Múltiple View Geometry in Computer Vision" (Segunda edición), Capítulo 7, Richard Hartley y Andrew Zisserman, Cambridge University Press. En detalle, sin pérdida de generalidad, se supone que una imagen parcial de "entrega" I_h(\vec{p_i}) está ya en el plano de comparación. Se supone que la imagen parcial de "devolución" I_r(\vec{pAt_i}) se rota al mismo plano con la transformación T como \vec{pAt_i }=T\vec{p_i}, donde p=[x,y,1] son vectores con coordenadas x e y del plano de la imagen y T es una matriz de 3x3. Entonces, encontrar T es un problema de optimización dimensional 8 (T[3,3] es siempre 1) que puede ejecutarse directamente en píxeles de dos imágenes parciales, o más comúnmente en puntos "clave" muestreados con derivadas direccionales espaciales similares. Dado que la optimización es lineal, pueden utilizarse muchas herramientas de optimización convexa disponibles en el mercado para resolver este problema.
A continuación, en el paso 409 se realiza una comparación, respectivamente para cada parte, entre las imágenes parciales de "entrega" y "devolución" transformadas. El paso de comparación 409 implica un paso preliminar de escalado, rotación y desplazamiento con el fin de obtener la mejor base de comparación. El paso 409 realiza una comparación píxel por píxel y, si se identifica una diferencia de color, matiz, intensidad, etc. que excede un valor umbral predefinido para un píxel o un grupo de píxeles, se emite una alarma en el paso 411, ya que esto puede ser señal de un daño en la pieza. La comparación se realiza de forma similar para sustancialmente todas las partes del vehículo. La comparación también puede realizarse en imágenes de tipo escala de grises, en lugar de imágenes en color.
Los experimentos han demostrado que el sistema de la invención puede utilizar cámaras de resolución relativamente baja, a partir de 2 megapíxeles cada una.
El procedimiento puede terminar en el anterior paso 411, o puede continuar con el paso de estimación de daños 413. Pueden estimarse automáticamente los daños en varias partes. Por ejemplo, un rasguño en la puerta de un vehículo que supere las dimensiones predefinidas puede requerir la sustitución de toda la puerta. Si el coste de la sustitución de la puerta (coste de las piezas y del trabajo que conlleva) se almacena en la base de datos 415 para cada pieza, el paso de estimación de daños 413 puede proporcionar automáticamente toda la estimación de daños.
Los conjuntos de imágenes de "entrega" y "devolución" no tiene por qué ser necesariamente capturados exactamente del mismo vehículo. En una realización de la invención, el conjunto de "entrega" (conjunto de "referencia") se captura de un vehículo de modelo sustancialmente igual que el conjunto de "devolución" que se sabe que no presenta ningún daño. Además, un conjunto reducido de imágenes de "entrega" puede resultar suficiente para el sistema de la invención. Por ejemplo, el conjunto de "entrega" ("referencia") puede incluir imágenes de un solo lado del vehículo, por ejemplo, el lado derecho. Este procedimiento se describe en la Figura 4b. En tal caso, las partes del lado derecho se procesan en los pasos 407 y 409 de la manera descrita con respecto a la Figura 4a. El procesamiento de las partes del lado izquierdo incluye un paso preliminar de "reflejo" 406 (mostrado en la Figura 4b), en el que la vista de la parte se refleja lista para la comparación. El paso de "reflejo" 406, de hecho, refleja la parte del lado derecho no dañada, formando así la parte del "lado izquierdo" no dañada para que esté lista para la comparación. Un experimento ha demostrado la plena aplicabilidad de este enfoque.
En un ejemplo no cubierto por las reivindicaciones, puede utilizarse una cámara de teléfono móvil para capturar uno o más de los conjuntos de imágenes de "entrega" y "devolución". Al igual que en el caso anterior, las imágenes pueden capturarse con independencia del zoom o de la orientación del vehículo con respecto a la cámara, e independientemente de que exista un movimiento relativo entre el vehículo y la cámara del móvil.
Es preferible el uso de cámaras de vídeo, en lugar de cámaras fijas, junto con la invención, ya que reduce los efectos de la falta de iluminación especial y costosa. En este sentido, es ventajoso el hecho de que exista un movimiento relativo entre el vehículo y la cámara, y que se utilicen cámaras de vídeo, ya que esto reduce de forma significativa la posibilidad de que las zonas brillantes que pueden aparecer en una imagen específica, puedan aparecer en otras imágenes secuenciales (al menos en la misma ubicación de la pieza). Cabe señalar que la comparación de los píxeles brillantes de una imagen es prácticamente ineficaz.
Ejemplo
La Figura 5a muestra una imagen 600 de un vehículo. La imagen que muestra el lado posterior izquierdo del vehículo es una de varias decenas de imágenes capturadas mediante una cámara de vídeo con una resolución de 4 megapíxeles. Estas imágenes se almacenaron como un conjunto de "entrega" para futuras comparaciones. Las imágenes del vehículo se analizaron según el proceso de la Figura 4a, y los marcos rectangulares que se muestran en la imagen se refieren a las "partes básicas" y a las "otras partes" determinadas durante el proceso. Posteriormente, se capturó un conjunto de "devolución" de varias decenas de imágenes mediante la cámara de vídeo, esta vez mostrando el lado posterior derecho del vehículo. Las imágenes fueron nuevamente analizadas por el sistema de la invención, determinando las "partes básicas", así como las "otras partes", tal y como se muestra en los diversos marcos rectangulares dentro de la imagen 600b de la Figura 5b. El sistema de la invención realizó repetidamente el paso de "reflejo" 406, el paso de transformación 407 y el paso de comparación 409 entre pares de imágenes de los conjuntos de "entrega" y "devolución". La comparación se realizó por separado dentro de cada par con respecto a cada una de las partes. Al finalizar el procedimiento, el sistema detectó un pequeño rasguño 610 (que se muestra en la Figura 5b) en el lado derecho del vehículo. Esta detección se obtuvo a pesar de que las imágenes de referencia eran imágenes del lado izquierdo, mientras que el rasguño se encontraba en el lado derecho del vehículo.
El sistema de la invención también puede utilizarse para detectar daños en una flota de vehículos compartidos (por ejemplo, vehículos autónomos). En tal caso, el sistema puede instalarse en varios lugares, tal como estaciones de servicio, y de esta manera, la frecuencia de verificaciones repetidas de un posible daño puede incrementarse de forma significativa.
El sistema también puede ser utilizado por organizaciones que operan una flota de automóviles autónomos. Tales organizaciones generalmente dependen de la evaluación remota y en el depósito de las condiciones posteriores a los incidentes. Para este propósito, las cámaras pueden colocarse en el lugar para capturar los daños por incidentes con el fin de permitir la evaluación de la usabilidad de los vehículos y una posible necesidad de respuesta.
El sistema de la invención puede ser utilizado por una variedad de organizaciones, por ejemplo, por una empresa de alquiler de vehículos, una empresa de arrendamiento de vehículos, organizaciones de uso de vehículos compartidos, organizaciones de venta de automóviles (nuevos o usados) o cualquier organización similar que maneje vehículos. En algunos casos, el sistema puede ser operado por un tercero.
La invención también puede ser utilizada por compañías de seguros para detectar y evaluar reclamaciones a seguros, por ejemplo, con el fin de evaluar el estado de un vehículo, en lugar de analizar los daños específicos notificados por una parte subjetiva tal como un cliente, un tasador o un mecánico.
El sistema de la invención reduce el coste de las inspecciones de vehículos, es objetivamente más preciso y transparente para todas las partes implicadas.

Claims (17)

REIVINDICACIONES
1. Sistema automático (100) para la detección de daños exteriores en un vehículo, que comprende:
a. al menos una cámara (103) instalada en un carril de captura de imágenes (102) para capturar conjuntos de imágenes de "entrega" (301a) y "devolución" (301b) de un vehículo que cubren toda la superficie exterior de la carrocería del vehículo durante la entrega y devolución del mismo, en donde cada una de las imágenes de dichos conjuntos se captura con independencia del movimiento del vehículo o de la orientación del vehículo con respecto a la cámara de captura;
b. una unidad de transformación (407) configurada para transformar por separado cada par de imágenes parciales de "entrega" y "devolución", respectivamente, en el mismo plano, en donde dicha transformación incluye, además, la realización de uno o más de: desplazamiento, rotación y ampliación de una primera imagen con respecto a una segunda imagen del par;
c. una unidad de comparación (409) configurada para comparar por separado, píxel por píxel, cada uno de los pares transformados de imágenes parciales de "entrega" y "devolución" con el fin de detectar así una diferencia que excede un valor umbral predefinido, y emitir una alarma cuando se detecta tal diferencia que excede el valor umbral;
estando el sistema caracterizado porque comprende, además:
d. una base de datos (307) para almacenar previamente imágenes de partes básicas de al menos un vehículo, en donde dichas partes básicas se seleccionan de entre las manillas de las puertas del vehículo, los limpiaparabrisas, los retrovisores derecho e izquierdo, las cuatro ruedas, las placas de matrícula, las luces y los distintivos del fabricante;
e. una primera unidad de determinación (402) configurada para determinar, basándose en dichas imágenes de partes básicas almacenadas previamente (307), la ubicación de una o más partes básicas dentro de las imágenes de dichos conjuntos de imágenes de "entrega" y "devolución" capturadas;
f. una segunda unidad de determinación (403) configurada para determinar, respectivamente, basándose en dichas ubicaciones determinadas de una o más partes básicas del vehículo dentro de las imágenes capturadas, las ubicaciones de "otras partes" existentes en el exterior del vehículo dentro de dichos conjuntos de imágenes de "entrega" y "devolución", en donde las "otras partes" son generalmente partes más grandes del vehículo, tales como puertas, un parachoques delantero y trasero, un techo y un capó, formando así dichas imágenes parciales de "entrega" y "devolución", respectivamente, que serán proporcionadas a dicha unidad de transformación (407), en donde dicha determinación de las "otras partes" por parte de la segunda unidad de determinación (403) se basa en ubicaciones relativas constantes entre dichas "partes básicas" y cada " otra parte", respectivamente.
2. Sistema según la reivindicación 1, en el que dichos conjuntos de imágenes de "entrega" y "devolución" se capturan en momentos diferentes, posiblemente por diferentes conjuntos de una o más cámaras.
3. Sistema según la reivindicación 1, en el que cada una de las cámaras tiene una resolución de al menos 2 megapíxeles.
4. Sistema según la reivindicación 1, en el que dicha alarma comprende, además, una indicación de ubicación en al menos una imagen parcial del par.
5. Sistema según la reivindicación 1, en el que dicha primera unidad de determinación está configurada para aplicar técnicas de reconocimiento de imágenes.
6. Sistema según la reivindicación 1, en el que dicho conjunto de imágenes de "entrega" es un conjunto reducido, que comprende imágenes de un solo lado del vehículo, y en el que el sistema comprende, además, un módulo de reflejo configurado para transformar una imagen de un primer lado del vehículo en una imagen de un segundo lado del vehículo.
7. Sistema según la reivindicación 1, en el que cada uno de dichos conjuntos de "entrega" y "devolución" comprende imágenes que cubren todo el exterior del vehículo.
8. Sistema según la reivindicación 1, que comprende, además, una base de datos de costes de los daños, y un módulo para estimar el coste de los daños basándose en una parte indicada por dicha alarma y en dicha base de datos de costes de daños.
9. Sistema según la reivindicación 1, para su uso por uno o más de: una empresa de alquiler o arrendamiento de vehículos, un operador de flotas de vehículos, una compañía de seguros, un taller de mantenimiento de vehículos, un operador de vehículos autónomos, una empresa de venta de vehículos, una empresa de uso compartido de vehículos o un concesionario de vehículos.
10. Procedimiento para la detección automática de daños exteriores en un vehículo, que comprende: a. capturar mediante al menos una cámara (103), instalada en un carril de captura de imágenes (102), un conjunto de imágenes de "entrega" (301a) de un vehículo, que cubren toda la superficie exterior de la carrocería del vehículo durante la entrega del vehículo, capturándose cada una de las imágenes con independencia del movimiento del vehículo o de la orientación del vehículo con respecto a la cámara de captura;
b. capturar, en un paso posterior, un conjunto de imágenes de "devolución" (301b) del vehículo, mediante al menos una cámara (103), instalada en un carril de captura de imágenes (102) que cubren toda la superficie exterior de la carrocería del vehículo durante la devolución del vehículo, capturándose también cada una de las imágenes con independencia del movimiento del vehículo o de la orientación del vehículo con respecto a la cámara de captura y posiblemente también mediante cámaras diferentes de las que capturaron dichas imágenes de "entrega";
c. activar una unidad de transformación (407) para transformar por separado cada par de imágenes parciales de "entrega" y "devolución", respectivamente, en el mismo plano, en donde dicha transformación incluye, además, la realización de uno o más de: desplazamiento, rotación y ampliación de una primera imagen con respecto a la segunda imagen del par;
d. comparar por separado (409), píxel por píxel, cada uno de dichos pares transformados de imágenes parciales de "entrega" y "devolución" con el fin de detectar así una diferencia que excede un valor umbral predefinido, y emitir una alarma cuando se detecta tal diferencia que excede el valor umbral;
estando el procedimiento caracterizado porque comprende, además:
e. almacenar previamente (307) en una base de datos imágenes de partes básicas de al menos un vehículo, en donde dichas partes básicas se seleccionan de entre las manillas de las puertas del vehículo, los limpiaparabrisas, los retrovisores derecho e izquierdo, las cuatro ruedas, las placas de matrícula, las luces y los distintivos del fabricante;
f. activar una primera unidad de determinación (402) para determinar, basándose en dichas imágenes de partes básicas almacenadas previamente (307), la ubicación de una o más partes básicas dentro de las imágenes de dicho conjunto de imágenes de "entrega" y dentro de las imágenes de dicho conjunto de imágenes de "devolución";
g. activar una segunda unidad de determinación (403) para determinar, basándose en dichas ubicaciones de una o más partes básicas del vehículo dentro de las imágenes, las ubicaciones de "otras partes" existentes en el exterior del vehículo dentro de dichos conjuntos de "entrega" y "devolución", en donde las "otras partes" son generalmente partes más grandes del vehículo, tales como puertas, un parachoques delantero y trasero, un techo y un capó, formando así dichas imágenes parciales de "entrega" y "devolución", respectivamente, en donde dicha determinación de las "otras partes" por parte de la segunda unidad de determinación (403) se basa en ubicaciones relativas constantes entre dichas "partes básicas" y cada "otra parte", respectivamente.
11. Procedimiento según la reivindicación 10, en el que cada una de las cámaras tiene una resolución de al menos 2 megapíxeles.
12. Procedimiento según la reivindicación 10, en el que dicha alarma comprende, además, una indicación de ubicación en al menos una imagen parcial del par.
13. Procedimiento según la reivindicación 10, en el que dicha primera unidad de determinación aplica técnicas de reconocimiento de imágenes.
14. Procedimiento según la reivindicación 10, en el que dicho conjunto de imágenes de "entrega" es un conjunto reducido, que comprende imágenes de un solo lado del vehículo, y en el que el procedimiento comprende, además, un paso de reflejo que para transformar una imagen de un primer lado del vehículo en una imagen de un segundo lado del vehículo.
15. Procedimiento según la reivindicación 10, en el que cada uno de dichos conjuntos de "entrega" y "devolución" comprende imágenes que cubren todo el exterior del vehículo.
16. Procedimiento según la reivindicación 10, que comprende, además, una base de datos de costes de daños, y en donde el procedimiento comprende, además, un paso de activación de un módulo para estimar el coste de los daños basándose en la parte que estaba en dicha base de datos de costes de daños, según lo indicado por dicha alarma.
17. Procedimiento según la reivindicación 10, para su uso por uno o más de: una compañía de alquiler o arrendamiento de vehículos, un operador de flotas de vehículos, una compañía de seguros, un taller de mantenimiento de vehículos, un operador de vehículos autónomos, una empresa de venta de vehículos, una empresa de uso compartido de vehículos o un concesionario de vehículos.
ES19162604T 2019-03-13 2019-03-13 Sistema y procedimiento de detección automática de daños en vehículos Active ES2924977T3 (es)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
EP19162604.3A EP3709219B1 (en) 2019-03-13 2019-03-13 System and method for automatically detecting damages in vehicles

Publications (1)

Publication Number Publication Date
ES2924977T3 true ES2924977T3 (es) 2022-10-13

Family

ID=65817766

Family Applications (1)

Application Number Title Priority Date Filing Date
ES19162604T Active ES2924977T3 (es) 2019-03-13 2019-03-13 Sistema y procedimiento de detección automática de daños en vehículos

Country Status (9)

Country Link
US (1) US11915278B2 (es)
EP (2) EP3709219B1 (es)
JP (1) JP7429709B2 (es)
AU (1) AU2020235600A1 (es)
CA (1) CA3133033A1 (es)
DK (1) DK3709219T3 (es)
ES (1) ES2924977T3 (es)
IL (1) IL286090A (es)
WO (1) WO2020183459A1 (es)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7332189B2 (ja) * 2021-11-02 2023-08-23 ゴゴロ インク 撮像方法

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102012017497B3 (de) 2012-08-17 2013-12-05 Audi Ag Verkehrsanlage zum autonomen Befahren und Verfahren zum Ermitteln einer Kraftfahrzeugbeschädigung
FR3007172B1 (fr) 2013-06-12 2020-12-18 Renault Sas Procede et systeme d'identification d'un degat cause a un vehicule
JP2017097780A (ja) 2015-11-27 2017-06-01 富士通株式会社 端末装置、利用管理プログラム、共有物管理装置及び共有物管理方法
US10692050B2 (en) * 2016-04-06 2020-06-23 American International Group, Inc. Automatic assessment of damage and repair costs in vehicles
JP6954741B2 (ja) 2017-01-13 2021-10-27 株式会社ブロードリーフ 損傷判断装置、並びにこれを用いた期間・スケジュール演算装置及び修理・補修費用演算装置。
CN107403424B (zh) 2017-04-11 2020-09-18 阿里巴巴集团控股有限公司 一种基于图像的车辆定损方法、装置及电子设备
CN107358596B (zh) * 2017-04-11 2020-09-18 阿里巴巴集团控股有限公司 一种基于图像的车辆定损方法、装置、电子设备及***
US11087292B2 (en) * 2017-09-01 2021-08-10 Allstate Insurance Company Analyzing images and videos of damaged vehicles to determine damaged vehicle parts and vehicle asymmetries

Also Published As

Publication number Publication date
JP7429709B2 (ja) 2024-02-08
EP3991095A4 (en) 2023-11-08
EP3709219B1 (en) 2022-06-08
JP2022528031A (ja) 2022-06-08
CA3133033A1 (en) 2020-09-17
IL286090A (en) 2021-10-31
EP3709219A1 (en) 2020-09-16
US20220148287A1 (en) 2022-05-12
AU2020235600A1 (en) 2021-09-30
DK3709219T3 (da) 2022-09-05
EP3991095A1 (en) 2022-05-04
WO2020183459A1 (en) 2020-09-17
US11915278B2 (en) 2024-02-27

Similar Documents

Publication Publication Date Title
EP2674323B1 (en) Rear obstruction detection
EP2092270B1 (en) Method and apparatus for identification and position determination of planar objects in images
Macknojia et al. Calibration of a network of kinect sensors for robotic inspection over a large workspace
US7360410B2 (en) Procedure and device for testing tires
RU2017142730A (ru) Способ навигации по автомобильной стоянке (варианты) и соответствующее автономное транспортное средство
CN111289261B (zh) 一种库内车底部件检测方法
CN106303407A (zh) 用于确定从对象到车辆的距离的方法和摄像机***
US10735716B2 (en) Vehicle sensor calibration
CN107527006B (zh) 用于检查机动车的介质损失的方法以及用于执行这样的方法的机动车和***
JP2004502154A (ja) 照り返しに耐性のある位置判定システム
US20210325313A1 (en) Method and device for recognising and analysing surface defects in three-dimensional objects having a reflective surface, in particular motor vehicle bodies
CN101976460A (zh) 车载多目摄像机环视***的虚拟视点图像生成方法
US20160127625A1 (en) device and method for recognizing inscriptions on vehicle tires
CN110705359A (zh) 一种车位检测方法
ES2924977T3 (es) Sistema y procedimiento de detección automática de daños en vehículos
CN106127736A (zh) 一种泊车检测方法及处理器
WO2023012049A1 (en) Method and system for determining direction of a traffic mirror
US11676397B2 (en) System and method for detecting an object collision
US20200034641A1 (en) Method for classifying a traffic sign, or road sign, in an environment region of a motor vehicle, computational apparatus, driver assistance system and motor vehicle
ES2967607T3 (es) Cámara de visión lateral para la detección de ruedas
ES2887325T3 (es) Método y aparato para medir la altura de un vehículo
Chávez-Aragón et al. Rapid 3D Modeling and Parts Recognition on Automotive Vehicles Using a Network of RGB‐D Sensors for Robot Guidance
KR101484979B1 (ko) 카메라와 거울을 이용한 주차위치확인시스템
US20230365148A1 (en) Method for aligning a vehicle to an adas calibration target and an adas calibration system
ES2478700B1 (es) Sistema y método para la detección de obstáculos