ES2986673T3 - Dispositivo y procedimiento de la detección de daños en un vehículo que se está desplazando - Google Patents

Dispositivo y procedimiento de la detección de daños en un vehículo que se está desplazando Download PDF

Info

Publication number
ES2986673T3
ES2986673T3 ES19157558T ES19157558T ES2986673T3 ES 2986673 T3 ES2986673 T3 ES 2986673T3 ES 19157558 T ES19157558 T ES 19157558T ES 19157558 T ES19157558 T ES 19157558T ES 2986673 T3 ES2986673 T3 ES 2986673T3
Authority
ES
Spain
Prior art keywords
light
vehicle
image data
sensor
lighting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES19157558T
Other languages
English (en)
Inventor
Von Finck Kasimir Clemens Patrick Freiherr
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sxt Retina Lab & Co KG GmbH
Original Assignee
Sxt Retina Lab & Co KG GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sxt Retina Lab & Co KG GmbH filed Critical Sxt Retina Lab & Co KG GmbH
Application granted granted Critical
Publication of ES2986673T3 publication Critical patent/ES2986673T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/8806Specially adapted optical and illumination features
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/8851Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/95Investigating the presence of flaws or contamination characterised by the material or shape of the object to be examined
    • G01N21/9515Objects of complex shape, e.g. examined with use of a surface follower device
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/8806Specially adapted optical and illumination features
    • G01N2021/8829Shadow projection or structured background, e.g. for deflectometry
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/8806Specially adapted optical and illumination features
    • G01N2021/8845Multiple wavelengths of illumination or detection
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/8806Specially adapted optical and illumination features
    • G01N2021/8848Polarisation of light
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/8851Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges
    • G01N2021/8854Grading and classifying of flaws
    • G01N2021/8861Determining coordinates of flaws
    • G01N2021/8864Mapping zones of defects
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/8851Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges
    • G01N2021/8854Grading and classifying of flaws
    • G01N2021/8877Proximity analysis, local statistics
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/8851Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges
    • G01N2021/8883Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges involving the calculation of gauges, generating models

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Biochemistry (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Immunology (AREA)
  • Pathology (AREA)
  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Signal Processing (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Investigating Or Analysing Materials By Optical Means (AREA)

Abstract

Dispositivo (100) para detectar daños en un vehículo en movimiento (150). El dispositivo comprende un sistema de iluminación (110) para iluminar el vehículo en movimiento, un sistema de sensores (120) para capturar datos de imagen del vehículo en movimiento y un sistema de evaluación para detectar daños en el vehículo basándose en los datos de imagen capturados. El sistema de iluminación comprende al menos uno de los siguientes elementos: una unidad de iluminación configurada para iluminar el vehículo en movimiento con luz monocromática y/o polarizada, y una primera unidad de iluminación configurada para iluminar el vehículo en movimiento con una primera luz. El sistema de sensores comprende al menos uno de los siguientes elementos: un elemento sensor configurado para capturar datos de imagen del vehículo en movimiento cuando se ilumina con la luz monocromática y/o polarizada; y uno o más elementos sensores configurados para capturar primeros datos de imagen del vehículo en movimiento en un área de imagen cuando se ilumina con la primera luz y para capturar segundos datos de imagen del vehículo en movimiento en el área de imagen cuando se ilumina con una segunda iluminación, en donde la segunda iluminación es diferente de la iluminación con la primera luz. (Traducción automática con Google Translate, sin valor legal)

Description

DESCRIPCIÓN
Dispositivo y procedimiento de la detección de daños en un vehículo que se está desplazando
Campo técnica
La invención se refiere a un dispositivo y un procedimiento para la detección de los daños en un vehículo, en particular un automóvil.
Antecedentes técnicos
Muchas industrias de vehículos están interesadas en poder detectar y documentar los daños en los vehículos de forma rápida y fiable. La detección de daños puede permitir el mantenimiento posterior y servir a la seguridad directa del vehículo, por ejemplo, si se detectan grietas o deformaciones de la estructura del vehículo. Daños tales como arañazos o abolladuras pueden dañar indirectamente la estructura del vehículo, por ejemplo, si provocan la penetración de óxido, o pueden, como mínimo, mermar el valor del vehículo. Por consiguiente, la detección de daños puede ser relevante para todos los vehículos terrestres, aéreos o acuáticos, pero sobre todo para los automóviles y, en especial, para los que se alquilan y están sujetos a frecuentes cambios de conductor. En este último caso, existe un conflicto particular de objetivos en la medida en que una empresa de alquiler de vehículos desea ofrecer a sus clientes una forma rápida y cómoda no sólo de recibir sino también de devolver el vehículo alquilado, pero al mismo tiempo se expone al riesgo de no poder detectar suficientemente y/o documentar de forma fiable y objetiva los daños durante una devolución rápida y, a continuación, asignarlos claramente a un cliente para poder presentar una reclamación por los daños.
Cuando se devuelve un vehículo alquilado, una persona suele realizar una inspección visual en el vehículo parado. Los daños detectados se comparan con un atlas de superficie existente del vehículo para detectar si los daños son antiguos o nuevos. En el caso de daños nuevos, la documentación se lleva a cabo fotografiando o, si es necesario, filmando el daño y realizando una nueva entrada en el atlas de superficies del vehículo, para lo cual la persona que realiza la inspección es responsable de configurar y manejar la cámara fotográfica o de vídeo correspondiente, por ejemplo, la cámara de un teléfono inteligente. Este proceso es susceptible de fallos en varios aspectos. Por un lado, es posible que daños tales como arañazos de anchura o de longitud muy pequeñas (por ejemplo, de menos de 0,5 mm de ancho o 1 cm de largo) o abolladuras de profundidad y diámetro muy pequeños (por ejemplo, con una profundidad de unos pocos milímetros y un diámetro inferior a 3 cm) no sean advertidos por la persona que realiza la inspección, especialmente durante una inspección visual rápida, posiblemente con poca luz. Además, aunque los daños se detectaran a simple vista, es posible que no se detectaran correctamente en la foto o el vídeo tomados, por ejemplo, debido a una iluminación insuficiente, a los reflejos provocados por el uso del flash, a una distancia excesiva del vehículo en el momento de tomar la foto y, por tanto, a una resolución insuficiente de la misma, a la falta de estabilidad de la mano y, por tanto, a la borrosidad de la imagen, y mucho más. En particular, es muy difícil generar de este modo una imagen en la que las abolladuras de poca profundidad sean claramente visibles. Por último, incluso si el daño es reconocible en la foto, la asignación a una posición específica en el vehículo, es decir, la localización del daño en el vehículo en su conjunto, puede no estar suficientemente documentada. Estas deficiencias también pueden causar problemas considerables más adelante a la hora de liquidar siniestros.
En lugar de una inspección visual, también es conocido filmar el vehículo de forma no manual con varias cámaras de vigilancia o fotografiarlo con varias cámaras desde diferentes ángulos. A continuación, deben detectarse los daños en el vídeo o en imágenes individuales inspeccionando el material de imagen. Esto suele fallar, especialmente en el caso de pequeños arañazos o abolladuras poco profundas, porque el material de la imagen grabada no es lo suficientemente bueno como para detectar siquiera potencialmente algo. El registro de imágenes por una persona permitía, al menos si se detectaba un daño (nuevo) mediante inspección visual, que el registro de imágenes de la persona se concentrara en la región dañada, aunque los errores humanos pudieran perjudicar la calidad de los datos de imagen del registro de imágenes. Cuando se graban imágenes con cámaras de vigilancia y similares conocidas en el estado de la técnica, que registran todo el vehículo, la calidad de los datos, como por ejemplo la resolución de las imágenes, suele ser insuficiente desde el principio para poder detectar daños menores, sobre todo si además se añade suciedad, e independientemente de si la evaluación la realiza un ser humano o una máquina. A menudo, la calidad de los datos se ve afectada por el hecho de que la situación de iluminación, por ejemplo, una iluminancia máxima de 300 Ix con luz normal (ambiente), no permite obtener imágenes de buena resolución y rápidas. Pero aunque no sea así en casos excepcionales, la calidad de los datos se resiente por el hecho de que en el momento de tomar la imagen aún no se sabe si hay daños y de qué tipo pueden ser (arañazos, abolladuras, etc.). Por lo tanto, la grabación no puede concentrarse en una posición para optimizar el ángulo de visión, la iluminación, etc., ni tomar precauciones para adoptar medidas adecuadas para la grabación de imágenes en función del tipo de daño. La calidad de los datos de imagen es a menudo tan inadecuada para la detección de daños menores y abolladuras, posiblemente también en la diferenciación de polvo/suciedad ligera, que una tasa de detección de la máquina no va más allá de lo que cabría esperar por pura casualidad.
El documento 102017210558 B3 se refiere a un dispositivo para medir daños en la carrocería de vehículos de motor. El dispositivo cuenta con un dispositivo de iluminación con LED que genera bandas luminosas en la carrocería del vehículo, así como cámaras de exploración de área para la detección deflectométrica de la estructura de iluminación reflejada por la carrocería del vehículo. El dispositivo también dispone de cámaras 3D 11 para generar imágenes de profundidad de la forma del vehículo. El dispositivo dispone de una unidad de evaluación que identifica los defectos de la carrocería del vehículo en las imágenes de superficie y localiza los defectos identificados en el vehículo proyectando las imágenes de superficie sobre las imágenes de profundidad. El documento DE 20 2018 103 274 U1 se refiere a un dispositivo para inspeccionar la superficie de un vehículo de motor. El dispositivo consta de láseres de línea de diferentes colores, una placa reflectora, una cámara y una unidad de evaluación. La zona a inspeccionar se cubre con haces en forma de línea procedentes de los láseres de línea, cuya imagen es registrada en la placa reflectora por la cámara. El dispositivo de medición con los láseres lineales, la cámara y la placa reflectora puede desplazarse a lo largo de la dirección longitudinal del vehículo, y los láseres lineales pueden girarse mediante un dispositivo giratorio para centrar las líneas láser en la placa reflectora. El documento WO 2004/081488 A2 se refiere a un sistema de escaneado para detectar anomalías de objetos, como un vehículo de motor. El sistema de escaneado consta de un proyector que usa una fuente de luz y una placa de cristal para crear un patrón espacial absolutamente codificado. La fuente de luz puede emitir frecuencias infrarrojas, frecuencias visibles o frecuencias ultravioletas. Se puede variar su color, ajustar la polarización o usar iluminación estroboscópica. El sistema de escaneado consta de cámaras estereoscópicas que forman una matriz de escaneado móvil que puede desplazarse horizontalmente hacia delante y hacia atrás a través del vehículo de motor y girarse. El documento JP2018059835 A se refiere a un procedimiento y un aparato para medir la forma externa de vehículos ferroviarios.
Existe la necesidad de mejorar los dispositivos y procedimientos para la detección de daños en vehículos, especialmente para la detección de daños que está sujeta a limitaciones de tiempo.
Resumen
A la luz de lo anterior, se proporciona un aparato según la reivindicación 1 y un procedimiento según la reivindicación 10. En las reivindicaciones dependientes y en la descripción se muestran perfeccionamientos y formas de realización ventajosos.
Un aspecto se refiere a un dispositivo para detectar daños en un vehículo que se está desplazando. El dispositivo consta de un sistema de iluminación para iluminar el vehículo que se está desplazando, un sistema de sensores para detectar datos de imagen del vehículo que se está desplazando y un sistema de evaluación para detectar los daños del vehículo. Según una forma de realización, el sistema de iluminación comprende una primera unidad de iluminación configurada para iluminar el vehículo de desplazamiento con una primera luz y una segunda unidad de iluminación configurada para iluminar el vehículo de desplazamiento con una segunda luz que es diferente de la primera luz. La primera unidad de iluminación está preparada para iluminar el vehículo que se está desplazando con luz polarizada, siendo la primera luz polarizada, y la segunda unidad de iluminación está preparada para iluminar el vehículo que se está desplazando con luz que tiene una frecuencia en la gama de infrarrojos y estructuración espacial, siendo la segunda luz infrarroja y estando estructurada espacialmente. El sistema sensor comprende un primer elemento sensor que está configurado para detectar los datos de la primera imagen del vehículo que se está desplazando cuando se ilumina con la primera luz y un segundo elemento sensor que está configurado para detectar los datos de la segunda imagen del vehículo que se está desplazando cuando se ilumina con la segunda luz, en el que el primer elemento sensor está configurado para detectar los datos de la primera imagen cuando se ilumina con la primera luz separándolos de la iluminación con la segunda luz, y en el que el segundo elemento sensor está configurado para detectar los datos de la segunda imagen cuando se ilumina con la segunda luz separándolos de la iluminación con la primera luz. El sistema de evaluación está configurado para detectar los daños del vehículo a partir de los datos de las imágenes primera y segunda capturadas.
Otro aspecto se refiere a un procedimiento para detectar daños en un vehículo que se está desplazando. Según una forma de realización, el procedimiento comprende iluminar el vehículo que se está desplazando con una primera luz e iluminar el vehículo que se está desplazando con una segunda luz, en la que la primera luz es diferente de la segunda luz, en la que la primera luz es luz polarizada y en la que la segunda luz es luz infrarroja y luz y presenta una estructura espacial. El procedimiento comprende la captura de datos de la primera imagen del vehículo que se está desplazando cuando se ilumina con la primera luz, mientras se separa de la iluminación con la segunda luz, y la captura de datos de la segunda imagen del vehículo que se está desplazando cuando se ilumina con la segunda luz, mientras se separa de la iluminación con la primera luz. El procedimiento comprende la detección de los daños del vehículo a partir de los datos de las imágenes primera y segunda capturadas.
Breve descripción de los dibujos
Los aspectos anteriormente mencionados y otros aspectos detallados se explican con más detalle en la descripción y, al menos parcialmente, con referencia a las figuras. Las ilustraciones muestran lo siguiente:
La Fig. 1 muestra una representación esquemática de un dispositivo para detectar daños en un vehículo que se está desplazando según una forma de realización descrita en el presente documento;
Las Figs. 2-4 muestran vistas externas e internas en perspectiva de un dispositivo según una forma de realización descrita en el presente documento;
Las Figs. 5-6 muestran imágenes ilustrativas tal como podrían haber sido grabados dibujadas por las cámaras del dispositivo según las Figs. 2-4;
La Fig. 7 ilustra un procedimiento.
Descripción detallada
A continuación se describen algunas formas de realización. Al describir las formas de realización a partir de las figuras, se usan los mismos símbolos de referencia para las partes idénticas o similares y, en la medida de lo posible, dichas partes no se describen repetidamente.
El dispositivo según las formas de realización aquí descritas está diseñado para detectar daños en un vehículo que se está desplazando. Normalmente, el vehículo se desplaza por sus propios medios, pero también podría pasar por el dispositivo en una cinta transportadora similar a la de un túnel de lavado, por ejemplo. Incluso podría instalarse un túnel de lavado antes del dispositivo para eliminar la suciedad del vehículo y mejorar la calidad de los datos de imagen y simplificar la detección de los daños, por ejemplo, si una estación de devolución de vehículos dispone de un túnel de lavado. La capacidad del dispositivo para detectar daños en un vehículo que se está desplazando se refiere en última instancia a un movimiento relativo entre el dispositivo y el vehículo, en particular a un movimiento relativo a una velocidad de al menos 3,6 km/h (= 1 m/s) o de al menos 5 km/h (velocidad de marcha). Normalmente, el dispositivo descansa en relación con el suelo, por lo que puede ser un dispositivo estacionario en particular. La detección de daños puede tener lugar durante el movimiento relativo a una velocidad inferior a 50 km/h o inferior a 25 km/h.
El dispositivo puede ser usado en estaciones de devolución situadas, por ejemplo, en garajes de varios pisos o en aparcamientos (por ejemplo, en el aeropuerto), conectadas a lavaderos de coches o situadas en otras estaciones de alquiler en un espacio interior o exterior. Los vehículos pueden ser, por ejemplo, vehículos terrestres tales como coches o camiones. Los vehículos suelen ser automóviles o turismos. En otras palabras, los vehículos son objetos tridimensionales, grandes y móviles, con superficies complejas, donde "grande" significa que en su interior cabe al menos una persona. En particular, los vehículos pueden tener al menos una de las siguientes propiedades: Capacidad para alojar personas; capacidad para transportar personas; autopropulsados; motorizados, en particular mediante motores de combustión interna o motores eléctricos; superficies no planas; superficies curvas; superficies con bordes; superficies pintadas, en particular superficies pintadas de colores; superficies superiores a 4, 6, 8 o 10 metros cuadrados. La referencia a un vehículo o a las características de un vehículo implica un diseño correspondiente del dispositivo (por ejemplo, dimensionamiento) para iluminar dicho vehículo, registrar datos de imagen y detectar daños en el mismo.
El dispositivo comprende un sistema de iluminación, un sistema de sensores y un sistema de evaluación. El sistema de sensores y el sistema de evaluación pueden conectarse para la transmisión de datos. El sistema sensor puede transmitir datos del sensor, en particular datos de imagen, al sistema de evaluación. El sistema de evaluación puede transmitir órdenes de control al sistema de sensores. El sistema de iluminación y el sistema de evaluación también pueden estar conectados para la transmisión de datos. El sistema de evaluación puede transmitir órdenes de control al sistema de iluminación. También se puede configurar el sistema de evaluación para configurar el sistema de sensores y/o el sistema de iluminación. El sistema de evaluación puede ser configurado para ajustar los parámetros de funcionamiento del sistema de sensores y/o del sistema de iluminación mediante comandos de control durante un período de adquisición de datos de imagen del vehículo que se está desplazando. La configuración o dotación puede realizarse, en particular, en función de las características del vehículo y/o del estado de movimiento del mismo. Por ejemplo, el sistema de evaluación puede determinar el carril del vehículo que se está desplazando y, en función de las desviaciones con respecto a una línea central del dispositivo, configurar las distancias focales de las cámaras del sistema de sensores antes de la primera adquisición de datos de imagen o, si es necesario, ajustarlas durante el periodo de adquisición en función del carril actual o previsto. El sistema de evaluación puede configurarse para coordinar el sistema de sensores y el sistema de iluminación, en particular en términos temporales, pero posiblemente también en términos espaciales, espectrales u otros aspectos.
El sistema de iluminación puede ser dimensionado espacialmente para permitir el paso del vehículo que se está desplazando. Lo mismo puede aplicarse al sistema de sensores y, en su caso, a un sistema de reducción de la luz descrito a continuación. Los sistemas o uno o varios de ellos pueden disponerse al menos sobre un semiespacio que rodea el techo y los laterales del vehículo que se está desplazando, por ejemplo, a modo de arco/pasillo o túnel. Los sistemas, y posiblemente al menos uno de ellos, también pueden disponerse en todo el espacio que rodea el techo, los laterales y los bajos del vehículo que se está desplazando, por lo que el suelo sobre el que se desplaza el vehículo puede tener los componentes correspondientes, o los componentes correspondientes pueden estar incrustados en este suelo. Por ello, el dispositivo completo suele tener un tamaño considerable y está preparado para generar datos de imagen de objetos tridimensionales de gran tamaño, como la superficie del vehículo.
El sistema de iluminación está configurado para iluminar el vehículo que se está desplazando. Iluminación por el sistema de alumbrado, o partes del mismo, significa que la luz correspondiente de esta iluminación es generada por el sistema de alumbrado. Si sólo se hace referencia a la iluminación, ésta puede ser luz generada por el sistema de iluminación o puede ser luz de fondo o puede contener ambas.
El sistema de iluminación está configurado para iluminar el vehículo que se está desplazando de una manera espacialmente estructurada. La estructuración puede incluir los siguientes tipos de estructuración, individualmente o en cualquier combinación de los mismos:
estructuración temporal (por ejemplo, encendido/apagado con frecuencia específica o modulación temporal de la intensidad luminosa), estructuración de frecuencia (por ejemplo, monocromaticidad o espectro de frecuencia definido de la luz) y estructuración de polarización (por ejemplo, polarización lineal con diferentes ángulos). La iluminación especial puede proporcionar la base sobre la que el sistema de sensores adaptado de modo adecuado, que puede ser controlado por el sistema de evaluación, puede generar datos de imagen de alta calidad, lo que a su vez permite la detección fiable de daños por el sistema de evaluación.
La iluminación adecuada puede depender del tipo de daño que hay que detectar. Por ejemplo, para generar datos de imagen a partir de los cuales detectar abolladuras en el vehículo, se puede proyectar sobre el vehículo un patrón espacial (un patrón unidimensional, tal como rayas, o bidimensional, tal como cuadrículas, puntos) de alto contraste, en el que el patrón espacial también puede cambiar con el tiempo (patrón errante; patrón espaciotemporal). El reflejo de la superficie del vehículo puede ser detectado por los componentes del sistema de sensores. Es posible, por ejemplo, que la iluminación y la medición de la reflexión tengan lugar en un ángulo de 0° entre sí y, posiblemente, perpendicular a la superficie del vehículo, en lugar de -como se sabe por las grabaciones manuales en un vehículo parado- una medición de la reflexión en luz rasante, que es susceptible de interferencias. A modo de ejemplo, podrían irradiarse agentes polarizadores planos cruzados, uno de ellos de superficie completa, otro con un patrón, con lo que, por ejemplo, puede generarse un patrón de rejilla o de cuadros. Una cámara puede grabar la imagen de reflexión a través de un orificio en los medios de polarización o colocarse delante de los medios de polarización, con la cámara midiendo a lo largo de la misma línea que la iluminación. El uso de luz prácticamente monocroma, como la proporcionada por lámparas de vapor de gas o determinados LED, o el uso de luz con un espectro especial y discreto puede ser ventajoso para la calidad de los datos de imagen para la detección de abolladuras, por lo que se puede promover un fuerte contraste ventajoso del patrón reduciendo la luz de fondo o la influencia de la luz de fondo en los datos de imagen.
Para la generación de datos de imagen a partir de los cuales deben detectarse los arañazos en el vehículo, resulta ventajoso un espectro de frecuencias adaptado al color del vehículo y posiblemente a las propiedades ópticas de la capa inferior, por ejemplo, luz monocromática de una determinada longitud de onda, que también puede variarse en el tiempo si es necesario. Además, la luz de iluminación puede polarizarse en diferentes ángulos, posiblemente con separación temporal o espacial de las polarizaciones individuales. La iluminación también puede proporcionarse desde distintos ángulos de iluminación. En particular, el sistema de iluminación puede comprender una primera unidad de iluminación preparada para iluminar el vehículo que se está desplazando con una primera luz, que puede ser monocromática y/o polarizada. Por consiguiente, los componentes del sistema de sensores pueden comprender datos de imagen de la misma zona de la superficie del vehículo para diferentes polarizaciones y, posiblemente, para diferentes longitudes de onda mediante los correspondientes filtros de polarización y, si es necesario, la separación temporal o espacial de las imágenes. Se pueden realizar detecciones adicionales desde distintos ángulos. Las imágenes polarimétricas correspondientes se pueden usar en el sistema de evaluación para filtrar las impurezas (polvo, suciedad ligera), ya que éstas reaccionan sensiblemente a los cambios de longitud de onda y/o de polarización. Así es más fácil distinguir entre suciedad y arañazos. Los propios arañazos se pueden resaltar mejor eligiendo el espectro de frecuencias adecuado de la luz de iluminación. Dado que, por lo general, se deben detectar todos los tipos de daños, el sistema de iluminación puede comprender varios grupos de componentes que proporcionen una iluminación especial para diferentes fines.
El sistema sensor puede configurarse de manera adecuada para hacer frente a la(s) iluminación(es) especial(es) proporcionada(s) por el sistema de iluminación. El sistema de sensores puede tener un grupo de componentes correspondiente para cada grupo de componentes del sistema de iluminación que produce una de las iluminaciones especiales para los diferentes fines/tipos de daños, que coopera con el grupo de componentes del sistema de iluminación. Por ejemplo, para la detección de abolladuras, un grupo de componentes del sistema de iluminación puede emitir luz estructurada monocromática y espacialmente rica en contraste sobre una zona de la superficie del vehículo y se puede configurar un grupo de componentes correspondiente del sistema sensor para detectar la luz de la frecuencia correspondiente (y suprimir otra luz, por ejemplo, mediante filtros espectrales/filtros de color), con lo que la detección puede tener lugar en un ángulo de visión específico (por ejemplo, con una desviación de unos pocos grados con respecto a la luz irradiada) o en diferentes ángulos de visión. Tras el procesamiento, el sistema de evaluación buscará principalmente abolladuras en los datos de imagen correspondientes. Para la detección de arañazos, otro grupo de componentes del sistema de iluminación puede emitir luz monocromática polarizada sobre una zona de la superficie del vehículo y un grupo de componentes correspondiente del sistema sensor puede configurarse para detectar luz de la frecuencia correspondiente y polarizaciones diferentes, con lo que la detección puede tener lugar desde uno o diferentes ángulos de visión. El sistema de evaluación buscará principalmente arañazos en los datos de imagen correspondientes tras el procesamiento.
Pueden separarse espacialmente varios pares de grupos de componentes correspondientes, de tal modo que diferentes zonas de la superficie del vehículo sean analizadas al mismo tiempo por los distintos pares. Sin embargo, también es posible que los diversos pares de grupos de componentes correspondientes estén dispuestos en la misma área espacial y analicen la misma zona de la superficie del vehículo, pero estén separados por la estructuración temporal de la luz irradiada (temporización, modulación temporal). Del mismo modo, la misma zona de la superficie del vehículo podría analizarse espacial y temporalmente mediante varios pares de grupos de componentes correspondientes, siempre que se realice una separación (durante la adquisición de datos o en la evaluación) en función de otras propiedades ópticas, como por ejemplo, según la frecuencia o la polarización.
Por ejemplo, el sistema de iluminación puede comprender una primera unidad de iluminación configurada para iluminar el vehículo que se está desplazando con una primera luz, que es luz visible monocromática polarizada (por ejemplo luz verde), y una segunda unidad de iluminación configurada para iluminar el vehículo que se está desplazando con una segunda luz, que es luz monocromática de una frecuencia diferente a la de la primera luz (luz infrarroja) y que está estructurada espacialmente, por ejemplo, mediante un patrón bidimensional (patrón de rejilla, patrón de cuadros o similar). La primera y la segunda iluminación pueden tener lugar simultáneamente. Los componentes del sistema sensor (unidades sensoras o elementos sensores) pueden entonces separar espectralmente la primera iluminación y la segunda iluminación, por ejemplo usando filtros espectrales adecuados, y generar diferentes datos de imagen, cada uno de los cuales se usa para detectar diferentes tipos de daños (arañazos, abolladuras). El uso de luz infrarroja para la iluminación estructurada espacialmente también puede resultar ventajoso, ya que una estructuración espacial de la luz visible podría molestar al conductor del vehículo al recorrer el dispositivo porque, por ejemplo, los componentes de luz y sombra de un patrón cuadriculado podrían percibirse como parpadeos.
Los parámetros de funcionamiento del sistema sensor pueden adaptarse a los parámetros de funcionamiento del sistema de iluminación, por ejemplo, mediante el sistema de evaluación. El sistema de evaluación puede configurarse para que actúe como sistema de control del sistema de sensores y/o del sistema de iluminación. Por ejemplo, los filtros de polarización eléctricamente variables del sistema de iluminación podrían configurarse y cambiarse en coordinación con los filtros de polarización eléctricamente variables del sistema sensor, por ejemplo, con respecto a un ángulo de polarización de la luz polarizada linealmente. Si una luz de iluminación del sistema de iluminación está estructurada en términos de tiempo, los componentes del sistema de sensores pueden configurarse de manera consiguiente o controlarse para registrar también datos de imagen con una estructuración temporal adecuada. Esto podría hacerse, por ejemplo, con un sistema de amplificador lock-in óptico, con el objetivo de suprimir la luz de fondo. Una facilidad o adaptabilidad similar puede aplicarse a la estructuración espacial (también estructuración espacial "errante") y a la estructuración en el espectro de frecuencias o en la polarización. La luz iluminada también se puede modular en el tiempo y se puede grabar una secuencia de imágenes del vehículo tanto cuando la luz iluminada está encendida como cuando está apagada. La proporción de luz de fondo en el total de luz incidente, que siempre es la misma, no sigue la modulación temporal y puede suprimirse procesando la secuencia de imágenes, por ejemplo, mediante transformación de Fourier y filtrado de la proporción procedente de la luz de fondo. Las medidas mencionadas pueden reducir la influencia de los componentes luminosos procedentes de la luz de fondo y, de este modo, simplificar la posterior evaluación de la imagen para la detección de daños y hacerla más fiable.
Además de un ajuste de la iluminación (ángulo de iluminación/ángulo de visión y mucho más) o un ajuste del uso previsto, los componentes del sistema de sensores pueden registrarse en su disposición espacial en relación con los demás, es decir, su posición y orientación (ángulo de visión) en el espacio son conocidas por el sistema de evaluación. Por ejemplo, se pueden usar matrices de cámaras registradas, que comprenden varias lentes con diferentes distancias focales y, posiblemente, diferentes filtros de luz para su uso en función del color del vehículo. El sistema de evaluación también puede obtener información de profundidad a partir de los datos de imagen de dichos sistemas de sensores y, en particular, usar la fotogrametría para crear un mapa de profundidad ("profundidad Z") del vehículo, a partir del cual pueden detectarse desviaciones estructurales (carrocería alabeada, etc.) y abolladuras.
El sistema sensor está configurado para detectar datos de imagen del vehículo que se está desplazando. El vehículo que se está desplazando está iluminado por el sistema de iluminación cuando se captura al menos una parte de los datos de la imagen. El movimiento del vehículo da lugar a un periodo máximo de detección durante el cual el sistema sensor puede detectar datos de imagen del vehículo que se está desplazando. Este periodo máximo de detección puede ser, por ejemplo, inferior a 3 segundos con un área de cobertura del sensor de 2 metros en el sentido de la marcha del vehículo y una velocidad de 5 km/h (velocidad de marcha). Sólo durante este periodo pueden registrarse las zonas de la superficie del vehículo detectadas por el sistema de sensores con el fin de obtener datos de imagen para la detección de daños. Se puede configurar el dispositivo para realizar el proceso de adquisición de imágenes de todo el vehículo o incluso todo el proceso de detección de daños en menos de 30, menos de 20, menos de 10 o incluso menos de 5 segundos. Los datos de imagen capturados pueden estar disponibles en un formato bruto de alta resolución y transmitirse al sistema de evaluación en este formato. El procesamiento de imágenes puede dejarse enteramente en manos del sistema de evaluación, mientras que el sistema de sensores, por ejemplo, no lleva a cabo ningún filtrado inherente, igualado o incluso compresión de los datos en bruto, como suele ocurrir en el hardware de las cámaras de vigilancia conocidas o de las cámaras de los smartphones, pero que resulta desventajoso para la detección de daños. Sin embargo, las cámaras individuales del sistema de sensores que sirven como elementos sensores también pueden realizar preprocesamiento sin igualación ni compresión, por ejemplo, procesamiento de imágenes para compensación de movimiento. Las cámaras pueden acceder a sus parámetros de funcionamiento exactos y a otras propiedades para cada imagen en cuestión, incluida la dirección de visión, los ajustes ópticos (distancia focal, apertura, etc.), las propiedades de la matriz CCD, etc., que de otro modo tendrían que transmitirse primero a la unidad de evaluación para el procesamiento de imágenes. Las cámaras pueden tener su propio hardware integrado ("Unidad Central de Procesamiento" =CPU y/o "Unidad de Procesamiento Gráfico" =GPU) para dicho preprocesamiento. Las imágenes también pueden enviarse a la unidad de evaluación en un formato de datos brutos sin igualar ni comprimir durante dicho preprocesamiento.
El sistema de evaluación está configurado para procesar los datos de la imagen e identificar los daños del vehículo. Los datos de la imagen pueden haberse recibido directamente desde el sistema sensor. El sistema de evaluación y todo el dispositivo pueden ser totalmente automáticos. En particular, el sistema de evaluación puede usar la inteligencia artificial para este fin. El procesamiento de los datos de imagen capturados por el sistema sensor y transmitidos al sistema de evaluación puede incluir: Preparación de datos de imágenes, conversión de datos de imágenes, detección y eliminación de artefactos, registro de datos de imágenes, unión de datos de imágenes o fusión de datos de imágenes, fotogrametría, cálculo de mapas de profundidad (cálculos de campos luminosos). El tratamiento de datos de imagen puede incluir filtrado (por ejemplo, filtrado de frecuencia, filtrado de umbral), enmascaramiento (posiblemente basado en un modelo del vehículo) y similares. La conversión de datos de imagen puede, por ejemplo, implicar la conversión de datos de imagen en color a datos de imagen en blanco y negro (por ejemplo, como paso final antes de que la inteligencia artificial intente identificar los daños en los datos de imagen). La detección de artefactos puede incluir la detección de bordes del vehículo, ventanas, etc., posiblemente basándose en un modelo del vehículo, pero también la eliminación de reflejos no deseados y similares. Los reflejos no deseados pueden deberse, por ejemplo, a la luz de fondo. Estos reflejos no deseados debidos a la luz de fondo pueden deberse, en particular, al procesamiento de al menos dos imágenes (datos de la primera y segunda imagen) que muestran la misma zona de imagen en la superficie del vehículo en condiciones de iluminación diferentes, en las que al menos una iluminación del sistema de iluminación se encendió cuando se grabó una imagen (de los datos de la primera imagen) y se apagó cuando se grabó la otra imagen (de los datos de la segunda imagen). El procesamiento puede incluir bucles internos de retroalimentación, por ejemplo, la aplicación de determinados tipos de tratamiento de datos de imagen en función de resultados de detección anteriores. El procesamiento también puede incluir bucles de retroalimentación externos en los que el sistema de evaluación controla otros sistemas del dispositivo en función de los pasos de procesamiento realizados (por ejemplo, los resultados de la detección). Por ejemplo, una zona de la imagen podría contener un reflejo involuntario que se detecta como tal, pero que eclipsa todo lo demás en la zona en la que se produce, de modo que cuando se elimina el reflejo, no queda ninguna información de la imagen en este punto a partir de la cual se pueda detectar el daño. Tras la detección del artefacto, el sistema de evaluación puede controlar el sistema de sensores y, si es necesario, el sistema de iluminación para tomar otra imagen del vehículo para la zona de la imagen afectada, posiblemente con diferentes parámetros de funcionamiento. Tras el procesamiento y el registro de los datos de imagen, los datos de imagen adicionales pueden fusionarse con los datos de imagen originales para obtener una imagen completa en la que se reconozcan todos los detalles, incluidos los daños en la zona previamente sobreexpuesta debido a reflejos no deseados. El sistema de evaluación puede configurarse para detectar los daños del vehículo en los datos de imagen procesados.
El sistema de sensores puede comprender sensores para medir la posición, la velocidad y/o la aceleración del vehículo. Alternativamente, al menos una variable de la posición, velocidad y aceleración del vehículo puede derivarse de los datos de imagen, por ejemplo, grabando el vehículo cuando entra sin iluminación especial y analizando los datos de imagen correspondientes por el sistema de evaluación. También se pueden deducir características del vehículo tales como el color, el tipo, las dimensiones, la forma, etc., por ejemplo, mediante la detección de matrículas. El sistema de sensores puede configurarse para transmitir repetidamente datos de imagen procedentes de al menos uno, en particular varios, elementos sensores registrados (cámaras) a lo largo del periodo de detección, por lo que los datos de imagen pueden ser, por ejemplo, vistas generales del vehículo y, en particular, ser tales que la posición, la velocidad y posiblemente la aceleración del vehículo puedan deducirse de ellas (sensores ópticos de seguimiento). El sistema de sensores puede comprender una unidad de comunicación para transmitir datos hacia y desde el vehículo, en particular una unidad de comunicación inalámbrica. El vehículo puede transmitir a la unidad de comunicación sus características y, posiblemente, también datos sobre su estado de movimiento, como la velocidad y/o la aceleración. El sistema de sensores puede configurarse en consecuencia para enviar datos (de sensores) sobre las características del vehículo y/o sobre el estado de movimiento del vehículo al sistema de evaluación. El sistema de evaluación puede configurarse para deducir las características correspondientes del vehículo y/o el estado de movimiento a partir de estos datos del sensor (datos de imagen u otra forma de datos). Las características del vehículo y/o el estado de movimiento del vehículo pueden ser usados por el sistema de evaluación para evaluar los datos de imagen, por ejemplo, usando el estado de movimiento para relacionar los datos de imagen registrados en diferentes puntos en el tiempo, o usando el tipo de vehículo para inferir los bordes previstos de la carrocería y usarlos en los datos de imagen para referenciarlos o excluirlos como posibles daños ("abolladuras").
El sistema de evaluación también puede estar dispuesto para configurar o ajustar el sistema de iluminación y/o el sistema de sensores basándose en estas características del vehículo y/o el estado de movimiento, en particular antes del periodo de adquisición y/o durante el periodo de adquisición en el que los datos de imagen del vehículo que se está desplazando son adquiridos por el sistema de sensores. La duración del periodo de grabación es inferior o igual al periodo máximo de grabación. Por lo tanto, el plazo para este tipo de información puede ser muy corto. Por ejemplo, el sistema de evaluación puede configurar el sistema de iluminación para que emita luz de una determinada longitud de onda o de determinadas longitudes de onda y, posiblemente, de una determinada polarización en función de un color de vehículo detectado o de un determinado tipo de vehículo, de modo que los daños destaquen especialmente en comparación con el color del vehículo o se estimule el brillo de la capa inferior. El sistema de evaluación puede configurarse para calcular el carril previsto a partir de los datos de los sensores sobre el estado de movimiento del vehículo y, en caso necesario, para actualizar/mejorar la predicción cuando se reciban más datos de este tipo de los sensores. El sistema de evaluación puede configurarse para configurar las unidades sensoras de imágenes o los elementos sensores del sistema sensor en función del carril previsto calculado y, si es necesario, en función del conocimiento de las dimensiones del vehículo, por ejemplo, para configurar o ajustar las distancias focales a fin de obtener imágenes nítidas de la superficie del vehículo. En otro ejemplo, se puede configurar el sistema de evaluación para identificar zonas candidatas de la superficie del vehículo a partir de los primeros datos de imagen obtenidos, en las que potencialmente podría haber daños, y luego adaptar el sistema de iluminación y/o el sistema de sensores para iluminar o detectar de nuevo estas zonas candidatas con parámetros modificados a fin de mejorar localmente la calidad de los datos de imagen y hacer así más fiable la detección de daños en las zonas candidatas.
El sistema de evaluación puede comprender un algoritmo que procese los datos de la imagen capturada y/o identifique daños en el vehículo, pudiendo comprender el sistema de evaluación inteligencia artificial, en particular para detectar daños. La inteligencia artificial puede entrenarse usando datos de imagen de al menos la misma (alta) calidad que los datos de imagen captados por el sistema sensor. El sistema de evaluación puede configurarse para localizar los daños detectados, es decir, para relacionar los datos de imagen correspondientes con una imagen global del vehículo que se está desplazando. El sistema de evaluación puede configurarse para clasificar los daños detectados, es decir, para determinar su tipo (abolladura, arañazo, etc.) y, en caso necesario, su gravedad (categorías cualitativas tales como "arañazo fuerte" o "arañazo leve" y/o información cuantitativa sobre variables de caracterización de los daños como "longitud del arañazo", "anchura del arañazo", "profundidad del arañazo"). El sistema de evaluación puede configurarse para anotar un daño detectado. Esto puede hacerse, por ejemplo, creando un conjunto de datos de texto asignado a los daños detectados en el que se describan los daños, o creando metadatos que puedan asignarse a los píxeles y faciliten la detección de los daños detectados en los datos de la imagen. El resultado del sistema de evaluación puede ser un atlas completo de la superficie del vehículo que se está desplazando (con o sin bajos), en el que pueden introducirse daños localizados, clasificados y anotados.
El dispositivo puede comprender un sistema de reducción de luz. El sistema de reducción de la luz puede configurarse para reducir la influencia de la luz de fondo (luz ambiente) en los datos de la imagen capturada. La luz de fondo es la luz no generada por el sistema de iluminación del dispositivo, por ejemplo, la luz solar o la iluminación de un aparcamiento. Para reducir la influencia de la luz de fondo, se puede configurar el sistema de reducción de luz para apantallar la luz de fondo del sistema de sensores. El sistema de reducción de luz puede comprender una unidad de reducción de luz pasiva y apantallante, por ejemplo en forma de túnel. El sistema de reducción de la luz puede configurarse alternativa o adicionalmente para reducir la influencia de la luz de fondo mediante una unidad activa de reducción de la luz, por ejemplo, en forma de una unidad óptica de amplificación lock-in que controle el sistema de iluminación y el sistema de sensores. Una unidad activa de reducción de la luz de este tipo puede ser integrada, al menos parcialmente, en el sistema de evaluación. Alternativamente, el sistema de reducción de luz integrado en el sistema de evaluación, o la parte del sistema de reducción de luz integrada en el sistema de evaluación, puede controlar el sistema de iluminación y el sistema de sensores de tal modo que la iluminación se module en el tiempo y la adquisición de datos de imagen se coordine con la modulación, y puede evaluar los datos de imagen registrados de acuerdo con la modulación, por ejemplo mediante transformación de Fourier y filtrado. Una reducción de este tipo de la influencia de la luz de fondo en los datos de imagen es un ejemplo de evaluación de los datos de imagen primero y segundo de la misma zona del vehículo (misma zona de imagen) en diferentes situaciones de iluminación.
El sistema de reducción de luz puede reducir la luz de fondo (luz ambiente) recibida por el sistema sensor. El sistema de reducción de la luz puede reducir directamente la cantidad de luz de fondo que llega al sistema de sensores. El sistema de reducción de la luz puede ser un sistema pasivo de reducción de la luz que no consuma energía propia, por ejemplo, un túnel delante y detrás del sistema de iluminación y del sistema de sensores, en el que el túnel puede consistir, por ejemplo, en paneles con un revestimiento que absorba la luz y/o una estructura superficial tridimensional que inhiba la propagación de la luz. Alternativa o adicionalmente, se puede reducir la influencia de la luz de fondo en los datos de la factura, pero no impidiendo que la luz de fondo llegue al sistema de sensores. Para ello, el sistema de reducción de luz puede ser un sistema activo de reducción de luz que consuma energía por sí mismo. Por ejemplo, el sistema de reducción de luz puede incluir una unidad óptica de amplificador lock-in que controla el sistema de iluminación para realizar exposiciones a una frecuencia específica y controla el sistema sensor para adquirir datos de imagen correlacionados con los tiempos de exposición. La unidad de amplificación lock-in puede ser una unidad de control de software y una unidad de análisis de software integrada en el sistema de evaluación. La influencia de la luz de fondo puede eliminarse de los datos de la imagen mediante la técnica lock-in. Esto se consigue alineando el sensor de imagen con la modulación temporal de la luz incidente y amplificando sólo aquellos componentes luminosos de la luz recibida por el sensor que coincidan con la frecuencia de ritmo y la posición de fase de la modulación temporal. La frecuencia de ritmo específica puede ser tan alta que no sea perceptible para el ojo humano y, por tanto, en particular para un conductor del vehículo, por ejemplo, superior a 100 Hz, en particular superior a 600 Hz o superior a 1 kHz. El sistema de reducción de luz también podría controlar el sistema de iluminación para realizar exposiciones a una frecuencia determinada y controlar el sistema de sensores para detectar datos de imagen correlacionados con los tiempos de exposición y también con otros tiempos de referencia intermedios. Analizando los datos de la imagen capturada en diferentes situaciones de iluminación mediante software, se puede eliminar la luz de fondo que no sigue la frecuencia específica, por ejemplo, usando procedimientos que incluyen la transformación de Fourier. Por ejemplo, se puede usar una transformación de Fourier para separar la componente de la señal en los datos de la imagen originada por la luz de fondo de la componente de la señal en los datos de la imagen, que varía con el tiempo debido a la modulación temporal de la iluminación, y luego filtrarla. El sistema de reducción de la luz puede ser configurada para que reduzca la intensidad luminosa de la luz de fondo de forma real (es decir, en el sistema sensor) o matemática (es decir, en los datos de la imagen) de estas formas en un factor de al menos 5, al menos 10, al menos 20 o incluso al menos 100. Al reducir la luz de fondo o la influencia de la luz de fondo en los datos de la imagen, se eliminan de los datos de la imagen los componentes luminosos interferentes procedentes del fondo, tales como los reflejos, lo que simplifica el posterior análisis de la imagen y mejora la fiabilidad de la evaluación de los daños.
El dispositivo aquí descrito puede proporcionar datos de imagen de alta calidad y alta resolución de vehículos en movimiento optimizados para la detección de los respectivos tipos de daños, es decir, de objetos tridimensionales de gran tamaño con superficies complejas, cuyo movimiento implica una restricción de tiempo ajustada para la grabación y posiblemente la evaluación de los datos de imagen, mediante las técnicas especiales de luz/iluminación, que posiblemente incluyen la reducción de la influencia de la luz de fondo, y mediante los ajustes del sensor adaptados al mismo y posiblemente adaptados aún más durante el período de grabación. En este caso, el dispositivo con las técnicas de iluminación y sensores especiales descritas puede permitir una supresión de la luz de fondo más fuerte en comparación con un dispositivo que usaría iluminación ordinaria tal como la de las bombillas, y también se beneficia de manera desproporciobada de las posibilidades descritas de supresión de la luz de fondo. Una razón de ello puede ser que la luz de fondo puede separarse más fácilmente de las iluminaciones especiales del sistema de iluminación, a saber, directamente en los elementos del sensor (por ejemplo, usando filtros) y/o en los datos de la imagen (por ejemplo, comparando los datos de la primera y la segunda imagen que representan la misma zona de la imagen en diferentes situaciones de iluminación). Por lo tanto, pueden surgir ventajas especiales, por ejemplo, cuando las imágenes para la detección de distintos tipos de daños (abolladuras, arañazos) se toman simultáneamente con iluminaciones superpuestas y diferentes. Si los elementos sensores (cámaras) que registran los datos de la imagen no son cámaras disponibles en el mercado que ya realizan la igualación y posiblemente la compresión de los datos de la imagen en el lado del hardware, sino cámaras especialmente desarrolladas (posiblemente con su propio hardware integrado, como CPU y GPU) que proporcionan un formato específico de datos sin procesar, esto puede ser especialmente ventajoso para la detección de daños mediante inteligencia artificial. Esta calidad de los datos de imagen de los vehículos en movimiento va más allá de lo que es posible con las cámaras de vigilancia conocidas, por ejemplo, y es conocida en el estado de la técnica. Basándose en esta calidad de datos, es posible procesar los datos de imagen y detectar los daños de forma totalmente automática con un detalle sin precedentes (daños pequeños y muy pequeños) y con gran fiabilidad, por ejemplo, usando uno o varios sistemas de inteligencia artificial entrenados con los datos de imagen de alta calidad y preprocesados.
A continuación se describen posibles detalles de los sistemas individuales del dispositivo, en los que los componentes de los sistemas pueden realizar las funciones ya mencionadas, así como otras funciones. Cada función descrita debe entenderse también como una posible característica de un procedimiento de detección de daños en un vehículo que se está desplazando, que puede ser realizada en particular, pero no necesariamente, por el componente de un sistema del dispositivo descrito a este respecto. Cada uno de los sistemas del dispositivo puede tener una o todas las características que se describen a continuación.
Sistema de iluminación
El sistema de iluminación comprende varias unidades de iluminación. Las unidades de iluminación pueden ser subsistemas funcionales del sistema de iluminación. Por ejemplo, una primera unidad de iluminación puede emitir luz monocromática polarizada con el fin de registrar datos de imagen para la detección de arañazos, una segunda unidad de iluminación puede emitir luz monocromática diferente estructurada espacialmente con el fin de registrar datos de imagen para la detección de abolladuras, una tercera unidad de iluminación puede emitir luz con el fin de registrar datos de imagen para la detección de daños estructurales en los bajos, etc. Por consiguiente, se pueden disponer las unidades de iluminación por separado en términos de espacio, funcionar independientemente en términos de tiempo y/o su respectiva iluminación reflejada desde la superficie del vehículo puede separarse de otra iluminación por otros medio, por ejemplo, a través de diferentes frecuencias o de polarización.
Una unidad de iluminación puede configurarse para iluminar una superficie de forma esencialmente homogénea. Por ejemplo, la unidad de iluminación puede configurarse para que las fluctuaciones de intensidad luminosa en la zona sean inferiores al 10 % de la intensidad luminosa media. Una unidad de iluminación de este tipo se denomina en el presente documento unidad de iluminación de superficie. La superficie puede ser superior a 1, 2, 4, 8 o más metros cuadrados. Una unidad de iluminación puede comprender uno o más elementos de iluminación. Los elementos de iluminación pueden estar dispuestos en un conjunto o formar una disposición regular. El conjunto/disposición regular de elementos de iluminación puede tener un tamaño de más de 1, 2, 4, 8 o más metros cuadrados, medidos como el área entre los elementos de iluminación más externos que forman un borde. La unidad de iluminación puede contener, por ejemplo, al menos 100, 500 o incluso más elementos de iluminación. La disposición de los elementos de iluminación de una unidad de iluminación puede diseñarse de tal manera que se forme una unidad de iluminación de área. La unidad de iluminación se puede configurar para que emita luz en un rango angular predeterminado o predeterminable, para emitir luz monocromática y/o para emitir luz de una polarización predeterminada o predeterminable. El sistema de iluminación comprende una primera unidad de iluminación que está configurada para iluminar el vehículo que se está desplazando con una primera luz. La primera luz es luz polarizada.
La primera luz puede ser luz visible. El sistema de iluminación comprende una segunda unidad de iluminación que está configurada para iluminar el vehículo que se está desplazando con una segunda luz diferente de la primera. La segunda luz puede ser una luz monocromática de frecuencia diferente a la de la primera luz. La segunda luz es la luz infrarroja. La segunda luz también está estructurada espacialmente, en particular estructurada espacialmente en dos dimensiones (por ejemplo, con un patrón de rejilla o de franja). La primera y/o la segunda unidad de iluminación pueden consistir en un conjunto de elementos de iluminación. La primera y/o la segunda unidad de iluminación pueden ser una unidad de iluminación de área.
Un elemento de iluminación puede comprender una fuente de luz, por ejemplo como parte de una luminaria. Una fuente de luz puede ser una lámpara de vapor de gas, por ejemplo una lámpara de vapor de sodio, o un diodo emisor de luz (LED), un diodo láser, un diodo emisor de luz de cavidad resonante (RC-LED) o un diodo emisor de luz orgánico (OLED). Una fuente de luz puede ser un emisor monocromático. Alternativamente, una fuente de luz puede ser un emisor policromático. Un elemento de iluminación puede configurarse para emitir luz en un rango de ángulos predeterminare con respecto a la superficie o geometría iluminada, en particular con respecto a la superficie iluminada del vehículo.
Un elemento de iluminación puede comprender al menos un filtro de polarización. Un filtro de polarización puede ser un filtro de polarización lineal o circular. Un filtro de polarización puede tener una polarización fija o puede ser controlado para cambiar la polarización, por ejemplo, para cambiar el ángulo de polarización de una polarización lineal. Un filtro de polarización puede ser, por ejemplo, un filtro acústico-óptico sintonizable (AOTF) o un filtro ajustable de cristal líquido sintonizable (LCTF). Los filtros de polarización pueden disponerse en uno o varios planos delante de una fuente luminosa para que la luz se polarice antes de incidir en el vehículo. Alternativamente, la unidad de iluminación puede tener un filtro de polarización común para todos o un grupo de elementos de iluminación pertenecientes a ella, que puede tener las propiedades mencionadas. La iluminación con luz polarizada se puede usar ventajosamente, en particular, para registrar datos de imagen a partir de los cuales deben detectarse arañazos en el vehículo.
Un elemento de iluminación puede diseñarse para iluminar un vehículo que se está desplazando de una manera estructurada en el tiempo. En particular, el sistema de iluminación puede comprender un modulador temporal diseñado para controlar elementos de iluminación del sistema de iluminación de manera temporal (discreta) y, en particular, para controlar elementos de iluminación pertenecientes a una unidad de iluminación juntos de manera temporal (discreta). La iluminación estructurada temporalmente se refiere a un estado de encendido/apagado repetitivo, controlado o dependiente del tiempo, de un elemento de iluminación o a una modulación temporal de la intensidad luminosa del elemento de iluminación. El estado de encendido y apagado puede referirse, por ejemplo, a una frecuencia de ritmo a la que el elemento de iluminación se enciende o apaga repetidamente. Sin embargo, también se pueden superponer varias frecuencias de ritmo para cambiar el estado correspondiente de un elemento de iluminación. Las frecuencias de ritmo son preferentemente superiores a 100 Hz para que no sean reconocibles por el ojo humano, por ejemplo, superiores a 1 kHz. El modulador temporal puede ser controlado por el sistema de evaluación, por ejemplo, especificando frecuencias de ritmo y/o periodos de tiempo para la estructuración temporal. Varias unidades de alumbrado, grupos de elementos de alumbrado de diferentes unidades de alumbrado, grupos de elementos de alumbrado de la misma unidad de alumbrado y/o elementos de alumbrado individuales del sistema de alumbrado pueden ser sincronizados entre sí en el tiempo, de tal modo que las unidades de alumbrado o los elementos de alumbrado emitan luz de forma sincronizada o emitan luz en una correlación temporal fija entre sí. La estructuración temporal se puede usar para reducir la influencia de la luz de fondo en los datos de la imagen (por ejemplo, tecnología de amplificador lock-in o tecnología de transformación y filtro de Fourier). Por otra parte, se podría usar para separar diferentes unidades de iluminación o diferentes elementos de iluminación dentro de una unidad de iluminación a lo largo del tiempo (por ejemplo, alternando rápidamente la iluminación con (grupos de) elementos de iluminación que emiten luz de diferente polarización y/o longitud de onda).
Además, puede conseguirse una separación temporal de unidades de alumbrado o de grupos de elementos de alumbrado de una unidad de alumbrado encendiendo o apagando la unidad de alumbrado o el grupo de elementos de alumbrado una vez, mientras que otros elementos de alumbrado se apagan en el momento de encendido en cuestión. Sin embargo, el simple encendido/apagado puntual no se entiende aquí como modulación temporal. El término "secuencia de iluminación" se usa aquí para describir una operación separada en el tiempo mediante el encendido y el apagado de diferentes elementos de iluminación, grupos de elementos de iluminación o diferentes unidades de iluminación una vez y de forma coordinada. La estructuración temporal de la luz puede tener lugar dentro de las secciones de la secuencia de iluminación. El sistema de iluminación puede tener un secuenciador que conmuta una secuencia de iluminación según las instrucciones de la unidad de evaluación. El secuenciador y el modulador temporal también pueden ser funciones de un componente del sistema de iluminación.
Un elemento de iluminación o una unidad de iluminación con varios elementos de iluminación puede diseñarse para iluminar el vehículo que se está desplazando de una manera espacialmente estructurada. En particular, el elemento de iluminación, o la unidad de iluminación en conjunto para sus varios elementos de iluminación o al menos para un grupo de ellos, puede comprender un estructurador espacial que está diseñado para estructurar espacialmente la luz emitida por el elemento de iluminación o los elementos de iluminación de la unidad de iluminación, es decir, para predeterminar ciertas variaciones de intensidad de la luz en la superficie iluminada por la unidad de iluminación ("patrón de luces y sombras"). Un patrón de iluminación geométrico, que puede estar formado por formas geométricas repetitivas tales como líneas o curvas, está estructurado espacialmente, por ejemplo. Normalmente, pueden combinarse dos o más formas geométricas para crear un patrón de iluminación espacialmente estructurado en el vehículo que se está desplazando, por ejemplo, un patrón de cuadrícula o a cuadros. El estructurador espacial puede ser un dispositivo de sombreado plano que especifica la forma del patrón geométrico de iluminación que se va a crear, por ejemplo, un patrón de cuadrícula o un patrón a cuadros. El sombreado puede estar formado, por ejemplo, por dos medios de polarización cruzados cuyas polarizaciones lineales formen un ángulo, preferentemente perpendicular, para conseguir el máximo sombreado de la luz en las zonas de superposición de los medios de polarización y, por lo tanto, el máximo contraste. Las zonas superpuestas pueden definir el patrón de iluminación, por ejemplo, un patrón rayado usando un agente polarizador de superficie completa y un agente polarizador formado por varias bandas perpendiculares a él. El sombreado puede ser móvil para proporcionar un patrón geométrico de iluminación que cambie con el tiempo ("travelling"). Por ejemplo, un medio de polarización puede ser móvil con respecto al otro (traslación y/o rotación). Alternativamente, los elementos de iluminación de una unidad de iluminación pueden estar dispuestos en la forma del patrón de iluminación y estar configurados para irradiar juntos esencialmente en una dirección con el fin de proyectar el patrón de iluminación. El elemento de iluminación o la unidad de iluminación pueden configurarse para crear una estructura espacial de alto contraste. Por alto contraste se entiende una relación de intensidad luminosa entre las zonas claras y las zonas de sombra de al menos 10. La iluminación con luz estructurada espacialmente se puede usar ventajosamente en particular para registrar datos de imagen a partir de los cuales deben detectarse abolladuras en el vehículo.
Un elemento de iluminación o una unidad de iluminación con varios elementos de iluminación puede estar diseñada para iluminar el vehículo que se está desplazando de una manera espectralmente estructurada. En particular, un elemento de alumbrado o una unidad de alumbrado puede emitir un espectro específico o puede comprender un modulador espectral diseñado para modificar el espectro emitido a fin de iluminar el vehículo con luz de una o varias frecuencias/longitudes de onda o con luz de una o varias gamas de frecuencias/longitudes de onda. Espectralmente estructurado significa que un elemento de iluminación o una unidad de iluminación está diseñada para emitir luz de una o más frecuencias/longitudes de onda específicas. Un elemento de iluminación puede estar diseñado para emitir luz a una frecuencia específica o luz de una o más bandas de frecuencia luminosa. Un elemento de iluminación puede ser un emisor monocromático, es decir, emitir esencialmente luz de una sola frecuencia. Todos los elementos luminosos de una unidad de iluminación pueden ser emisores monocromáticos de la misma frecuencia. Una unidad de iluminación de este tipo se denomina unidad de iluminación monocromática. No obstante, también pueden existir grupos de elementos de alumbrado de una unidad de alumbrado, en los que los elementos de alumbrado de un grupo son emisores monocromáticos de la misma frecuencia. Estos grupos se denominan grupos monocromáticos de elementos de iluminación. Todos los elementos de iluminación de una unidad de alumbrado pueden tener el mismo diseño. Sin embargo, también pueden existir grupos de elementos de iluminación, en los que los elementos de iluminación de un grupo tienen el mismo diseño. Cada grupo puede, por ejemplo, formar un subconjunto de un conjunto de todos los elementos de iluminación de la unidad de iluminación. Puede tratarse de grupos monocromáticos con distintas frecuencias de luz. La estructuración espectral puede seleccionarse en particular a partir de las características del vehículo, tales como el color del vehículo, y el sistema de evaluación puede controlar las unidades de iluminación o los elementos de iluminación individualmente o en grupos en consecuencia para generar el espectro de frecuencias seleccionado, posiblemente también con estructuración temporal y/o espacial. La iluminación con luz espectralmente estructurada, en particular luz monocromática, puede mejorar la calidad de los datos de la imagen en lo que respecta a la detección de arañazos y abolladuras.
El sistema de iluminación puede comprender una o más unidades portadoras. Una unidad portadora puede configurarse para transportar una o varias unidades de iluminación. Una unidad portadora puede comprender elementos portadores que lleven un elemento de iluminación o un grupo de elementos de iluminación. Los elementos de soporte pueden incluir medios de fijación para los elementos de iluminación. Las unidades portadoras pueden conectarse mecánicamente entre sí. Las unidades portadoras conectadas mecánicamente pueden formar un arco de paso para el vehículo. Alternativamente, el dispositivo puede comprender un bastidor de base al que se fijan las unidades portadoras, por ejemplo, para formar el arco de paso. Las unidades de soporte o el bastidor base pueden estar diseñados para proporcionar estabilidad mecánica y pueden ser de metal o plástico, por ejemplo. Una unidad portadora puede ser al menos tan grande como la(s) unidad(es) de iluminación que transporta. Las unidades portadoras y/o los elementos portadores pueden ser unidades portadoras o elementos portadores dinámicos o estáticos. Una unidad portadora dinámica puede ser, por ejemplo, una unidad portadora equipada con un elemento de accionamiento que puede cambiar la posición y/o la orientación de la unidad portadora en el espacio, por ejemplo, según un control del sistema de evaluación. Por ejemplo, una unidad de soporte dinámica puede girarse para cambiar el ángulo de iluminación de todas las unidades o elementos de iluminación soportados por ella conjuntamente. La posición y/o la orientación de un elemento portador dinámico pueden modificarse en consecuencia mediante su propio elemento de accionamiento, por ejemplo, mediante control desde el sistema de evaluación, con separación de la unidad portadora. Si se gira un elemento de soporte, por ejemplo, sólo cambia conjuntamente el ángulo de iluminación de los elementos de iluminación soportados por el elemento de soporte. Una unidad portadora estática puede ser, por ejemplo, una unidad portadora fija, por ejemplo, anclada en el suelo o en la estructura de un edificio. También pueden combinarse unidades portadoras estáticas y dinámicas. Un arco de paso para el vehículo puede estar formado por varias unidades portadoras conectadas mecánicamente, o alternativamente por una sola unidad portadora. El arco de paso y, en consecuencia, la unidad o unidades portadoras que lo forman, pueden estar dimensionados para permitir el paso del vehículo y pueden estar dimensionados para encerrar un espacio de aire que rodee al vehículo además del vehículo. La forma del arco de paso puede ser curvada o angular en sección transversal a la dirección de la marcha, por lo que puede incluirse un segmento de bajos plano sobre el que se pueda pasar. Los segmentos bajo la carrocería pueden tener marcas de carril para que los vehículos con asistentes de carril pasen por el centro de la curva a menos que el conductor lo contrarreste deliberadamente. Esto facilita que los elementos sensores (cámaras) capten una imagen nítida de la superficie del vehículo, ya que las distancias a la superficie del vehículo varían con menos frecuencia e intensidad. El segmento de los bajos puede incrustarse en el suelo para que no haya desplazamiento de altura cuando el vehículo pase por el dispositivo. Sin embargo, el segmento bajo el suelo también puede elevarse por encima del suelo y ser accesible mediante rampas, por ejemplo. Se puede usar un segmento de bajos elevado para limitar la velocidad de tránsito, por ejemplo, para limitar la velocidad de tránsito por debajo de 30 km/h. El arco pasante puede comprender dos segmentos laterales, un segmento superior y un segmento inferior, cada uno de los cuales puede constar de una o más unidades portadoras, por ejemplo, en particular unidades portadoras planas. Para la detección de daños en automóviles/turismos, los segmentos laterales pueden tener longitudes de 1 a 4 metros y alturas de 2,5 a 5 metros, por ejemplo, 2 metros por 4 metros. El segmento superior puede tener una longitud de 1 a 4 metros y una anchura de 3 a 6 metros, por ejemplo, 2 metros por 5 metros. Lo mismo se aplica al segmento del suelo, si existe.
La(s) unidad(es) portadora(s) puede(n) ser común(es) al sistema de iluminación y al sistema de sensores. Esto significa que las unidades sensoras con sus elementos sensores también pueden fijarse a las unidades portadoras del sistema de iluminación. Las unidades sensoras, los grupos de elementos sensores o los elementos sensores individuales pueden estar soportados por elementos portadores estáticos o soportados por elementos portadores dinámicos y, por lo tanto, ser móviles, como por ejemplo, pueden girar o bascular.
Las unidades portadoras pueden ser unidades portadoras estáticas, por lo que en cada caso dos unidades portadoras adyacentes pueden formar un ángulo entre sí, la unidad de iluminación transportada por la unidad portadora delantera puede entonces en particular iluminar la parte delantera del vehículo al circular, la unidad de iluminación transportada por la unidad portadora central puede iluminar los laterales del vehículo y la unidad de iluminación transportada por la unidad portadora trasera puede iluminar la parte trasera del vehículo.
Sistema de sensores
El sistema de sensores comprende varias unidades de sensores de imágenes. Una unidad de sensor puede comprender uno o más elementos sensores, en particular uno o más elementos sensores de imágenes. Un elemento sensor de imágenes puede ser una cámara, en particular una cámara fotográfica, en donde la cámara puede tener componentes ópticos tales como lentes, aberturas y filtros. Una unidad de sensor puede comprender exactamente una cámara, pero también puede comprender varias cámaras. Por ejemplo, una unidad de sensor puede tener una primera cámara diseñada para detectar una primera luz monocromática (por ejemplo, luz visible monocromática) y una segunda cámara diseñada para detectar una segunda luz monocromática diferente de la primera luz (por ejemplo, luz infrarroja cercana monocromática). Las cámaras de una unidad de sensor pueden disponerse tan cerca unas de otras que tengan casi la misma posición y el mismo ángulo de visión. De este modo, se pueden detectar simultáneamente diferentes datos de imagen de la misma área de imagen desde casi el mismo ángulo. Las unidades sensoras o elementos sensores (cámaras) pueden disponerse formando un conjunto. Alternativamente, podrían ser aleatorios.
El sistema de sensores puede comprender una unidad de sensores para la identificación del vehículo. La unidad de sensor para la identificación de vehículos puede tener una cámara de vigilancia o una cámara fotográfica ordinaria capaz de detectar datos de imagen de un vehículo que entra sin iluminación especial. La unidad de sensor para la identificación del vehículo puede instalarse a la entrada del dispositivo, es decir, en el extremo delantero del dispositivo con respecto a la dirección de desplazamiento del vehículo, y/o orientarse para detectar un vehículo antes de que entre en el dispositivo. La unidad de sensor para la identificación del vehículo puede activarse mediante un umbral de contacto. Este umbral de contacto puede configurarse para que envíe una señal al sistema de evaluación cuando pase el vehículo, lo que activa la unidad de sensor para la identificación del vehículo. El sistema de evaluación puede configurarse para analizar los datos de imagen de la unidad de sensor para la identificación del vehículo, derivar una característica que identifique el vehículo y usarla para determinar si el vehículo que entra en el vehículo está registrado para el servicio de detección de daños. Para esto último, el sistema de evaluación puede, por ejemplo, acceder a la base de datos.
La unidad de sensor para la identificación del vehículo puede configurarse para detectar toda la vista frontal del vehículo que entra. El elemento de identificación del vehículo puede ser la matrícula del vehículo que figura en la placa de matrícula. Por lo tanto, el elemento de identificación del vehículo también puede consistir en marcas ópticas, por ejemplo, letras, imágenes o códigos ópticos, posiblemente en posiciones específicas de la superficie del vehículo. La unidad de sensor para la identificación del vehículo puede configurarse para registrar sólo una parte específica de la vista frontal del vehículo que entra, por ejemplo, sólo la parte en la que están fijadas las marcas ópticas, pero no la matrícula. La parte grabada de la vista frontal del vehículo que entra puede ser tal que la identificación del vehículo no sea posible si las marcas ópticas no están presentes en la parte grabada. Esto puede servir para la protección de datos de conductores y propietarios de vehículos no implicados en el servicio. El sistema de evaluación puede configurarse para activar otras unidades de sensores y el sistema de iluminación si el registro de servicio del vehículo es positivo (es decir, el vehículo está registrado para el servicio de detección de daños), que se dejan en estado de reposo si el registro de servicio es negativo. Para abreviar, esta función se denomina "activar el dispositivo" aunque parte del dispositivo esté permanentemente activo para despertar al resto.
Si se ha realizado una determinación positiva en relación con el registro del vehículo para el servicio de detección de daños (registro del servicio), el sistema de evaluación puede realizar un análisis ampliado del vehículo. El análisis ampliado del vehículo puede incluir la determinación de elementos de datos relativos a otras características del vehículo (por ejemplo, marca, modelo, color(es), matrícula del vehículo, información de alquiler y posiblemente también un mapa de daños existente del vehículo) y/o la determinación de elementos de datos relativos al estado de movimiento del vehículo (por ejemplo, posición actual, velocidad y/o aceleración en relación con el dispositivo, orientación/alineación en relación con el dispositivo). El sistema de evaluación puede ser configurado para que acceda a una base de datos con objeto de un análisis ampliado del vehículo, en particular para determinar dichos elementos de datos para otras características del vehículo. Para determinar los elementos de datos, el sistema de evaluación puede analizar (volver a analizar) los datos de imagen de la unidad de sensor para la identificación del vehículo. Si estos elementos de datos no pueden determinarse o no pueden determinarse completamente a partir de los datos de imagen existentes, pueden registrarse otros datos de imagen, en particular sobre el estado de movimiento. El estado de movimiento puede rastrearse, es decir, determinarse repetidamente.
El sistema sensor puede comprender una o más unidades sensoras para el análisis ampliado del vehículo, por ejemplo, una o más cámaras de vigilancia posiblemente giratorias o basculantes, o el sistema de evaluación puede configurarse para reconfigurar la unidad sensora para la identificación del vehículo a fin de realizar un análisis ampliado del vehículo. Si se ha realizado una determinación positiva en relación con el registro del vehículo para el servicio de detección de daños (registro de servicio), el sistema de evaluación puede activar la(s) unidad(es) de sensor para el análisis ampliado del vehículo o reconfigurar la unidad de sensor para la identificación del vehículo para la detección ampliada del vehículo. Si, por ejemplo, sólo se ha registrado previamente una parte específica de la vista frontal, la unidad de sensor para la identificación del vehículo o una unidad de sensor para el análisis ampliado del vehículo puede registrar una vista general del vehículo desde su ángulo de visión (actual), posiblemente de forma repetida y posiblemente cambiando el ángulo de visión de acuerdo con el sistema de evaluación. El sistema de evaluación puede ser configurado para realizar ajustes en el dispositivo (iluminación, selección/configuración de otras unidades y elementos sensores, etc.) en función de los demás datos que determine.
Alternativa o adicionalmente, el sistema sensor puede tener una unidad de comunicación, en particular una unidad de comunicación inalámbrica. La unidad de comunicación puede configurarse para establecer un enlace de comunicación con una unidad de comunicación correspondiente del vehículo y para recibir al menos un elemento de datos que permita al sistema de evaluación determinar si el vehículo está registrado para el servicio de detección de daños. En este caso, el vehículo se da de alta en el servicio, por así decirlo, y la captura óptica de imágenes y la identificación del vehículo derivada de ella no son absolutamente necesarias en este caso. La conexión de comunicación puede establecerse mediante estándares comunes, por ejemplo, estándares de radio (GSM, UMTS, LTE y LTE-Advanced/5G, Bluetooth, WLAN), estándares de infrarrojos (IrDA) o estándares de comunicación de campo cercano (NFC).
Además, la unidad de comunicación puede configurarse para recibir otros elementos de datos de la unidad de comunicación correspondiente del vehículo tras el registro del vehículo para el servicio de detección de daños ("registro del servicio o "registro del vehículo"). Estos elementos de datos adicionales pueden incluir elementos de datos que describan otras características del vehículo, como por ejemplo, marca, modelo, color, matrícula del vehículo, información sobre el alquiler y, posiblemente, también una tarjeta de daños del vehículo. Estos elementos de datos pueden transmitirse y recibirse una sola vez. Los otros elementos de datos también pueden incluir elementos de datos que describan el estado de movimiento del vehículo, por ejemplo, la velocidad actual y la aceleración actual, medidas por los sensores del vehículo. Estos elementos de datos pueden transmitirse y recibirse repetidamente para seguir el movimiento del vehículo (casi continuamente si es necesario). Por lo tanto, el análisis ampliado del vehículo también puede realizarse a través de la unidad de comunicación. La detección óptica y el seguimiento pueden realizarse además de la recepción de los elementos de datos correspondientes por el sistema de comunicación, en particular para la determinación de los elementos de datos sobre el estado de movimiento del vehículo y para su seguimiento. Esto aumenta la fiabilidad y la independencia de la disponibilidad y la calidad de los datos de los sensores del vehículo. El dispositivo/sistema de evaluación puede configurarse para determinar al menos el color del vehículo a partir de datos de imagen. El dispositivo/sistema de evaluación puede configurarse para determinar al menos posiciones y/u orientaciones del vehículo en relación con el dispositivo a partir de datos de imagen. La información sobre la posición/orientación del vehículo en relación con el dispositivo no puede ser determinada por el propio vehículo, por lo que puede descartarse una consulta a través de los sistemas de comunicación. El dispositivo/sistema de evaluación puede configurarse para determinar el carril anticipado usando al menos una posición y/u orientación determinadas, posiblemente usando al menos una velocidad y/o aceleración asociadas. El dispositivo/sistema de evaluación puede configurarse para determinar las distancias previstas entre los elementos sensores y las zonas de imagen en la superficie del vehículo a partir de las características previstas del carril y del vehículo, en particular la forma y las dimensiones del vehículo. El dispositivo/sistema de evaluación puede configurarse para configurar o ajustar los parámetros de los elementos sensores en función de las distancias previstas, por ejemplo, las distancias focales de los elementos sensores. Las distancias focales de los elementos sensores también podrían ajustarse mediante las funciones de autoenfoque de cada uno de ellos.
El sistema de sensores comprende varias unidades de sensores de imágenes. Una unidad de sensor de imagen puede comprender uno o más elementos sensores configurados para detectar datos de imagen. Los elementos sensores de este tipo pueden ser, en particular, cámaras. Los elementos sensores de una unidad de sensor de imágenes pueden configurarse conjuntamente para detectar datos de imagen optimizados para la detección de un tipo de daño, por ejemplo, arañazos o abolladuras o daños estructurales en el vehículo, y pueden ajustarse en consecuencia a la misma iluminación mediante elementos de iluminación del sistema de alumbrado, por ejemplo, coordinando la temporización con la iluminación, pero también, por ejemplo, usando los mismos filtros. Los elementos sensores de una unidad de sensores de imágenes pueden configurarse alternativamente para detectar datos de imágenes optimizados para la detección de distintos tipos de daños.
El sistema de sensores puede comprender unidades de sensores o elementos de sensores que formen un conjunto de cámaras. Un conjunto de cámaras puede, por ejemplo, contener cámaras fijadas a elementos de soporte en un plano transversal perpendicular a la dirección de desplazamiento del vehículo en una curva de acceso. Las cámaras de un conjunto de cámaras pueden tener diferentes longitudes focales y/o diferentes ángulos de visión de la superficie del vehículo. Las distancias focales pueden fijarse a una distancia normal de la superficie del vehículo de los vehículos normales y pueden ser invariables. Alternativamente, las distancias focales pueden ser variables, por ejemplo, por el sistema de evaluación sobre la base de las distancias probables calculadas a la superficie del vehículo para el vehículo que se está registrando en ese momento. También se pueden usar diferentes distancias focales para obtener información de profundidad sobre la distancia entre la cámara y el vehículo. Las cámaras de un conjunto de cámaras pueden usar el mismo tipo de filtro. Por ejemplo, un primer conjunto de cámaras puede contener cámaras de alta resolución con filtros de corte infrarrojo que se activan durante la iluminación con luz monocromática polarizada. De este modo se pueden obtener datos de imagen especialmente adecuados para detectar arañazos mediante inteligencia artificial. Un segundo conjunto de cámaras puede contener cámaras de resolución media con filtros de paso de banda estrecha que se activan durante la iluminación con luz monocromática, espacialmente estructurada y de alto contraste. De este modo se pueden obtener datos de imagen especialmente adecuados para la detección de abolladuras mediante inteligencia artificial. Aquí, el término "alta resolución" significa una resolución de más de 3 píxeles por milímetro o más de 9 píxeles por milímetro cuadrado, y una resolución media significa una resolución de 0,5 píxeles por milímetro o 0,25 píxeles por milímetro cuadrado.
Un elemento sensor puede comprender uno o más elementos de filtro óptico para filtrar la luz incidente. Un elemento filtrante puede ser, por ejemplo, un filtro acústico-óptico sintonizable (AOTF) o un filtro ajustable de cristal líquido sintonizable (LCTF). Un elemento filtrante puede comprender un filtro de polarización con polarización invariable o un filtro de polarización ajustable. Un elemento filtrante puede comprender un filtro espectral. El filtro espectral puede ser, por ejemplo, un filtro óptico de paso bajo, en particular un filtro de corte infrarrojo, o un filtro óptico de paso de banda, por ejemplo un filtro de banda estrecha, que puede estar diseñado para transmitir esencialmente sólo luz monocromática de una frecuencia, en particular la luz emitida por el sistema de iluminación y reflejada por la superficie del vehículo. Un elemento filtrante puede comprender un filtro espectral diseñado para filtrar la luz de los faros del vehículo. Esto puede ser especialmente ventajoso si se toman imágenes frontales del vehículo y se encienden los faros, lo que puede hacerse automáticamente desde el lado del vehículo, por ejemplo, si está demasiado oscuro en el dispositivo (por ejemplo, debido al uso de un túnel) desde el punto de vista de los sensores del vehículo. El elemento filtrante puede estar diseñado para ser controlable en el tiempo, por ejemplo, en sincronización o en coordinación con la estructura temporal, espacial y/o espectral de la luz emitida por uno o más elementos de iluminación. Por ejemplo, puede diseñarse un filtro de polarización controlable en el tiempo para analizar la luz polarizada emitida por el sistema de iluminación tras la reflexión en la superficie del vehículo a través de diferentes direcciones de polarización discretas. Como alternativa, se puede usar un número correspondiente de elementos sensores con filtros de polarización fijos. Por ejemplo, pueden registrarse tres direcciones de polarización lineal (por ejemplo, 0°, 45°, 90°). Pueden codificarse por separado en un formato de imagen (por ejemplo, por separado en los tres canales de color de una imagen en color, por ejemplo, una imagen RGB). A continuación, estos datos de imagen codificados por separado pueden procesarse, por ejemplo, compararse, y seguir analizándose. La información de la imagen obtenida a partir de la luz de iluminación de polarización diferente se puede usar, por ejemplo, para distinguir arañazos finos de la suciedad ligera mediante inteligencia artificial.
Un elemento sensor, en particular una cámara, puede comprender una lente o una disposición de lentes. La lente o la disposición de lentes pueden tener una distancia focal. La distancia focal puede estar comprendida, por ejemplo, entre 5 y mm, en particular entre 10 y 60 mm, como 15, 35 y 55 mm. La distancia focal puede ajustarse dinámicamente, por ejemplo, mediante la unidad de evaluación. Para ello, una disposición de lentes puede ser variable (lente zoom) o se pueden usar diferentes lentes o disposiciones de lentes para un elemento sensor. En lugar de la distancia focal de un objetivo o de una disposición de objetivos, también se habla de la distancia focal del elemento sensor. Las diferentes distancias focales permiten detectar imágenes nítidas, incluso si las distancias a la superficie del vehículo pueden variar para cada vehículo, por ejemplo, porque son vehículos diferentes o porque los mismos vehículos toman carriles diferentes a través del dispositivo. También se pueden usar diferentes distancias focales para registrar datos de imagen a partir de los cuales se puede obtener información sobre la distancia o la profundidad.
Un elemento sensor puede tener otros componentes ópticos, tales como aberturas u obturadores.
Un elemento sensor puede tener una orientación o un ángulo de visión fijo con respecto al dispositivo y puede estar fijado por un elemento de soporte estático. Con las formas convencionales de los vehículos, esto también da lugar a ángulos de visión similares en las superficies del vehículo diferentes, por ejemplo, en las superficies laterales (puertas, guardabarros, llantas), el techo o el capó, etc. Un elemento sensor puede montarse en las mismas unidades portadoras en las que también están montados elementos de iluminación, en particular aquellos elementos de iluminación con los que el elemento sensor interactúa funcionalmente para generar datos de imagen para la detección de daños específicos. Sin embargo, el ángulo de visión también puede ser configurable/personalizable, por ejemplo, mediante un elemento de soporte dinámico que lleve el elemento sensor y pueda girarlo o bascularlo. El sistema de evaluación permite configurar el ángulo de visión de un elemento sensor. El ángulo de visión puede configurarse en función de determinadas propiedades del vehículo, tal como el modelo. Esto significa, por ejemplo, que el ángulo de visión deseado de la superficie de un vehículo para detectar los distintos tipos de daños puede ajustarse individualmente para cada vehículo. Por ejemplo, una imagen perpendicular a la superficie del vehículo con iluminación paralela simultánea con luz monocromática espacialmente estructurada puede ser deseada para la detección de abolladuras y puede ser ajustada en consecuencia girando de manera correspondiente elementos portadores (o unidades portadoras) de elementos sensores y/o elementos de iluminación. Por otro lado, los elementos sensores fijos con una orientación fija pueden resultar ventajosos debido a que sus elementos de soporte son más sencillos y estáticos. En caso necesario, sólo una unidad portadora común puede ser móvil, por ejemplo, giratoria, pero no los elementos portadores individuales. Por ejemplo, una unidad portadora completa con unidad(es) de iluminación podría tener la forma de un panel de iluminación y podría girar alrededor de un eje, incluyendo elementos sensores (cámaras) montados delante de él, mientras que todos los elementos sensores y elementos de iluminación montados en el panel de iluminación están fijos en relación con el panel. El resultado es una mayor personalización sin que aumente mucho la complejidad de la mecánica de movimiento y los controles.
Un elemento sensor puede ser una cámara digital que suministra datos de imagen en forma digital, por ejemplo a través de una matriz CCD. El elemento sensor puede ser una cámara digital de alta resolución, por ejemplo para detectar datos de imagen para la detección de arañazos. El elemento sensor puede ser una cámara digital de resolución media, por ejemplo, para detectar datos de imagen para la detección de abolladuras. El elemento sensor puede configurarse para que envíe datos de imagen en formato bruto a la unidad de evaluación, siendo responsabilidad de ésta cualquier procesamiento de los datos de imagen. Sin embargo, esto puede acarrear unos costes de tratamiento de datos muy elevados en la unidad de evaluación. Alternativamente, un elemento sensor puede tener su propia CPU y/o GPU integrada, que procesa los datos de imagen en bruto antes de enviarlos a la unidad de evaluación. La CPU/GPU integrada puede configurarse para calcular el desenfoque causado por el movimiento del vehículo, por ejemplo, teniendo en cuenta la información sobre el movimiento del vehículo. Los datos de imagen preprocesados en consecuencia en el elemento sensor pueden enviarse a la unidad de evaluación en un formato de datos brutos (propietario), en el que el formato de datos brutos propietario contiene datos de imagen sin comprimir y/o sin igualar.
Los elementos sensores pueden sincronizarse entre ellos, así como grupos de elementos sensores o unidades sensoras. La sincronización puede consistir en una adquisición simultánea de datos de imagen o en una adquisición temporalmente correlacionada de datos de imagen. Una correlación temporal puede, por ejemplo, tener en cuenta la velocidad del vehículo, de tal modo que la misma zona de imagen en la superficie del vehículo pueda ser registrada por distintos elementos sensores en momentos diferentes. En los distintos momentos, por ejemplo, la iluminación puede ser diferente y/o las propiedades ópticas de los distintos elementos sensores pueden ser diferentes, de modo que a través de la misma zona de imagen de la superficie del vehículo se pongan a disposición datos de imagen con distinto contenido informativo. Los elementos sensores pueden estar conectados a la unidad de evaluación y/o entre ellos para la comunicación de datos (por ejemplo, para órdenes de control o la transmisión de datos de imagen). La unidad de evaluación puede configurarse para controlar la sincronización de los elementos sensores. La unidad de evaluación puede configurarse para sincronizar todos los elementos sensores de las unidades sensoras de imágenes. En particular, los elementos sensores o las unidades sensoras pueden sincronizarse dentro de un conjunto. Los elementos sensores sincronizados o las unidades sensoras, en particular las de un conjunto, pueden proporcionar datos de imagen con el fin de detectar un tipo específico de daño y pueden sincronizarse con una iluminación adecuada para detectar sus datos de imagen. Los elementos sensores o las unidades sensoras de un conjunto pueden disponerse en un primer plano perpendicular a la dirección de desplazamiento. Estos elementos sensores/unidades sensoras pueden registrar datos de imagen al mismo tiempo, por ejemplo. Los elementos sensores/unidades sensoras de otras matrices pueden disponerse en segundos, terceros, etc. Planos paralelos al primero, es decir, también perpendiculares a la dirección de desplazamiento. Por ejemplo, puede detectar datos de imágenes correlacionados con otros puntos en el tiempo. Los elementos sensores o grupos de elementos sensores, en particular las matrices de elementos sensores, pueden sincronizarse con elementos de iluminación o grupos de elementos de iluminación/matrices de elementos de iluminación. Lo mismo se aplica a las unidades sensoras o a los grupos o matrices de unidades sensoras. La unidad de evaluación puede configurarse para llevar a cabo la sincronización correspondiente de los componentes del sistema de iluminación y del sistema de sensores.
El sistema de sensores puede tener más de 2 elementos sensores, más de 5 elementos sensores, más de 10 elementos sensores o más de 50 elementos sensores. El sistema de sensores puede tener menos de 80 elementos sensores, o menos de 60 elementos sensores. Los elementos sensores mencionados pueden ser elementos sensores para registrar datos de imagen. Un elemento sensor puede configurarse para detectar los datos de una imagen, por ejemplo mediante la lectura de todo un conjunto CCD, en menos de 8 ms, menos de 5 ms o menos de 2,5 ms. Un elemento sensor puede configurarse para detectar datos de una imagen en menos de 1,6 ms o menos de 0,8 ms. El elemento sensor puede configurarse para coordinar el período de tiempo de captura de los datos de una imagen con una iluminación cuya frecuencia f sea superior a 50 Hz, superior a 60 Hz, superior a 100 Hz, superior a 120 Hz, superior a 200 Hz o superior a 240 Hz, por ejemplo 600 Hz o 1200 Hz. Esto significa que el elemento sensor puede configurarse de tal modo que el período de tiempo para detectar los datos de una imagen sea inferior a 1/(2f) y pueda ajustarse a una fase clara o a una fase oscura de la iluminación. El elemento sensor y la iluminación pueden coordinarse a través del sistema de evaluación o, en caso necesario, coordinando directamente los componentes del sistema de iluminación y del sistema sensor. El período de tiempo para detectar los datos de una imagen también se puede sincronizar con procesos distintos de la modulación temporal de una iluminación.
Los elementos sensores pueden usar procedimientos de medición ópticos u otros basados en la radiación. Ejemplos de elementos sensores que usan procedimientos de medición óptica son cámaras como las cámaras IP, las cámaras de barrido lineal o las cámaras de campo luminoso (cámaras plenópticas), fotodiodos, sensores CCD, sensores CMOS, sensores Hartmann.Schack, barreras fotoeléctricas, cámaras de barrido (cámaras con un sensor de barrido lineal) o cámaras estereoscópicas. Ejemplos de elementos sensores que usan procedimientos de medición basados en la radiación son los sensores infrarrojos o los sensores UV, por ejemplo sensores que miden ondas electromagnéticas fuera del espectro visible. También es posible que los elementos sensores usen procedimientos de medición hápticos o magnéticos, por ejemplo. Entre los ejemplos de elementos sensores que usan procedimientos de medición háptica se incluyen los sensores de elastómeros dieléctricos que pueden medir deformaciones, fuerzas y/o presiones, por ejemplo. Estos elementos sensores hápticos se podrían usar, por ejemplo, para activar el dispositivo cuando pasa el vehículo o para medir la velocidad de éste. Ejemplos de elementos sensores que usan procedimientos de medición magnéticos son los sensores Hall o los sensores XMR. Además, también se podrían usar elementos sensores que usen procedimientos de medición basados en el sonido, por ejemplo, para registrar el ruido del motor u otros ruidos del vehículo. Estos datos sonoros pueden analizarse junto con los datos de imagen para obtener indicios de daños (por ejemplo, ruidos de impacto rítmicos, etc.). Ejemplos de elementos sensores basados en el sonido son los sensores ultrasónicos o los micrófonos que convierten el sonido en señales eléctricas sobre una base electromagnética, electrodinámica, electrostática, piezoeléctrica o piezoresistiva. Se puede usar una combinación de diferentes elementos sensores con diferentes procedimientos de medición. Un elemento sensor puede configurarse para detectar al menos una de las siguientes variables: Intensidad luminosa, velocidad, velocidad angular, distancia, temperatura, humedad. Un elemento sensor puede interactuar estrechamente con un elemento de iluminación como un par, por ejemplo, para formar un escáner láser compuesto por un láser y un fotodiodo, que permite la medición de la distancia, por ejemplo, con el fin de medir y, posiblemente, realizar un seguimiento de la distancia del vehículo, a partir del cual el sistema de evaluación puede determinar la posición del vehículo.
El sistema de sensores puede comprender una unidad de sensores con elementos sensores ambientales. Los elementos sensores ambientales pueden ser sensores para medir la temperatura, la humedad y la intensidad y el espectro de la luz de fondo/luz ambiente. El sistema de evaluación puede configurarse para corregir los datos de la imagen o la información derivada de ella a partir de las mediciones de los elementos sensores del entorno. El sistema de evaluación puede configurarse para configurar unidades sensoras con cámara(s) como elemento(s) sensor(es) basándose en las mediciones de los elementos sensores ambientales, por ejemplo, para ajustar los filtros de la(s) cámara(s) en función de la intensidad y/o del espectro de la luz de fondo/luz ambiental, o incluso para activar o desactivar un sistema activo de reducción de la luz basándose en las mediciones de los elementos sensores ambientales, por ejemplo, activando o desactivando el modulador temporal del sistema de iluminación. El sistema de sensores puede incluir elementos sensores destinados a medir el estado de movimiento del vehículo, es decir, elementos sensores que no suministran datos de imagen al sistema de evaluación, como barreras de luz o umbrales de contacto.
Los datos de imagen capturados por un primer elemento sensor y un segundo elemento sensor pueden solaparse al menos un 5 %, o al menos un 10 %, o al menos un 15 %. Los datos de imagen de un primer elemento sensor y de un segundo elemento sensor pueden solaparse en menos de un 30 %, en menos de un 20 % o en menos de un 10 %. La superposición de datos de imagen procedentes de diferentes elementos del sensor puede dar lugar a una mejor unión de datos de imagen o a una mejor fusión de datos de imagen. De este modo, toda la superficie del vehículo o una parte deseada puede visualizarse en un atlas o incluso en una imagen, lo que puede simplificar la localización de los daños. Dado que los datos de imagen representan áreas de imagen capturadas de la superficie del vehículo, aquí no se distingue entre las áreas de imagen capturadas superpuestas y los datos de imagen correspondientes.
Sistema de reducción de luz
El sistema de reducción de luz puede comprender una o más unidades de reducción de luz. Una unidad de reducción de luz puede comprender uno o más elementos de reducción de luz.
El dispositivo puede comprender al menos una unidad de reducción de luz, que es una unidad de reducción de luz pasiva. Un reductor de luz pasivo es un reductor de luz que reduce la luz de fondo recibida por el sistema sensor sin usar energía propia. El efecto de reducción de una unidad de reducción de luz pasiva puede basarse en los efectos de reducción acumulativos de los elementos de reducción de luz incluidos. Una unidad pasiva de reducción de la luz puede ser, por ejemplo, una sección de túnel. Si el sistema de reducción de luz contiene sólo unidades pasivas de reducción de luz, el sistema de reducción de luz es un sistema pasivo de reducción de luz. Un ejemplo de sistema pasivo de reducción de la luz es una sección de túnel situada delante del sistema de alumbrado y sensores con respecto a la dirección de marcha del vehículo, y una sección de túnel situada detrás del sistema de alumbrado y sensores, por lo que las dos secciones de túnel pueden formar un túnel junto con el sistema de alumbrado y sensores en medio. Un elemento pasivo de reducción de la luz puede ser un panel de una sección de túnel. Un elemento/panel reductor de luz puede estar recubierto con un revestimiento absorbente de luz y/o tener una estructura superficial tridimensional. La estructura tridimensional de la superficie puede tener, por ejemplo, elementos piramidales que inhiban la propagación de la luz, en particular hacia el interior del túnel, y puede presentar las asimetrías correspondientes.
Una unidad de reducción de luz pasiva en forma de sección de túnel puede, por ejemplo, tener una longitud de al menos 2 metros, por ejemplo más de 2 a 5 metros, una altura de 2,5 a 5 metros y una anchura de 3 a 6 metros. La sección transversal perpendicular a la dirección de desplazamiento puede ser similar a la sección transversal de un arco de paso del sistema de iluminación y del sistema de sensores. Con dos reductores de luz pasivos de este tipo y el arco de paso formado por una o varias unidades portadoras, la longitud total del dispositivo puede ser de 5 a 15 metros, por ejemplo.
El dispositivo puede comprender una unidad de reducción de luz, que es una unidad de reducción de luz activa. En este contexto, activo significa que la unidad de reducción de luz funciona usando energía, por ejemplo, electricidad.
La unidad activa de reducción de luz puede ser un amplificador óptico lock-in. La amplificación óptica lock-in se consigue modulando la luz que incide sobre el vehículo a lo largo del tiempo (por ejemplo, encendiéndola y apagándola) y fijando y amplificando los elementos del sensor a esta modulación. Esto puede hacerse, por ejemplo, multiplicando la luz captada por un elemento sensor por una señal correspondiente a la frecuencia de modulación y amplificando el resultado de esta multiplicación tras un filtrado de paso bajo, o amplificando el resultado de esta multiplicación con un amplificador de corriente continua. La unidad de reducción activa de la luz puede realizar un análisis de Fourier, con el que se filtran del flujo de datos de la imagen grabada sólo aquellos componentes de la señal que tienen una frecuencia correspondiente a la modulación temporal de la luz incidente. Alternativamente, la unidad de reducción activa de la luz puede configurarse para realizar transformaciones de Fourier de los datos de imagen grabados y filtrar la parte causada por la luz de fondo antes de la nueva transformación. Si el sistema de reducción de luz sólo contiene unidades de reducción de luz activas, se trata de un sistema de reducción de luz activo.
Tanto en la técnica del amplificador lock-in óptico como en la técnica de la transformada de Fourier, sólo aquellos componentes luminosos de la luz recibida por el sensor (y normalmente reflejada por el vehículo) que coinciden con la frecuencia de ritmo y/o la posición de fase de la modulación temporal se amplifican a partir de los datos de imagen grabados como resultado, por lo que los componentes de señal de la luz de fondo se suprimen y la relación señal útil/señal de interferencia se incrementa significativamente. Al mejorar de este modo la relación señal útil/señal de interferencia, mejora la calidad de los datos de imagen grabados. Como resultado, detalles de la imagen tales como arañazos o abolladuras muy pequeños se resuelven mejor, o se resuelven del todo, de modo que, por ejemplo, una inteligencia artificial (IA) del sistema de evaluación puede ser entrenada para detectar tales daños, y por otra parte hay menores requisitos para el tamaño requerido del conjunto de datos de entrenamiento. Las pruebas han demostrado que, por ejemplo, con la ayuda de un sistema de reducción de la luz, con el que la intensidad luminosa o el componente de señal de la luz de fondo (luz ambiente) se reduce en un factor de 10 en el resultado, el tamaño del conjunto de datos de entrenamiento puede reducirse en un factor de 10, mientras que la fiabilidad de la detección de daños sigue siendo la misma. Por lo tanto, la supresión de la luz de fondo no sólo permite detectar determinados daños (pequeños arañazos y abolladuras poco profundas), sino también obtener resultados fiables con conjuntos de datos mucho más reducidos.
El efecto de reducción del sistema de reducción de luz puede ser una combinación de los efectos de reducción de las unidades de reducción de luz pasivas y activas. Sin embargo, también puede prescindirse de un sistema de reducción de la luz, especialmente si la iluminación descrita en el presente documento está adaptada a los respectivos tipos de daños y se usan los correspondientes sensores adaptados a los respectivos tipos de daños (por ejemplo, con un filtrado especial).
Sistema de evaluación
El sistema de evaluación puede comprender una unidad de evaluación. Una unidad de evaluación puede tener un propósito funcional específico. Una unidad de evaluación puede tener su propio hardware y/o software dedicado. El sistema de evaluación o una o más unidades de evaluación pueden conectarse a componentes del sistema de iluminación y/o del sistema de sensores para la comunicación de datos. El sistema de evaluación o una o más unidades de evaluación pueden recibir datos de imagen y posiblemente otros datos del sensor descritos en el presente documento desde el sistema de sensores. El sistema de evaluación, o una o varias unidades de evaluación, pueden ser configurados para controlar componentes del sistema de iluminación y/o del sistema de sensores, en particular mediante el envío de órdenes de control.
El sistema de evaluación puede tener una unidad de análisis del vehículo. Normalmente, una unidad de análisis del vehículo está diseñada para detectar un vehículo por medio de una o varias características. La unidad de análisis del vehículo puede estar diseñada para identificar el vehículo a partir de los datos registrados de los sensores sobre su forma, color y/u otras características de identificación, pudiendo realizarse la identificación, en particular, a partir de los datos de imagen registrados. Los elementos de identificación también pueden ser uno o varios marcadores fijados al vehículo, tales como una matrícula, una marca de coche, pero también un código de barras o un transmisor electromagnético de identificación, como un chip RFID. La característica de identificación puede ser visible/detectable para el sistema de sensores sobre o en el vehículo.
El sistema de evaluación puede comprender una base de datos de vehículos. La unidad de análisis de vehículos puede estar diseñada para detectar si los datos sobre un vehículo ya están disponibles en la base de datos de vehículos. Los datos sobre un vehículo pueden incluir, por ejemplo, la marca del vehículo, el modelo del vehículo, el número de matrícula, cualquier daño registrado en el vehículo o información sobre el estado del vehículo, como información sobre el estado de alquiler. La unidad de análisis del vehículo puede configurarse para acceder a la base de datos del vehículo, por ejemplo, en el curso de un análisis ampliado del vehículo, y proporcionar elementos de datos sobre las características del vehículo para otras unidades de evaluación.
El sistema de evaluación puede comprender una unidad de control para la unidad de sensores para la identificación del vehículo y, en caso necesario, para la unidad o unidades de sensores para el análisis ampliado del vehículo. Esta unidad de control puede enviar órdenes de control para mover/desplazar dicha(s) unidad(es) de sensor, en particular para seguir el movimiento del vehículo ("seguimiento"). Las unidades de control del sistema de evaluación deben considerarse unidades de evaluación del sistema de evaluación.
El sistema de evaluación puede comprender una unidad de estado de movimiento del vehículo o una unidad de seguimiento del vehículo. La unidad de estado de movimiento del vehículo o la unidad de seguimiento del vehículo pueden procesar datos de sensores sobre el estado de movimiento del vehículo (posición, orientación, velocidad, aceleración del vehículo), en particular datos de imágenes de la unidad de sensores para la identificación del vehículo y de unidades de sensores para el análisis ampliado del vehículo. La unidad de estado de movimiento del vehículo o la unidad de seguimiento del vehículo pueden determinar los elementos de datos del análisis ampliado del vehículo descrito en el presente documento. La unidad de estado de movimiento del vehículo puede configurarse para determinar al menos los elementos de datos de al menos un estado de movimiento. La unidad de seguimiento de vehículos puede configurarse para determinar los elementos de datos para el estado de movimiento actual y uno o más pasados, que pueden representar un carril anterior. La unidad de estado de movimiento del vehículo y la unidad de seguimiento del vehículo pueden configurarse para determinar elementos de datos futuros para estados de movimiento futuros probables (carril probable). La unidad de seguimiento del vehículo recibe continuamente más datos de los sensores sobre el estado del movimiento y puede configurarse para adaptar y mejorar constantemente la predicción del carril previsto y proporcionar los correspondientes elementos de datos futuros. La unidad de estado de movimiento del vehículo o la unidad de seguimiento del vehículo pueden proporcionar sus elementos de datos generados a las unidades de control, por ejemplo, la unidad de control para la unidad de sensores para la identificación del vehículo y, posiblemente, para la(s) unidad(es) de sensores para el análisis ampliado del vehículo o las unidades de control que configuran o ajustan el sistema de iluminación o el sistema de sensores.
El sistema de evaluación puede comprender una unidad de control para el sistema de iluminación, que puede configurar o ajustar las unidades de iluminación y los elementos de iluminación, es decir, establecer o cambiar dinámicamente los parámetros de funcionamiento de estos componentes. Para ello, la unidad de control del sistema de iluminación puede recibir elementos de datos de otras unidades de evaluación, por ejemplo, de la unidad de estado de movimiento del vehículo o de la unidad de seguimiento del vehículo. Estos datos pueden ser, por ejemplo, el color del vehículo o el color/características de la capa inferior, a partir de los cuales la unidad de control del sistema de iluminación determina el espectro de iluminación y activa las unidades/elementos de iluminación (monocromáticos) correspondientes. La unidad de control del sistema de iluminación puede configurarse para seleccionar el espectro de frecuencias en función de una o varias propiedades del vehículo, tales como el color del vehículo u otras propiedades de la pintura de la capa superior; el color, las propiedades reflectantes u otras propiedades de la pintura de la capa inferior; las propiedades reflectantes del metal de la carrocería. La información correspondiente puede haberse determinado durante la identificación del vehículo o el análisis ampliado del vehículo, o puede derivarse de los elementos de datos correspondientes. En particular, el espectro de frecuencias puede seleccionarse en función del color del vehículo. La unidad de control del sistema de iluminación puede configurarse para sincronizar la temporización de los elementos de iluminación, por ejemplo, iluminarlos a la misma frecuencia con la misma posición de fase, es decir, que estén encendidos o apagados al mismo tiempo.
El sistema de evaluación puede comprender una unidad de control para el sistema de sensores, que puede configurar o adaptar unidades de sensores y elementos de sensores. Para ello, la unidad de control del sistema de sensores puede recibir elementos de datos de otras unidades de evaluación, por ejemplo, de la unidad de estado de movimiento del vehículo o de la unidad de seguimiento del vehículo. Los elementos de datos de este tipo pueden ser, por ejemplo, elementos de datos relativos al carril previsto del vehículo, en función de los cuales la unidad de control del sistema de sensores puede establecer o ajustar los parámetros de los sensores, tales como las distancias focales. La unidad de control del sistema de sensores puede configurarse para preajustar o ajustar todos los parámetros variables de funcionamiento de los componentes del sistema de sensores, en particular los parámetros ópticos de funcionamiento, tales como la polarización de los filtros de polarización o similares. La unidad de control del sistema de sensores puede configurarse para sincronizar unidades de sensores o elementos de sensores entre sí, en particular unidades de sensores/elementos de sensores dentro de un conjunto.
El sistema de evaluación puede comprender una unidad de sincronización maestra. La unidad de sincronización maestra puede proporcionar una referencia temporal para todas las secuencias temporales del dispositivo. La unidad de sincronización maestra puede sincronizar o coordinar procesos en otras unidades de control del sistema de evaluación, por ejemplo, para coordinar los procesos de iluminación con los momentos en que se capturan los datos de imagen. La unidad de sincronización maestra también puede determinar la secuencia temporal de iluminación de diferentes iluminaciones del sistema de iluminación y la secuencia temporal de diferentes procesos de adquisición de imágenes. Para estas tareas, puede emitir órdenes de control a otras unidades de control e intercambiar elementos de datos con otras unidades de evaluación. De este modo, las unidades sensoras o los elementos sensores pueden detectar datos de imagen en situaciones de iluminación muy específicas.
El sistema de evaluación puede comprender una unidad de procesamiento de imágenes. La unidad de procesamiento de imágenes puede configurarse para procesar los datos de imagen (datos de imagen en bruto) captados por el sistema de sensores. Los datos de la imagen capturada pueden ser enviados desde el sistema sensor al sistema de evaluación o pueden ser recuperados desde el sistema sensor por el sistema de evaluación. La unidad de procesamiento de imágenes puede configurarse para usar elementos de datos de otras unidades de evaluación para el procesamiento de imágenes. Por ejemplo, se pueden recuperar los parámetros de funcionamiento de la(s) unidad(es) de iluminación y los parámetros de funcionamiento de las unidades sensoras/elementos sensores, incluidas las posiciones exactas y los ángulos de visión de las unidades sensoras/elementos sensores (ya sean estáticos o variables). Las posiciones exactas y los ángulos de visión permiten, por ejemplo, el registro espacial de las unidades sensoras/elementos sensores para, a continuación, registrar los datos de imagen correspondientes entre sí (registro de datos de imagen). Los datos de imagen registrados se pueden usar, por ejemplo, para la fotogrametría o para el cálculo de mapas de profundidad mediante cálculos de campo luminoso ("profundidad Z"), pero también para procesos de enlace de información como la fusión de imágenes o el cosido de imágenes. El procesamiento de los datos de imagen capturados por la unidad de procesamiento de imágenes también puede incluir lo siguiente, por ejemplo: Preparación de datos de imagen, conversión de datos de imagen, detección y eliminación de artefactos, registro de datos de imagen. El tratamiento de datos de imagen puede incluir filtrado (por ejemplo, filtrado de frecuencia, filtrado de umbral), enmascaramiento (por ejemplo, basado en elementos de datos que describen el modelo del vehículo) y similares. La conversión de datos de imagen puede, por ejemplo, implicar la conversión de datos de imagen en color a datos de imagen en blanco y negro (por ejemplo, como paso final antes de que la inteligencia artificial intente identificar los daños en los datos de imagen). La detección de artefactos puede incluir la detección y eliminación de bordes del vehículo, ventanas, etc., posiblemente sobre la base de elementos de datos que describen el modelo del vehículo, pero también la eliminación de reflejos no deseados causados por la luz de fondo. Sin embargo, la detección de artefactos también podría incluir la detección y la eliminación de daños antiguos de los datos de la imagen. Para ello se pueden usar elementos de datos (datos de imagen) que representen el atlas de vehículos existentes con daños antiguos conocidos. Estos elementos de datos pueden haberse recuperado de la base de datos del vehículo o, en caso necesario, de una memoria del vehículo a través de unidades de comunicación. De este modo, los daños antiguos podrían suprimirse para la posterior detección de daños en los datos de imagen procesados, de modo que el sistema de evaluación sólo tendría que identificar los posibles daños nuevos (mientras que, en última instancia, habría que volver a introducir una representación, localización y anotación de los nuevos daños en una imagen del vehículo en la que también aparecieran los daños antiguos para obtener de nuevo un atlas completo del vehículo). Alternativamente, el daño antiguo puede dejarse en los datos de la imagen y la evaluación puede dejarse enteramente en manos de una unidad de detección de daños.
El sistema de evaluación puede comprender una unidad de enlace de información que está configurada para enlazar datos de diferentes fuentes de información. La unidad de enlace de información puede, por ejemplo, comprender un elemento de fusión de datos de imagen para fusionar diferentes datos de imagen que representen al menos áreas de imagen solapadas en la superficie del vehículo. La fusión puede llevarse a cabo en la zona de solapamiento, posiblemente con disposición espacial de las imágenes parciales, para lo cual se puede usar el registro de datos de imagen. De este modo, por ejemplo, en lugar de un atlas del vehículo en el sentido convencional (varias imágenes bidimensionales que juntas transmiten la impresión general de la superficie del vehículo), se puede crear un atlas del vehículo a partir de una sola imagen tridimensional que muestre la totalidad o al menos toda la superficie del vehículo capturada. Sin embargo, la unidad de enlace de la información también puede comprender un elemento de cosido de datos de imagen con el que se puede establecer una relación espacial fija de las imágenes individuales de la superficie del vehículo, para lo que a su vez se puede usar el registro de datos de imagen. El atlas del vehículo puede incluir entonces varias imágenes, pero éstas están organizadas. Si se producen nuevos daños, puede bastar con sustituir una sola imagen de dicho atlas de vehículos para ponerlo al día. La fusión o unión de datos de imágenes son formas de procesamiento de imágenes y pueden llevarse a cabo antes de la detección de daños o, alternativamente, después de la detección de daños basada en las imágenes individuales. Mediante la combinación o vinculación de datos de imágenes u otra información, se puede mejorar la detección de daños en un vehículo y, en particular, la localización de los daños.
El sistema de evaluación puede comprender una unidad de detección de daños. La unidad de detección de daños puede configurarse para detectar los daños del vehículo a partir de los datos de imagen capturados, en particular a partir de los datos de imagen capturados y procesados. La unidad de detección de daños puede configurarse para identificar posibles zonas de la imagen que puedan representar daños en el vehículo. Se puede configurar para evaluar si hay o no daños en estas zonas de la imagen, por ejemplo, en la diferenciación de la suciedad ligera. La evaluación puede asignar probabilidades a la existencia de daños en las zonas de la imagen en cuestión, considerándose que se han detectado daños por encima de un determinado valor umbral (por ejemplo, el 90 %). Por debajo, puede haber un rango de probabilidad (por ejemplo, entre el 60 y el 90 %) a partir del cual se presume la existencia de daños. La unidad de detección de daños puede configurarse para marcar un daño detectado en los datos de la imagen con un primer marcador (por ejemplo, un borde rojo). Puede configurarse para marcar los daños sospechosos en los datos de la imagen con un segundo marcador distinto del primero (por ejemplo, un borde naranja). La unidad de detección de daños puede configurarse para clasificar los daños detectados o presuntos (por ejemplo, categorizarlos como "arañazos", "abolladuras", "daños estructurales", etc.), medirlos (longitud, profundidad, etc.) y/o localizarlos (es decir, determinar su posición en relación con toda la superficie del vehículo detectada). La unidad de detección de daños puede configurarse para anotar los datos de la imagen con la información correspondiente, posiblemente también con información adicional tales como la fecha/hora y la probabilidad de daños. La unidad de detección de daños puede configurarse para actualizar un atlas de vehículos existente, es decir, para crear un atlas de vehículos actualizado. La unidad de detección de daños puede acceder a bases de datos/elementos de datos de otras unidades de evaluación para estos procesos. La unidad de detección de daños puede incluir elementos de evaluación de los procesos mencionados que utilicen inteligencia artificial. Por ejemplo, un elemento de evaluación para la detección de daños en los datos de imagen puede basarse en la inteligencia artificial. La inteligencia artificial del sistema de evaluación o de la unidad de detección de daños puede entrenarse con conjuntos de datos de imagen cuya calidad no sea inferior a la calidad de imagen de los datos de imagen captados por el dispositivo en el vehículo que se está desplazando. Mediante el entrenamiento con datos de alta calidad, el uso de inteligencia artificial en el sistema de evaluación puede permitir una detección de daños muy fiable.
El sistema de evaluación puede tener una unidad de salida con la que se pueden emitir datos de imágenes con daños etiquetados y/o anotados, en particular las imágenes del atlas actualizado del vehículo que incluyen daños identificados (nuevos) en el vehículo. La unidad de salida puede configurarse para emitir estos datos de imagen en una pantalla u otro dispositivo de visualización, por ejemplo. Los daños detectados, así como los presuntos daños, pueden resaltarse, por ejemplo, mediante bordes adecuados. Se pueden mostrar anotaciones sobre los daños clasificados, por ejemplo, el tipo de daño (arañazo, abolladura, etc.), el tamaño y, si procede, la profundidad. La unidad de salida puede configurarse para almacenar estos datos de imagen localmente en el dispositivo y/o transmitirlos a través de un sistema de comunicación, por ejemplo al vehículo para su almacenamiento en una memoria interna del vehículo y/o para su visualización en la pantalla de un ordenador de a bordo del vehículo. Los daños identificados y sospechosos (nuevos) pueden ponerse en conocimiento inmediato de los empleados y/o del conductor del vehículo. Las sospechas de daños que no puedan distinguirse con suficiente certeza de la suciedad, por ejemplo, pueden confirmarse o descartarse inmediatamente volviendo a presentar el vehículo tras limpiar las zonas en cuestión. Gracias a la localización de los daños, las zonas dudosas pueden visualizarse claramente para las personas, sobre todo si se dispone de una representación tridimensional del atlas del vehículo, de tal modo que la limpieza puede realizarse de forma sencilla y puramente local, por ejemplo, con un paño. De este modo, pueden evitarse o, al menos, reducirse las disputas sobre la existencia de nuevos daños cuando se entrega un vehículo de alquiler.
El sistema de evaluación puede configurarse para cumplir otras funciones descritas en el presente documento y para ello puede hacer uso de las unidades de evaluación mencionadas anteriormente o de otras unidades de evaluación.
Descripción de las figuras
La Fig. 1 muestra esquemáticamente la estructura de un dispositivo 100 configurado para detectar daños en un vehículo 150 en movimiento. El dispositivo comprende un sistema de iluminación 110, un sistema de sensores 120 y un sistema de evaluación 140. También se muestra un sistema de reducción de luz 130 en forma de túnel que absorbe la luz de fondo. Los sistemas 110, 120, 130 forman un arco de paso o túnel para el vehículo de desplazamiento 150, que se mueve en una dirección de desplazamiento que es sustancialmente igual a una dirección longitudinal L del dispositivo. En la ilustración a modo de ejemplo, el vehículo 150 entra en el túnel por la izquierda, atraviesa el arco de paso con los componentes del sistema de iluminación 110 y el sistema de sensores 120 y sale del túnel por la derecha. El vehículo es iluminado por el sistema de iluminación 110 al pasar por la curva de paso. El sistema de iluminación puede iluminar el vehículo que se está desplazando tal como se ha descrito anteriormente. La(s) iluminación(es) por el sistema de iluminación 110 puede(n) adaptarse a la adquisición de datos de imagen por el sistema sensor 120. El sistema de sensores 120 captura datos de imagen, que se envían al sistema de evaluación 140 para el procesamiento de imágenes y para detectar y evaluar los daños.
Las Figs. 2-4 muestran un ejemplo de dispositivo 100 para detectar daños en un vehículo 150 que pasa. El dispositivo 100 tiene un sistema de iluminación 110 y un sistema de sensores 120. Las unidades de iluminación del sistema de iluminación 110 y las unidades sensoras del sistema sensor 120 forman un arco de paso 102 con sus unidades portadoras asociadas. El dispositivo 100 tiene una dirección longitudinal L, una dirección de anchura B y una dirección de altura H. Los segmentos de túnel, que son partes pasivas de un sistema de reducción de luz 130 y forman un túnel 104, lindan con el arco de paso 102 por ambos lados en la dirección longitudinal L. La dirección de desplazamiento del vehículo 150 es esencialmente a lo largo de la dirección longitudinal L a través del arco de paso 102 y el túnel 104.
El dispositivo 100 puede comprender un sistema de evaluación mostrado en la Fig. 2-4 pero no se ilustra.
El arco de paso puede tener unos 4 metros de altura en su punto más alto y unos 3 metros en su punto más bajo. La anchura del arco de paso puede ser de unos 5 metros en el punto más ancho del centro y de unos 4 metros en el punto más estrecho. El arco de paso puede medir unos 3,5 metros de largo, mientras que los dos segmentos del túnel 104 miden al menos 2 metros cada uno. Los segmentos del túnel pueden tener unos 4 metros de ancho y 3 metros de alto. Un segmento 106 bajo el suelo puede tener unos 10 centímetros de altura y se puede acceder a él mediante rampas de acceso y salida.
En este ejemplo, el dispositivo 100 comprende un sistema de reducción de luz 130 con unidades pasivas de reducción de luz en forma de segmentos del túnel 104. Los segmentos del túnel están construidos con paneles que tienen una estructura superficial tridimensional 132 de filas escalonadas de pirámides, que inhibe la propagación de la luz, en particular en la dirección del arco de paso 102, y que tiene un revestimiento que absorbe la luz.
El sistema de iluminación 110 dispone de unidades de iluminación de superficie, que en lo sucesivo se denominarán paneles luminosos. El sistema de iluminación tiene un primer grupo 210 de paneles luminosos, un segundo grupo 220 de paneles luminosos y un tercer grupo 230 de paneles luminosos. Los paneles luminosos del segundo grupo 220, por ejemplo los paneles luminosos 221, 226, 227 y 228 son paralelos a la dirección longitudinal L, es decir, las normales a la superficie de estos paneles luminosos son perpendiculares a la dirección longitudinal L. Las normales a la superficie de los paneles luminosos del primer grupo 210 y del tercer grupo 230 están inclinadas cada una 45° o -45° con respecto a la dirección longitudinal L, de manera que los paneles luminosos están inclinados hacia el interior, hacia el centro del arco de paso 102, como los paneles luminosos 211,216, 217, 218 del primer grupo 210 y los paneles luminosos 231,236, 237, 238 del tercer grupo 230. Los paneles luminosos del primer grupo 210 y del tercer grupo 230 conectan con los paneles luminosos del segundo grupo 220 hacia el centro del arco de paso 102 y hacia el exterior en cada caso de uno de los segmentos del túnel 104.
Los paneles luminosos del segundo grupo 220 están dispuestos para emitir luz monocromática, espacialmente estructurada, por ejemplo luz infrarroja cercana con un patrón de rejilla o a cuadros, y así iluminar la superficie del vehículo 150. Los paneles luminosos del primer grupo 210 y del tercer grupo 230 están dispuestos para emitir luz monocromática polarizada, por ejemplo, luz visible con polarización lineal, por ejemplo, luz verde o una luz determinada en función del color del vehículo. Los paneles luminosos del segundo grupo pueden iluminar en particular las zonas laterales del vehículo predestinadas a sufrir daños por abolladuras con una luz de alto contraste y estructurada espacialmente, y los paneles luminosos del primer grupo pueden iluminar toda la superficie del vehículo de tal forma que incluso los arañazos más finos pueden detectarse en los datos de la imagen. La iluminancia en la superficie del vehículo puede ser superior a 500 Ix o incluso superior a 1000 Ix para ambas luces.
El sistema de iluminación 110 dispone de otra unidad de iluminación 240 en el segmento de bajos 106 para iluminar los bajos del vehículo 150. La unidad de iluminación 240 está dispuesta aquí en un hueco central de la rampa de acceso al segmento 106 de los bajos.
El sistema sensor 120 comprende una unidad de sensor 340 para detectar datos de imagen de los bajos del vehículo. La unidad de sensor 340 está dispuesta en el mismo hueco central de la rampa de acceso que la unidad de iluminación 240 y puede interactuar con la unidad de iluminación 240 para detectar datos de imagen de los bajos del vehículo. Dado que los datos de imagen de los bajos del vehículo se refieren menos a los arañazos muy finos, que pueden ser causados, por ejemplo, por astillas de piedra durante el uso normal del vehículo, y más a daños mayores, en particular daños estructurales como daños en los ejes, la unidad de sensor 340 puede tener, por ejemplo, dos cámaras estereoscópicas, que pueden ser cámaras de 20 megapíxeles, por ejemplo. El sistema de sensores 120 dispone de una unidad de sensores 350 para la identificación de vehículos, por ejemplo, una cámara de vigilancia ordinaria, que está dispuesta delante del arco de acceso 102 o delante de la entrada al túnel 104 en el sentido de la marcha y puede registrar datos de imagen del vehículo con luz de fondo (luz ambiente) o, eventualmente, con iluminación ordinaria (por ejemplo, iluminación de un aparcamiento). Los datos de imagen de la unidad de sensor 350 se pueden usar para la identificación de vehículos o para el análisis avanzado de vehículos, tal y como se describe en el presente documento.
El sistema de sensores 120 tiene tres matrices de unidades de sensores de imágenes, una primera matriz 310, a la que pertenecen las unidades de sensores 311, 313, 314, 315, 316, 317, 318, 319 y otra unidad de sensor que no es visible, un segundo conjunto 220, al que pertenecen las unidades sensoras 321, 322, 323, 324, 325, 326, 327, 328 y 329, y un tercer conjunto 230, al que pertenecen las unidades sensoras 331, 332, 333, 334, 335, 336, 337, 338 y 339. Cada una de estas unidades sensoras de las tres matrices comprende dos elementos sensores en forma de una primera cámara para la luz visible (por ejemplo, sintonizada con la luz verde o sintonizada con otra luz, que puede seleccionarse en función del color del coche, por lo que el color del coche puede haberse determinado a partir de los datos de imagen de la unidad sensora 350) y una segunda cámara para la luz infrarroja. Los dos elementos sensores de una unidad de sensor tienen casi el mismo ángulo de visión y casi la misma posición. Las respectivas segundas cámaras para luz infrarroja de cada unidad sensora pueden cooperar con la iluminación de los paneles luminosos del segundo grupo 220, es decir, estar configuradas para detectar su luz monocromática, espacialmente estructurada, cercana al infrarrojo, mientras filtran la iluminación de los paneles luminosos del primer grupo 210 y del tercer grupo 230. A la inversa, las respectivas primeras cámaras de luz visible de cada unidad sensora pueden cooperar con la iluminación de los paneles luminosos del primer grupo 210 y del tercer grupo 230, es decir, estar configuradas para detectar su luz visible monocromática polarizada, al tiempo que están configuradas para filtrar la iluminación de los paneles luminosos del segundo grupo 220. La separación espectral permite registrar simultáneamente datos de imagen basados en luz infrarroja cercana y datos de imagen basados en luz visible. Por lo tanto, los datos de imagen que son ventajosos para la detección de abolladuras y los datos de imagen que son ventajosos para la detección de arañazos se pueden detectar al mismo tiempo.
Las unidades sensoras de las tres matrices 310, 320, 330 pueden estar dispuestas perpendicularmente a las superficies de los paneles luminosos de los tres grupos 210, 220, 230, es decir, paralelas a las normales a la superficie, o pueden formar un ángulo con respecto a estas normales a la superficie. En particular, las filas superiores pueden inclinarse hacia abajo, incluso en el caso de unidades sensoras dispuestas en paneles luminosos verticales. A modo de ejemplo, las unidades sensoras del primer grupo 310 y del tercer grupo 330 pueden estar todas inclinadas hacia el interior con respecto al centro del arco de paso, por ejemplo 45°, mientras que las unidades sensoras del segundo grupo 320 son perpendiculares al eje longitudinal L. Las unidades sensoras 313, 323, 333, 317, 327 y 337 pueden estar inclinadas hacia abajo, por ejemplo 45°, aunque los paneles luminosos sobre los que están dispuestas estén perpendiculares al suelo. Las unidades de sensor 322, 332, 316, 326, 336, así como la unidad de sensor adicional del primer grupo 310, que no se muestra, también pueden estar inclinadas hacia abajo, por ejemplo también en 45°, pero se colocan verticalmente en sus paneles de luz, que también están inclinados hacia abajo. Las unidades sensoras 311, 321 y 331 están orientadas verticalmente hacia abajo, es decir, en paralelo a la dirección de altura H. La orientación de las cámaras puede ser tal que los ángulos de visión para las formas ordinarias del vehículo pueden ser sustancialmente perpendiculares a la parte capturada de la superficie del vehículo (al área de la imagen). Las distancias focales de las cámaras de las unidades sensoras pueden tener diferentes distancias focales en función de la distancia normal prevista a la superficie del vehículo, por ejemplo una longitud focal de 28 mm para las unidades sensoras 311, 321, 331, una longitud focal de 55 mm para las unidades sensoras 332, 316, 336 y para otras unidades sensoras del primer grupo 310 no mostradas, una longitud focal de 35 mm para las unidades sensoras 313, 314, 315, 317, 318, 319, 322, 323, 326, 327, 333, 334, 335, 337, 338, 339 y una longitud focal de 15 mm para las unidades sensoras 324, 325, 328 y 329. Las cámaras pueden ser de alta resolución de 40 megapíxeles, por ejemplo. Los ángulos de visión y los parámetros ópticos de funcionamiento (distancias focales, polarizaciones, etc.) de las cámaras pueden ser fijos pero suficientes para situaciones típicas, o pueden ser variables tal como se describe en el presente documento, por ejemplo, configurables con respecto a las características del vehículo y el estado de movimiento/carril previsto del vehículo 150. Las unidades sensoras o cámaras pueden registrarse espacialmente.
Debido a su disposición y propiedades, las unidades sensoras en combinación con la iluminación especial de las unidades de iluminación pueden generar imágenes de alta calidad a partir de las cuales se pueden detectar daños de forma fiable tras el procesamiento de imágenes. La Fig. 5 muestra ilustrativamente una imagen dibujada tal y como podría haber sido captada por la primera cámara de luz visible de la unidad sensorial 333 desde su ángulo de visión. La Fig. 6 muestra ilustrativamente una imagen dibujada tal y como podría haber sido captada por la primera cámara de luz visible de la unidad sensorial 322 desde su ángulo de visión. Para ilustrarlo, los daños mostrados no son menores, sino mayores, a saber, una abolladura 510 y un arañazo 520.
El dispositivo del ejemplo de las Figs. 2-4 puede realizar todas las funciones aquí descritas, incluidas todas las funciones de un sistema de evaluación no mostrado en estas ilustraciones. Otras formas de realización se refieren al uso de un dispositivo descrito en el presente documento para detectar daños en un vehículo que se está desplazando, en particular un automóvil, que se desplaza a través del dispositivo. Otras formas de realización se refieren a un procedimiento para detectar daños en un vehículo que se está desplazando. Este procedimiento puede comprender cualquier combinación de operaciones descritas en el presente documento como pasos del procedimiento, y puede usar el aparato descrito y sus sistemas, unidades y elementos.
La Fig. 7 muestra un procedimiento 700 para detectar daños en un vehículo que se está desplazando. El procedimiento comprende iluminar 710 un vehículo que se está desplazando, por ejemplo con un sistema de iluminación descrito en el presente documento. La iluminación 710 puede comprender la iluminación con una primera luz, en la que la primera luz puede ser monocromática, polarizada o estructurada espacialmente en dos dimensiones. La iluminación 710 puede comprender la iluminación con una segunda luz, en la que la segunda luz puede ser una luz monocromática de una frecuencia diferente a la de la primera luz. La segunda luz puede ser luz estructurada espacialmente en dos dimensiones, en particular si la primera luz es luz polarizada, y puede ser luz polarizada, en particular si la primera luz está estructurada espacialmente en dos dimensiones. El procedimiento puede comprender la reducción 720 de la intensidad luminosa de la luz de fondo entrante, por ejemplo mediante unidades pasivas de reducción de la luz como las descritas en el presente documento. El procedimiento comprende además detectar 730 datos de imagen del vehículo que se está desplazando, por ejemplo mediante un sistema de sensores descrito en el presente documento. La captura de 730 datos de imagen del vehículo que se está desplazando puede comprender la captura de primeros datos de imagen a una primera iluminación con la primera luz. La captura de datos de imagen 730 del vehículo que se está desplazando puede comprender la captura de datos de segunda imagen con una segunda iluminación diferente de la primera iluminación, en la que la segunda iluminación puede comprender o ser una iluminación que comprende la segunda luz. Los datos de la primera imagen y los de la segunda pueden haberse grabado en la misma zona de imagen (por lo que los pequeños desplazamientos causados por el movimiento del vehículo deberían ser insignificantes). El procedimiento comprende detectar 740 un daño del vehículo, por ejemplo con un sistema de evaluación descrito en el presente documento. La detección 740 de los daños del vehículo puede comprender la detección de los daños del vehículo basándose en los datos de la imagen capturada o en los datos de la primera y segunda imagen capturadas. El procedimiento puede incluir una salida 750 de un daño detectado, por ejemplo en una pantalla.

Claims (10)

REIVINDICACIONES
1. Dispositivo para la detección de daños en un vehículo que se está desplazando, que comprende:
un sistema de iluminación para iluminar el vehículo que se está desplazando;
un sistema de sensores para detectar datos de imagen del vehículo que se está desplazando; y
un sistema de evaluación para la detección de daños en un vehículo
en el que el sistema de iluminación comprende:
una primera unidad de iluminación configurada para iluminar el vehículo que se está desplazando con una primera luz, y una segunda unidad de iluminación configurada para iluminar el vehículo que se está desplazando con una segunda luz que es diferente de la primera luz,
en la que la primera unidad de iluminación está configurada para iluminar el vehículo que se está desplazando con luz polarizada, en la que la primera luz es luz polarizada, y
en la que la segunda unidad de iluminación está configurada para iluminar el vehículo que se está desplazando con luz que tiene una frecuencia en la gama de infrarrojos y presenta una estructura espacial, en la que la segunda luz es luz infrarroja y es luz con estructura espacial;
en el que el sistema sensor comprende:
un primer elemento sensor configurado para detectar los primeros datos de imagen del vehículo que se está desplazando en una zona de imagen cuando se ilumina con la primera luz, y un segundo elemento sensor configurado para detectar los segundos datos de imagen del vehículo que se está desplazando en la zona de imagen cuando se ilumina con la segunda luz, en donde el primer elemento sensor está configurado para detectar los primeros datos de imagen cuando se ilumina con la primera luz con separación de la iluminación con la segunda luz, y en donde el segundo elemento sensor está configurado para detectar los segundos datos de imagen cuando se ilumina con la segunda luz con separación de la iluminación con la primera luz; y en donde el sistema de evaluación está configurado para detectar los daños del vehículo a partir de los datos de las imágenes primera y segunda capturadas.
2. Dispositivo según la reivindicación 1, en el que la primera unidad de iluminación está configurada para iluminar el vehículo que se está desplazando con luz monocromática, en el que la primera luz es luz monocromática, preferentemente luz visible; y/o
en el que la segunda unidad de iluminación está configurada para iluminar el vehículo que se está desplazando con una luz de estructuración espacial bidimensional.
3. Dispositivo según la reivindicación 1, en el que el primer elemento sensor está configurado para detectar los primeros datos de imagen del vehículo que se está desplazando en la zona de imagen durante la iluminación con la primera luz con separación espectral de la segunda iluminación, y el segundo elemento sensor está configurado para detectar los segundos datos de imagen del vehículo que se está desplazando en la zona de imagen con la segunda iluminación con separación espectral de la iluminación con la primera luz, el primer elemento sensor y el segundo elemento sensor están configurados preferentemente para la detección simultánea o la detección coordinada en el tiempo con las iluminaciones de los primeros datos de imagen y los segundos datos de imagen, respectivamente, en donde preferentemente el primer elemento sensor tiene un primer filtro espectral y el segundo elemento sensor tiene un segundo filtro espectral, en donde los espectros transmitidos por los filtros espectrales primero y segundo están esencialmente libres de solapamiento.
4. Dispositivo según la reivindicación 1, en el que
a) el primer elemento sensor, que está configurado para detectar datos de imagen del vehículo que se está desplazando cuando se ilumina con la primera luz, tiene un filtrado de polarización variable y está configurado para detectar los primeros datos de imagen del vehículo que se está desplazando en la zona de imagen cuando se ilumina con la primera luz bajo un primer filtrado de polarización en un primer momento y para detectar los segundos datos de imagen del vehículo que se está desplazando en la zona de imagen cuando se ilumina con la segunda luz bajo un segundo filtrado de polarización en un segundo momento, siendo el segundo filtrado de polarización diferente del primero;
o
b) en el primer elemento sensor está configurado para detectar los primeros datos de imagen del vehículo que se está desplazando en la zona de imagen cuando se ilumina con la primera luz bajo un primer filtrado de polarización, y el segundo elemento sensor está configurado para detectar los segundos datos de imagen del vehículo que se está desplazando en la zona de imagen cuando se ilumina con la segunda luz bajo un segundo filtrado de polarización, en el que el segundo filtrado de polarización es diferente del primer filtrado de polarización, en el que el primer elemento sensor y el segundo elemento sensor están configurados preferentemente para detectar los primeros datos de imagen o los segundos datos de imagen al mismo tiempo o coordinados en el tiempo con las iluminaciones.
5. El dispositivo según una cualquiera de las reivindicaciones anteriores, en donde el dispositivo comprende un sistema de reducción de la luz para reducir la influencia de la luz de fondo, en el que el sistema de reducción de la luz comprende un túnel de absorción de la luz transitable por el vehículo que se está desplazando.
6. Dispositivo según una de las reivindicaciones anteriores, en el que el sistema de evaluación o el sistema sensor están configurados para controlar un amplificador óptico Lock-in para reducir la influencia de la luz de fondo usando los primeros datos de imagen y los segundos datos de imagen o para realizar un tratamiento de datos de imagen para reducir la influencia de la luz de fondo usando los primeros datos de la primera imagen y los segundos datos de imagen, usando preferentemente una técnica de transformación de Fourier en el tratamiento de datos de imagen.
7. Dispositivo según una de las reivindicaciones anteriores, en el que el sistema sensor está configurado para obtener una primera información sobre una propiedad del vehículo y/o un estado de movimiento del vehículo que se está desplazando, y en el sistema de evaluación está configurado para configurar un elemento sensor o una pluralidad de elementos sensores, que están configurados para adquirir datos de imagen del vehículo que se está desplazando, para adquirir los datos de imagen en función de la primera información.
8. Dispositivo según una de las reivindicaciones anteriores, en el que el sistema de evaluación está configurado para procesar de manera totalmente automática los datos de imagen capturados y/o para detectar de manera totalmente automática los daños del vehículo, en el que el sistema de evaluación está configurado preferentemente para aplicar un procedimiento con inteligencia artificial al menos para detectar los daños del vehículo.
9. Dispositivo según una de las reivindicaciones anteriores, en el que el sistema de iluminación y el sistema de sensores forman un arco de paso que puede ser atravesado por el vehículo que se está desplazando y cuya longitud en el sentido de la marcha del vehículo que se está desplazando es preferentemente de uno a cinco metros.
10. Procedimiento de detección de daños en un vehículo que se está desplazando, que comprende:
Iluminar el vehículo que se está desplazando con una primera luz e iluminar el vehículo que se está desplazando con una segunda luz, en el que la primera luz es diferente de la segunda luz, en el que la primera luz es luz polarizada y en el que la segunda luz es luz infrarroja y luz estructurada espacialmente; y
Detectar los primeros datos de imagen del vehículo que se está desplazando en una zona de imagen bajo iluminación con la primera luz mientras con separación de la iluminación con la segunda luz; y
Detectar segundos datos de imagen del vehículo que se está desplazando en la zona de imagen bajo la iluminación de la segunda luz con separación de la iluminación de la primera luz; y
Detección de los daños del vehículo a partir de los datos de las imágenes primera y segunda capturadas.
ES19157558T 2019-02-15 2019-02-15 Dispositivo y procedimiento de la detección de daños en un vehículo que se está desplazando Active ES2986673T3 (es)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
EP19157558.8A EP3696537B1 (de) 2019-02-15 2019-02-15 Vorrichtung und verfahren zur schadenserkennung an einem fahrenden fahrzeug

Publications (1)

Publication Number Publication Date
ES2986673T3 true ES2986673T3 (es) 2024-11-12

Family

ID=65496717

Family Applications (1)

Application Number Title Priority Date Filing Date
ES19157558T Active ES2986673T3 (es) 2019-02-15 2019-02-15 Dispositivo y procedimiento de la detección de daños en un vehículo que se está desplazando

Country Status (2)

Country Link
EP (1) EP3696537B1 (es)
ES (1) ES2986673T3 (es)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20260094251A1 (en) * 2024-09-27 2026-04-02 Fyusion, Inc. Semicylindrical surfaces for projection of striped lighting for damage detection

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102020110024A1 (de) 2020-04-09 2021-10-14 Digital Vehicle Scan Gmbh & Co. Kg Vorrichtung und verfahren zum visuellen inspizieren von kraftfahrzeugen
DE102021111479A1 (de) 2021-05-04 2022-11-10 Valeo Schalter Und Sensoren Gmbh Verfahren, computerprogrammprodukt und überwachungssystem
FI130552B (en) * 2021-07-02 2023-11-15 Visy Oy Procedure and system for detecting damage in shipping containers
CN114166128B (zh) * 2021-12-15 2023-08-11 北京微链道爱科技有限公司 用于轨道交通设备的3d相机检测装置及检测方法
CN115541598B (zh) * 2022-08-24 2024-05-14 深圳市二郎神视觉科技有限公司 汽车外观检测方法、装置及系统
DE102023117300A1 (de) * 2023-06-30 2025-01-02 Markus Garcia Aufnahmevorrichtung
WO2025153739A2 (de) * 2024-01-18 2025-07-24 Trebing Alexander Verfahren und vorrichtung zur überprüfung einer oberfläche eines objektes
US12517061B2 (en) * 2024-04-07 2026-01-06 Uveye Ltd. Multi-angle vehicle defect measurement using surface-adaptive optical corrections
CN118135338B (zh) * 2024-05-06 2024-07-12 国任财产保险股份有限公司 一种基于车辆外部损伤自动检测的车险评估方法及系统
DE102024003397B3 (de) 2024-10-17 2026-01-15 Mercedes-Benz Group AG Verfahren und Vorrichtung zur Erkennung einer Beschädigung an einem Fahrzeug

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007524808A (ja) * 2003-03-07 2007-08-30 インターナショナル インダストリー サポート、インク 立体カメラセットを有する走査システム
DE202016105450U1 (de) * 2016-08-24 2016-11-07 INSISTO GmbH Vorrichtung zur Inspektion von zumindest der Außenseiten von Kraftfahrzeugen
JP6611691B2 (ja) * 2016-10-06 2019-11-27 株式会社日立製作所 鉄道車両の外形形状測定方法及び装置
DE102017210558B3 (de) * 2017-06-22 2018-11-08 PDR-Team GmbH Verfahren und Vorrichtung zur Vermessung von Karosserieschäden
DE202018103274U1 (de) * 2018-06-11 2018-06-22 ATB Blank GmbH Vorrichtung zur Oberflächeninspektion eines Kraftfahrzeugs

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20260094251A1 (en) * 2024-09-27 2026-04-02 Fyusion, Inc. Semicylindrical surfaces for projection of striped lighting for damage detection

Also Published As

Publication number Publication date
EP3696537C0 (de) 2024-05-15
EP3696537A8 (de) 2021-01-13
EP3696537A1 (de) 2020-08-19
EP3696537B1 (de) 2024-05-15

Similar Documents

Publication Publication Date Title
ES2986673T3 (es) Dispositivo y procedimiento de la detección de daños en un vehículo que se está desplazando
CN110057601B (zh) 用于轮胎状况分析的方法和装置
US11029583B2 (en) Adjustable camera mount for a vehicle windshield
JP6765728B2 (ja) タイヤ状態解析
US7697727B2 (en) Automated surface distress measurement system
US10565459B2 (en) Retroreflectivity measurement system
US7801333B2 (en) Vision system and a method for scanning a traveling surface to detect surface defects thereof
US20200177872A1 (en) Vehicle sensor calibration
US10482347B2 (en) Inspection of the contoured surface of the undercarriage of a motor vehicle
CN104655047A (zh) 隧道快速综合测量系统
CN105164697A (zh) 用于识别机动车轮胎上的标识的装置和方法
US20140313504A1 (en) Procedure and device for the measurement of dynamic luminance and retroreflection of road markings and signals and the obtention of the shape, position and dimensions of the same
CA3106398A1 (en) Method and device for recognising and analysing surface defects in three-dimensional objects having a reflective surface, in particular motor vehicle bodies
US20090177426A1 (en) Light Measurement Method and Apparatus
US20220084248A1 (en) Systems and methods for calibrating image capturing models
US20230298358A1 (en) Object detection and identification system and method for manned and unmanned vehicles
CN104335576B (zh) 用于拍摄车辆底部的图像的装置和方法
WO2020086698A1 (en) Methods and systems used to measure tire treads
RU2014139644A (ru) Система наблюдения за дорожным движением
US20190187065A1 (en) Lighting apparatus, method for providing lighting system, and road management system
ES2645504T3 (es) Determinación de al menos una característica de un vehículo
JP4398282B2 (ja) パンタグラフのすり板検査装置。
JP5193016B2 (ja) 車両撮影装置
HK40010426A (en) Method and device for tyre condition analysis
CN120359390A (zh) 图像探测方法、芯片系统及交通工具