ES2967980T3 - Sistema y procedimiento para guía de atraque de aeronaves e identificación del tipo de aeronave - Google Patents

Sistema y procedimiento para guía de atraque de aeronaves e identificación del tipo de aeronave Download PDF

Info

Publication number
ES2967980T3
ES2967980T3 ES15827975T ES15827975T ES2967980T3 ES 2967980 T3 ES2967980 T3 ES 2967980T3 ES 15827975 T ES15827975 T ES 15827975T ES 15827975 T ES15827975 T ES 15827975T ES 2967980 T3 ES2967980 T3 ES 2967980T3
Authority
ES
Spain
Prior art keywords
aircraft
image
front wheel
threshold
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES15827975T
Other languages
English (en)
Inventor
Lan Deng
Shaomin Chang
Wei Xiang
Yuefeng Yang
Haibin Wang
Haiqiu Liu
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen CIMC Tianda Airport Support Ltd
Original Assignee
Shenzhen CIMC Tianda Airport Support Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen CIMC Tianda Airport Support Ltd filed Critical Shenzhen CIMC Tianda Airport Support Ltd
Application granted granted Critical
Publication of ES2967980T3 publication Critical patent/ES2967980T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64FGROUND OR AIRCRAFT-CARRIER-DECK INSTALLATIONS SPECIALLY ADAPTED FOR USE IN CONNECTION WITH AIRCRAFT; DESIGNING, MANUFACTURING, ASSEMBLING, CLEANING, MAINTAINING OR REPAIRING AIRCRAFT, NOT OTHERWISE PROVIDED FOR; HANDLING, TRANSPORTING, TESTING OR INSPECTING AIRCRAFT COMPONENTS, NOT OTHERWISE PROVIDED FOR
    • B64F1/00Ground or aircraft-carrier-deck installations
    • B64F1/002Taxiing aids
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G5/00Traffic control systems for aircraft
    • G08G5/50Navigation or guidance aids
    • G08G5/51Navigation or guidance aids for control when on the ground, e.g. taxiing or rolling
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64FGROUND OR AIRCRAFT-CARRIER-DECK INSTALLATIONS SPECIALLY ADAPTED FOR USE IN CONNECTION WITH AIRCRAFT; DESIGNING, MANUFACTURING, ASSEMBLING, CLEANING, MAINTAINING OR REPAIRING AIRCRAFT, NOT OTHERWISE PROVIDED FOR; HANDLING, TRANSPORTING, TESTING OR INSPECTING AIRCRAFT COMPONENTS, NOT OTHERWISE PROVIDED FOR
    • B64F1/00Ground or aircraft-carrier-deck installations
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Mechanical Engineering (AREA)
  • Image Analysis (AREA)

Abstract

Un sistema y método para la guía de atraque de aeronaves y la identificación del tipo de aeronave. El método se ejecuta en el sistema de guía de atraque de aeronaves e identificación de tipo de aeronave que comprende un subsistema de visión artificial, un subsistema de escaneo láser y un módulo de fusión. El método comprende: paso 1000, el subsistema de visión artificial obtiene una imagen a través de medios de captura de imágenes y calcula una primera posición de la rueda delantera de la aeronave a partir de ahí; etapa 2000, el subsistema de escaneo láser obtiene la posición del morro de una aeronave mediante medios de escaneo láser, y extrapola una segunda posición de la rueda delantera de la aeronave; En el paso 3000, la posición de la primera rueda delantera del avión y la posición de la segunda rueda delantera del avión se fusionan según una regla de fusión, y se obtiene una desviación de la rueda delantera del avión. (Traducción automática con Google Translate, sin valor legal)

Description

DESCRIPCIÓN
Sistema y procedimiento para guía de atraque de aeronaves e identificación del tipo de aeronave
CAMPO TÉCNICO
La presente descripción se refiere, en general, a un sistema de guía de atraque y, más particularmente, a una guía de atraque de aeronave y un sistema y procedimiento de identificación de tipo de aeronave.
ANTECEDENTES
La guía de atraque de aeronaves se refiere a un procedimiento de guiar a una aeronave que llega desde un extremo de una pista de rodaje hasta una posición de estacionamiento en una plataforma y guiar a la aeronave para que se detenga en una posición exacta designada. El objetivo de la guía de atraque es garantizar un atraque seguro y preciso de la aeronave que llega, facilitar la cooperación precisa de la aeronave con varias interfaces en tierra (personal de tierra) y hacer que el puente de embarque de pasajeros (PBB) sea conectado con precisión a la puerta de la aeronave y, por lo tanto, mejorar la eficiencia y la seguridad del aeropuerto.
Los sistemas automatizados de guiado de atraque de aeronaves se pueden dividir en las siguientes categorías dependiendo de los tipos de sensores empleados:
(1) categoría de bobinas de bucle enterradas; (2) categoría de escaneo y alcance láser; (3) categoría de percepción visual.
Los sistemas de guía automatizados de la categoría de escaneo y alcance láser y la categoría de percepción visual pueden obtener información visual sobre una aeronave que está siendo atracada, las dos categorías de sistemas de guía de atraque de aeronaves automatizados pueden denominarse sistemas de guía de atraque visual.
Los sistemas de guiado automatizados que utilizan bobinas de bucle enterradas detectan si hay un objeto metálico que pasa o se detiene para determinar la posición de una aeronave que llega. Los sistemas que utilizan las bobinas de bucle enterradas tienen ventajas tales como una velocidad de respuesta rápida, bajos costos y ningún requisito sobre el clima y la iluminación, pero estos sistemas no son precisos y tienen una baja capacidad anti-interferencia. Además, los cables y los elementos electrónicos enterrados en el suelo se pueden romper fácilmente y tienen baja confiabilidad, y dichos elementos tienen baja precisión de medición, no pueden identificar los tipos de aeronaves y son menos depurables y mantenibles.
Los sistemas automatizados de guiado de atraque de la categoría de escaneo y alcance láser determinan información como posiciones, velocidades y tipos de aeronaves mediante escaneo y alcance láser, están menos influenciados por la iluminación del entorno y el clima, tienen una alta precisión y son depurables y mantenibles.
Los sistemas automatizados de guiado de atraque de la categoría de percepción visual obtienen información de imagen sobre el procedimiento de atraque de aeronaves mediante imágenes ópticas, y determinan información como posiciones, velocidades y tipos de aeronaves que se están atracando en base a tecnologías inteligentes de procedimiento de información. Estos sistemas tienen ventajas como estructura simple, bajos costos, alto nivel inteligente, ser depurables y mantenibles, pero tienen deficiencias de altos requisitos en clima e iluminación y poca adaptabilidad.
Con el desarrollo continuo de tecnologías de percepción visual, tecnologías de procedimientos de información inteligentes y tecnologías informáticas, las tecnologías visuales de guía de atraque de aeronaves (sistemas) pueden obtener información de atraque sobre las aeronaves que se acoplan de manera precisa y rápida, y se han aplicado ampliamente en los sistemas de guía de atraque de muchos aeropuertos.
El Sistema de Guía de Atraque Visual (VDGS) diseñado por Honeywell y Video Docking System (VDOCKS) diseñado por Siemens, como dispositivos de guía visual de nivel internacional líder, se han aplicado en varios aeropuertos de todo el mundo.
Sin embargo, estos sistemas requieren condiciones climáticas y de iluminación específicas, tienen poca adaptabilidad, carecen de capacidad de procedimiento de información inteligente y son menos precisos.
RESUMEN
El problema técnico a resolver por la presente descripción es realizar la guía de atraque de la aeronave y determinar con precisión la desviación de una rueda delantera de una aeronave mientras se guía eficazmente la aeronave a atracar.
Con el fin de resolver el problema anterior, una realización de la presente invención proporciona una guía de atraque de aeronaves y un procedimiento de identificación de tipo, como se define con las reivindicaciones, realizado por una guía de atraque de aeronaves y un sistema de identificación de tipo que incluye un subsistema de visión artificial, un subsistema de escaneo láser y un módulo de fusión.
BREVE DESCRIPCIÓN DE LOS DIBUJOS
La Figura 1 es un diagrama de bloques que muestra ilustrativamente una estructura de un sistema de guía de atraque e identificación de tipo de aeronave según una realización de la presente descripción.
Las Figuras 2A y 2B son diagramas de bloques que muestran ilustrativamente una estructura de un subsistema de visión artificial según una realización de la presente descripción.
La Figura 3 es un diagrama de flujo que muestra ilustrativamente una guía de atraque de aeronave y un procedimiento de identificación de tipo según una realización de la presente descripción.
La Figura 4 es un diagrama esquemático que muestra ilustrativamente un campo de atraque de aeronaves según una realización de la presente divulgación.
Las Figuras 5A y 5B son diagramas de flujo que muestran ilustrativamente una etapa de pre-procesamiento de imágenes.
La Figura 6 muestra un ejemplo de una curva de una función de filtro homomórfico.
La Figura 7A es un diagrama de flujo que muestra ilustrativamente la eliminación de fondo según una realización de la presente descripción.
La Figura 7B es un diagrama esquemático que muestra ilustrativamente un área típica extremadamente negra. La Figura 7C es un diagrama de flujo que muestra ilustrativamente la determinación de similitud.
La Figura 7D es un diagrama esquemático que muestra de forma ilustrativa un ejemplo de un histograma de nivel de 256 grises.
La Figura 7E es un diagrama esquemático que muestra de forma ilustrativa un ejemplo de un histograma cuantificado de 64 niveles de gris.
La Figura 7F es un diagrama esquemático que muestra de forma ilustrativa los efectos después de una operación de cierre en una imagen utilizando un elemento estructurante en forma de elipse plana.
La Figura 8A es un diagrama de flujo que muestra de forma ilustrativa una etapa de seguimiento de la aeronave. La Figura 8B es un diagrama esquemático que muestra de forma ilustrativa un ejemplo de la parte del motor de la aeronave.
La Figura 9 es un gráfico que muestra ilustrativamente los puntos correspondientes de las distancias reales y las distancias de la imagen y una curva de ajuste.
La Figura 10A es un diagrama de flujo que muestra de forma ilustrativa un algoritmo de identificación y verificación de aeronaves.
La Figura 10B es un diagrama esquemático que muestra de forma ilustrativa una estructura de imagen en capas. La Figura 10C es un diagrama esquemático que muestra ilustrativamente los bordes de una imagen de aeronave. La Figura 10D es un diagrama esquemático que muestra de forma ilustrativa un perfil de ala de aeronave y un perfil de motor.
La Figura 10E es un diagrama esquemático que muestra ilustrativamente una imagen S a buscar, una subimagen Sij, una plantilla T.
La Figura 11 es un diagrama de bloques que muestra de forma ilustrativa una estructura de un subsistema de escaneo láser.
La Figura 12 es un diagrama de bloques que muestra de forma ilustrativa una estructura de un sistema de escaneo. La Figura 13 es un diagrama esquemático que muestra ilustrativamente cómo se divide una escena de atraque de aeronaves.
La Figura 14 es un diagrama esquemático que muestra ilustrativamente el principio de calibración horizontal del punto cero.
La Figura 15 es un diagrama esquemático que muestra ilustrativamente el principio de calibración vertical del punto cero.
La Figura 16 es un diagrama esquemático que muestra de forma ilustrativa las posiciones relativas de un subsistema de escaneo láser y una aeronave.
Las Figuras 17 y 18 son diagramas de flujo que muestran ilustrativamente una etapa de captura realizada por el subsistema de escaneo láser según una realización de la presente descripción.
La Figura 19 es un diagrama de flujo que muestra ilustrativamente una etapa de guía realizada por el subsistema de escaneo láser según una realización de la presente descripción.
La Figura 20 es una vista aérea durante el seguimiento de una aeronave.
La Figura 21 es un diagrama de flujo que muestra ilustrativamente una etapa de seguimiento.
La Figura 22 es un diagrama esquemático que muestra de forma ilustrativa un ejemplo de una posible forma de visualización en un dispositivo de visualización.
DESCRIPCIÓN DETALLADA
Las estructuras y los principios operativos de la presente descripción se describirán a continuación con referencia a los dibujos.
La presente descripción se refiere a una guía de atraque de aeronaves y un sistema de identificación de tipo. La Figura 1 es un diagrama de bloques que muestra ilustrativamente una estructura de un sistema de guía de atraque e identificación de tipo de aeronave según una realización de la presente invención.
El sistema de guía de atraque e identificación de tipo de aeronave incluye principalmente un subsistema de visión artificial 1000, un subsistema de escaneo láser 2000, un conjunto de fusión de información de visión e información láser 3000 y un dispositivo de visualización 4000. El subsistema de visión artificial 1000, el subsistema de escaneo láser 2000 y el dispositivo de visualización 4000 están conectados al conjunto de fusión de información de visión e información láser 3000. El subsistema de visión artificial 1000 y el subsistema de escaneo láser 2000 corresponden al mismo muelle de la aeronave, y obtienen información de atraque de las aeronaves, y envían la información obtenida al conjunto de fusión de información de visión e información láser 3000 que fusiona la información en un conjunto de información y envía el conjunto de información al dispositivo de visualización 4000 para su visualización.
Las Figuras 2A y 2B son diagramas de bloques que muestran ilustrativamente una estructura de un subsistema de visión artificial según una realización de la presente descripción. El subsistema de visión artificial 1000 incluye principalmente un dispositivo de cámara 1001 y un dispositivo de procedimiento central 1002. El dispositivo de cámara 1001 está conectado al dispositivo de procedimiento central 1002 que envía la información procesada al módulo de fusión de información 3000.
El dispositivo de cámara 1001 está dispuesto detrás de una línea de detención 42 de una plataforma de atraque de aeronaves 40, preferentemente, orientado directamente hacia una línea de guía 41. El dispositivo de cámara 1001 puede montarse a una altura por encima del cuerpo de una aeronave 5, por ejemplo, de 5 a 8 metros por encima del cuerpo de la aeronave. El dispositivo de cámara 1001 envía imágenes capturadas al dispositivo de procedimiento central 1002.
El dispositivo de procedimiento central 1002 puede ser un dispositivo informático que es capaz de recibir, procesar y almacenar datos, generar datos de imagen que se mostrarán y enviar datos. Por ejemplo, el dispositivo de procedimiento central 1002 puede incluir una pluralidad de módulos funcionales que están configurados para configurar la escena de atraque de la aeronave, preprocesar vídeos e imágenes, capturar aeronaves, rastrear aeronaves, localizar aeronaves, identificar tipos de aeronaves y verificar identidades, y todos los módulos funcionales se pueden implementar como software instalado en el dispositivo de procedimiento central 1002. El dispositivo de visualización 4000 puede ser una pantalla de visualización de información grande que se monta en un aeropuerto para que los pilotos la vean, por ejemplo. Además, la tripulación del aeropuerto puede estar provista de dispositivos de visualización portátiles para ver las condiciones de las aeronaves.
La Figura 3 es un diagrama de flujo que muestra ilustrativamente una guía de atraque de aeronave y un procedimiento de identificación de tipo según una realización de la presente descripción. Con referencia a la Figura 3, la guía de atraque de aeronaves basada en visión artificial y el procedimiento de identificación de tipo proporcionados por la presente descripción pueden incluir las siguientes etapas.
A continuación, se describirán los detalles de funcionamiento del subsistema de visión artificial 1000.
En la etapa S1, se establece la escena de atraque de la aeronave.
La configuración de la escena de atraque de la aeronave se refiere a dividir una escena de monitoreo en diferentes áreas funcionales del procedimiento de información y determinar posiciones y estados específicos de algunos objetos de referencia importantes en la escena. La configuración de la escena de atraque de la aeronave es la base para procesar eficazmente la información de atraque de la aeronave.
Una aeronave puede recorrer una larga distancia desde que entra en una plataforma hasta que finalmente se detiene y, por lo tanto, el procedimiento de guía de atraque de la aeronave se puede dividir en una pluralidad de fases, y es necesario monitorear diferentes contenidos durante diferentes fases. Es decir, el escenario para el atraque de aeronaves debe establecerse de antemano.
En la etapa S1, la escena de monitoreo de la plataforma de atraque de aeronaves 40 se divide en diferentes áreas funcionales para diferentes procedimientos de información para reducir el intervalo de imágenes del procedimiento y, por lo tanto, aumentar la eficiencia del procedimiento.
Además de las diferentes áreas funcionales, dos de las marcas más importantes en el escenario de atraque de aeronaves son la línea de guía y la línea de parada. La identificación efectiva de las posiciones de la línea de guía y la línea de parada es una base importante y una parte esencial para garantizar el atraque exitoso de las aeronaves, y también es un factor clave para distinguir las áreas funcionales. Las áreas funcionales individuales están marcadas en la presente descripción para realizar las tareas correspondientes del procedimiento de información de orientación en estas áreas funcionales. Además, las áreas relevantes del dispositivo de tierra están marcadas para evitar accidentes durante el atraque de la aeronave.
En esta etapa, se puede realizar primero la definición de la escena de monitoreo de la plataforma de atraque de aeronaves 40. Una regla en la que se disponen rayas blancas y negras alternas se coloca inmediatamente adyacente a la línea de guía 41, el intervalo entre las rayas negras y el intervalo entre las rayas blancas puede ser el mismo, y el intervalo máximo puede ser de 1 m, por ejemplo. Dependiendo de la resolución del dispositivo de la cámara, se pueden usar reglas más finas con un intervalo de 0,5 metros o 0,25 metros. La longitud total de la regla no puede estar más allá del intervalo dentro del cual se realizan los cálculos de distancia y posición con respecto a las aeronaves, por ejemplo, la longitud suele ser de 50 metros.
Mediante el software que se ejecuta en el dispositivo de procedimiento central 1002, se puede reconstruir la escena de monitoreo. Después de abrir el software, las imágenes capturadas por el dispositivo de cámara 1001 con respecto a la plataforma de atraque de la aeronave 40 pueden mostrarse, y las áreas relevantes pueden marcarse dibujando líneas, cuadros de selección o puntos manualmente, y los registros pueden almacenarse.
El dispositivo de cámara 100 captura imágenes de escena de la plataforma de atraque de aeronaves 40 cuando no hay aeronaves atracadas, y envía las imágenes al dispositivo de procedimiento central 1002. La configuración de la escena de atraque de la aeronave se muestra en la Figura 4. En esta figura, el cuadro 43 representa una imagen que se muestra cuando se realiza una operación de calibración y un área que se puede dibujar, los cuadros de líneas punteadas en esta figura indican posiciones donde se puede realizar el esbozo manual. Las líneas se pueden dibujar manualmente en las imágenes mostradas, por ejemplo, se pueden marcar la línea de guía 41 y la línea de detención 42. A continuación, se guarda y registra la información sobre las posiciones de la línea de guía 41 y la línea de detención 42 en la imagen. Al dibujar manualmente los cuadros de selección, se marcan un área de captura 6, un área de seguimiento y ubicación 7 y un área de dispositivo de tierra relevante 8. Se guarda y registra la información sobre las posiciones del área de captura 6 y el área de seguimiento y ubicación 7 en la imagen. Un área de identificación de tipo y verificación de identidad y el área de seguimiento y ubicación 7 pueden corresponder a la misma área. A continuación, según la regla colocada en el campo, los puntos se pueden dibujar manualmente para marcar todos los puntos de marcado 9 que están inmediatamente adyacentes a la línea de guía 41 y separados entre sí por 1 metro. Se guarda y registra la información sobre las posiciones de estos puntos en la imagen y las distancias de los puntos individuales 9 desde el primer punto de marcado 91 en la escena real.
Al marcar la línea de guía 41, la línea de detención 42 y los puntos de marcado 9, las partes de la imagen que deben marcarse pueden ampliarse, por ejemplo, hasta un ancho de decenas de píxeles, y el marcado manual puede realizarse en partes medias para aumentar la precisión del marcado. No se imponen requisitos estrictos sobre las posiciones marcadas del área de captura 6 y el área de seguimiento y ubicación 7. El borde superior del área de captura 6 está a unos 100 metros de distancia de la línea de parada 42 en la escena real, el borde inferior del área de captura 6 está a unos 50 metros de distancia de la línea de parada en la escena real, el borde superior del área de seguimiento y ubicación 7 está a unos 50 metros de distancia de la línea de parada en la escena real, y el borde inferior del área de seguimiento y ubicación 7 debe estar debajo de la línea de parada.
En la Figura 3, la etapa S1, que está por encima de la línea de puntos, se realiza después de la instalación del sistema pero antes de la guía de atraque. Las etapas por debajo de la línea de puntos se realizan durante la guía de atraque. Las etapas dentro del cuadro de la línea de puntos se realizan y actualizan en tiempo real durante la guía de atraque.
La etapa S2 es una etapa de pre-procesamiento de imagen, que se realiza después de la etapa S2. Esta etapa se realiza para mejorar los efectos visuales de las imágenes y aumentar la resolución de los elementos de la imagen o hacer que las imágenes sean adecuadas para ser procesadas por ordenadores. El atraque de aeronaves puede realizarse en diversas condiciones climáticas, por ejemplo, día y noche, días nublados, lluviosos, nevados o con niebla, y similares, y las imágenes capturadas en estas condiciones pueden ser diferentes. Específicamente, algunas imágenes pueden tener una iluminación relativamente baja, mientras que otras pueden tener una iluminación demasiado alta. Con el fin de facilitar los procedimientos de imagen posteriores, las imágenes recopiladas se pueden procesar por adelantado para obtener imágenes más ideales. Las imágenes recopiladas en diferentes condiciones pueden clasificarse en las siguientes cuatro categorías según la iluminación: imágenes de menor iluminación, imágenes de alta iluminación, imágenes de iluminación normal e imágenes de clima nublado, lluvioso o nevado. Las cuatro categorías de imágenes se pueden procesar de manera diferente.
Las Figuras 5A y 5B son diagramas de flujo que muestran ilustrativamente detalles de la etapa de pre-procesamiento de la imagen.
El dispositivo de cámara 1001 toma fotos en el área de captura 6 en tiempo real. Para cada una de las imágenes capturadas, se realizan la etapa S2 y las etapas posteriores después de la etapa S2.
La etapa S2 incluye además las etapas siguientes:
En la etapa S21, se realiza el oscurecimiento (gris) de una imagen capturada.
En la etapa S22, se calculan un nivel de gris promedio y la varianza de la imagen, y se determina si el nivel de gris promedio es menor que un umbral más bajo. Si el nivel de gris promedio es más bajo que el umbral más bajo, la imagen se determina como una imagen de iluminación baja, y se realiza una etapa de procedimiento de imagen de iluminación baja en la etapa S25; y si el nivel de gris promedio no es más bajo que el umbral más bajo, se realiza la etapa<s>23.
El umbral más bajo puede ser un umbral preestablecido, por ejemplo, un valor numérico entre 50 y 60.
En la etapa S23, se determina si el nivel de gris promedio de la imagen es mayor que un umbral más alto. Si el nivel de gris promedio de la imagen es mayor que el umbral más alto, la imagen se determina como una imagen de iluminación alta y se realiza una etapa de procedimiento de imagen de iluminación alta en la etapa S24; y si el nivel de gris promedio de la imagen no es mayor que el umbral más alto, la imagen se determina como una imagen de iluminación normal, y se realiza la etapa S26.
El umbral más alto se puede preestablecer, por ejemplo, un valor numérico entre 150 y 160. Las imágenes que tienen un nivel de gris promedio entre el umbral más alto y el umbral más bajo se pueden determinar como imágenes de iluminación normal.
En la etapa S24, se realiza un procedimiento de imagen de alta iluminación.
En la etapa S24, se utiliza la transformación gamma para procesar la imagen de alta iluminación para disminuir el brillo de la imagen.
En la etapa S25, se realiza un procedimiento de imagen de baja iluminación.
La presente descripción utiliza transformación no lineal para procesar imágenes de baja iluminación. La ecuación de transformación puede ser:
dondef(x, y) representa una imagen original, (x, y) son coordenadas de puntos de píxel individuales en la imagen, g(x,y)representa la imagen procesada, y a esunparámetro de procedimiento de imagen de baja iluminación, que puede ser 0,01, por ejemplo.
En la etapa S26, para una imagen de iluminación normal, se determina si la varianza de la imagen es mayor que un valor de variación estándar. Si la varianza de la imagen es mayor que el valor de variación estándar, la imagen se determina como una imagen de lluvia, nieve o niebla, y se realiza la etapa S27; y si la varianza de la imagen no es mayor que el valor de variación estándar, se puede determinar que la imagen de iluminación normal no es una imagen de lluvia, nieve o niebla y es una imagen normal, y no se aplica ningún procedimiento en esta imagen.
En la etapa S27, si la entropía de la imagen de iluminación normal es mayor que un umbral. Si la entropía de la imagen de iluminación normal es mayor que el umbral, la imagen de iluminación normal se determina como una imagen de lluvia o nieve, y se realiza una etapa de procedimiento de imagen de lluvia o nieve en la etapa S28; y si la entropía de la imagen de iluminación normal no es mayor que el umbral, la imagen de iluminación normal se determina como una imagen de niebla, y se realiza una etapa de procedimiento de imagen de niebla en la etapa S29.
La entropía es una cantidad matemática, que se utiliza para describir la cantidad de información. Para una imagen, la entropía representa la cantidad de detalles de una imagen, es decir, la cantidad de información contenida en la imagen. Para una imagen de lluvia o nieve, debido a la existencia de lluvia o nieve, pueden aparecer gotas de lluvia o copos de nieve en diferentes posiciones de la imagen, de modo que la imagen puede contener una cantidad relativamente grande de detalles. Para una imagen de niebla, debido a la distribución uniforme de la niebla, se contiene una cantidad relativamente pequeña de detalles. Por lo tanto, la entropía se puede usar para determinar si una imagen es una imagen de lluvia o nieve o una imagen de niebla.
En una realización, para una imagen de nivel de gris, se selecciona un nivel de gris de vecindad promedio de la imagen como un vector de característica de espacio de distribución de nivel de gris, y el nivel de gris de vecindad promedio y un nivel de gris de píxel de la imagen forman una tupla de característica indicada como (i, j), donde i representa el nivel de gris de un píxel (0 <= i <= 255), j representa el nivel de gris de vecindad promedio (0 <= j <= 255); con f(i, j) como la frecuencia con la que aparece la tupla de característica, N representa el tamaño de la imagen, py=f(i,j)/N2, y la entropía bidimensional de la imagen de nivel de gris se puede calcular en función de la siguiente ecuación:
:
En la etapa S28, se realiza una etapa de procedimiento de imagen de lluvia o nieve.
La etapa del procedimiento de imagen de lluvia o nieve utiliza un modelo fotométrico de píxeles en la secuencia de imágenes para determinar las correlaciones lineales de brillo a fin de eliminar la influencia en la imagen causada por la lluvia o la nieve.
Una imagen capturada influenciada por la lluvia o la nieve tiene el siguiente modelo fotométrico.
En caso de que el clima actual sea de lluvia o nieve y el fondo se mantenga sin cambios, los valores de brillo /n<-1>,IneIn+1del mismo punto de píxel P en tres fotogramas de imágenes (es decir, (n-1)-ésimo, n-ésimo, (n+1)-ésimo) capturados para la misma posición cumplen la siguiente condición:
el valor de brillo /n<-1>, del cuadro (n-1)-ésimo es igual al valor de brilloIn+1del cuadro (n+1)-ésimo, y el valor de variación de brilloAIdel cuadro n-ésimo como resultado de la lluvia o la nieve cumple con la siguiente condición:
donde c representa el umbral más pequeño de la variación de brillo resultante de la lluvia o la nieve.
Por lo tanto, en la etapa S28, se incluyen además las siguientes etapas.
En la etapa S281, los píxeles a procesar que están dañados por la lluvia o la nieve se encuentran utilizando un modelo fotométrico.
Es decir, para un punto de píxel P en una imagen actual n, se determina si /n<-1>es igual a/n 1y si A i es mayor o igual quec.Si los dos resultados de la determinación son afirmativos, se puede determinar que el punto de píxel P en la imagen actual n es un píxel a procesar. Las determinaciones anteriores se pueden realizar con respecto a todos los píxeles de la imagen n hasta que se encuentren todos los píxeles a procesar.
En la etapa S282, se realiza el ajuste de brillo para los píxeles a procesar.
La etapa S282 puede incluir además las siguientes etapas.
En la etapa S2821, para el píxel P a procesar en la imagen n, se extraen los valores de brillo de los píxeles P correspondientes en dos fotogramas de imagen vecinos anteriores (es decir, (n-1)-ésimo, (n-2) -ésimo) y dos imágenes vecinas sucesivas (es decir, (n+1)-ésimo, (n+2) -ésimo) que son adyacentes a la imagen n, y se determina si los píxeles P en los cuatro fotogramas de imagen son píxeles a procesar; si los píxeles P en los cuatro fotogramas de imagen son píxeles a procesar, se realiza la etapa S2822; y si no todos los píxeles P en los cuatro fotogramas de imagen son píxeles a procesar, se realiza la etapa S2823.
En la etapa S2822, se obtiene un valor promedio de los valores de brillo de todos los píxeles adyacentes al píxel P, el valor de brillo del píxel P a procesar en la imagen se reemplaza con el valor promedio, de modo que se puede eliminar la influencia en el brillo de la imagen causada por la lluvia o la nieve.
En la etapa S2823, para el píxel P que se procesará en la imagen n, se extraen los valores de brillo de los píxeles P correspondientes en dos fotogramas de imagen vecinos anteriores (es decir, (n-1)-ésimo, (n-2) -ésimo) y dos imágenes vecinas sucesivas (es decir, (n+1)-ésimo, (n+2) -ésimo) que son adyacentes a la imagen n, es decir, se extraen los valores de brillo del mismo punto de píxel en un total de cuatro fotogramas de imagen, y se identifican los dos valores de brillo mínimos, se calcula un valor promedio de los dos valores de brillo identificados, y el valor de brillo del píxel P que se procesará en la imagen n se reemplaza con el valor promedio, de modo que se puede eliminar la influencia en el brillo de la imagen causada por la lluvia o la nieve. En otra realización, el valor de brillo del píxel P a procesar en la imagen n se puede reemplazar directamente con el mínimo entre los valores de brillo del mismo punto de píxel en los cuatro fotogramas de imagen.
En las etapas S2821 y S2823, también se pueden extraer los valores de brillo del píxel correspondiente en uno o tres o más fotogramas de imagen vecinos sucesivos y anteriores de la imagen n.
En la etapa S29, se realiza un procedimiento de imagen de niebla.
En el procedimiento de imagen de niebla en la etapa S29, se puede usar filtrado homomórfico para eliminar la influencia en el brillo de la imagen causada por la niebla.
Específicamente, una imagenf(x, y)se puede representar como un producto de dos partes, es decir, una parte de iluminación y una parte de reflexión:
donde 0 <i(x,y) < < ro es el componente de iluminación, y 0 <r(x, y)< 1 es el componente de reflexión. Tomando el logaritmo natural de ambos lados, se puede obtener la siguiente fórmula:
A continuación, después de la transformada de Fourier, se puede obtener la siguiente fórmula:
Se utiliza una función de filtro homomórficaH(u,v)para procesarF(u, v):
La forma de la curva deH(u, v) se puede aproximar utilizando una forma básica de cualquier tipo de filtro de paso alto ideal. Por ejemplo, se puede utilizar la siguiente forma que se obtiene ajustando ligeramente un filtro de paso alto gaussiano:
La Figura 6 muestra un ejemplo de la curva de una función de filtro homomórfico.
Después de la transformada inversa de Fourier:
y a continuación al realizar la aritmética de exponentes, se puede obtener el siguiente resultado del procedimiento:
dondeg(x, y)representa el resultado obtenido después de la etapa del procedimiento de imagen de niebla.
Para cada imagen, después de la etapa de pre-procesamiento en la etapa S3, se puede obtener una calidad de imagen relativamente alta, y a continuación se pueden realizar procedimientos posteriores.
La etapa S3, que es una etapa de captura de la aeronave, se realiza después de la etapa S2.
La etapa de captura de aeronaves es muy importante, porque si no se captura ninguna aeronave, no se pueden realizar todas las etapas posteriores. Por lo tanto, la forma de capturar aeronaves de forma rápida y precisa es la base y la condición previa para completar una tarea de guía de atraque de aeronaves. Un algoritmo de captura rápido y preciso puede proporcionar información más precisa y permitir más tiempo de procedimiento para la posterior identificación, seguimiento y guía del tipo de aeronave. Para realizar una captura rápida y precisa de las aeronaves que se van a atracar, se obtiene un área diana estable, y todo el procedimiento de captura se realiza dentro del área de captura 6 según lo prescrito por la definición de escena. Esto puede evitar la captura de aeronaves en toda la imagen, y la cantidad de cálculo se reduce, lo que facilita la captura rápida de aeronaves. En el área de captura, primero se realiza la detección de cambios, se extraen áreas de objetos en movimiento y a continuación se clasifican las áreas de los objetos en movimiento para determinar si las áreas corresponden a una aeronave a atracar, de modo que se pueda realizar una captura precisa de las aeronaves a atracar.
Específicamente, con el fin de capturar una aeronave que se va a acoplar, la imagen después de los pre procedimientos en la etapa S2 necesita analizarse continuamente para identificar con precisión si aparece una aeronave.
La Etapa S3 puede incluir las siguientes etapas.
En la etapa S31, se realiza una etapa de eliminación de fondo.
En la etapa S32, se realiza una etapa de eliminación de sombra.
En la etapa S33, se realiza una etapa de clasificación de área.
En la etapa S34, se realiza una etapa de verificación de características.
Existe una aeronave en primer plano de una imagen, y para capturar con precisión la aeronave de la imagen, el fondo de la imagen debe eliminarse primero para eliminar la interferencia.
La eliminación de fondo en la etapa S31 utiliza un modelo de fondo gaussiano único para simular una distribución dinámica del fondo del campo para establecer un modelo de fondo, y a continuación el fondo se elimina utilizando una diferencia entre el cuadro actual y el modelo de fondo. El diagrama de flujo de eliminación de fondo se muestra en la Figura 7A.
La Etapa S31 puede incluir las siguientes etapas.
En la etapa S311, se realiza la inicialización del modelo de fondo.
En la presente descripción, se utiliza un modelo de fondo gaussiano único. El modelo de fondo gaussiano único considera cada píxel en el modelo de fondo como una distribución normal unidimensional, y los píxeles son independientes entre sí. La distribución de cada píxel está determinada por un valor promedio y la varianza de la distribución normal del píxel.
El modelo de fondo se entrena utilizando N imágenes consecutivas después de los procedimientos en la etapa S2 para determinar el valor promedio y la varianza de la distribución gaussiana. Lo que capturan las imágenes N es la escena del área de captura 6 cuando no aparece ninguna aeronave en el área de captura 6. En otras palabras, las N imágenes son las imágenes de fondo. Las posiciones capturadas por las N imágenes son las mismas. Las N imágenes pueden ser 50 imágenes capturadas por el dispositivo de cámara 1001.
Se calculan un nivel de gris promediop0de cada píxel y la variación de los niveles de gris de los píxeles en las N 2
imágenes consecutivasf (x, y), p0y 0 forman una imagen de fondo inicial So que tiene una distribución gaussiana: n d e :
A continuación, se establece un modelo gaussianoq (xi, p,, a )para cada punto de píxel en cada fotograma de la imagen. El subíndice i representa un número de fotograma de una imagen, x representa un valor de píxel actual del punto de píxel, p¡ representa la media del modelo gaussiano del punto de píxel actual, a representa la desviación estándar del modelo gaussiano del punto de píxel actual.
A continuación, la determinación serealiza en q (xi,p¡,a).Siq (xi,p¡,o) < Tp (Tpes un umbral de probabilidad, también llamado umbral de detección de primer plano), el punto de píxel se puede determinar como un punto de primer plano; de lo contrario, el punto de píxel se puede determinar como un punto de fondo (esta situación se puede llamar como que x coincide conq (xi, p,, o)).Los puntos de fondo recopilados constituyen el modelo de fondo para completar la inicialización del modelo de fondo.
En aplicaciones reales, se puede usar un umbral equivalente para reemplazar el umbral de probabilidadTp.Suponiendod¡ = \x¡ -p¡ |, en situaciones unidimensionales comunes, el umbral de detección de primer planod
generalmente se establece de acuerdo con el valor de (el valor de T está entre 2 y 3), el punto se puede determinar como un punto de primer plano; de lo contrario, el punto se puede determinar como un punto de fondo.
En la etapa S312, se actualiza el modelo de fondo.
Después de completar la etapa S311, si la escena cambia, el modelo de fondo debe responder a estos cambios, y en este momento, el modelo de fondo debe actualizarse.
El modelo de fondo se actualiza utilizando información en tiempo real proporcionada por imágenes consecutivas capturadas por el dispositivo de cámara 1001 después de que cambia la escena:
donde a es una tasa de actualización, que indica qué tan rápido o lento se actualiza el modelo de fondo. Si un punto de píxel es el fondo, la tasa de actualización a se establece en 0,05, y si el punto de píxel es el primer plano, la tasa de actualización a se establece en 0,0025.
Después de completar la etapa S311, si la escena no cambia, la etapa S313 se puede realizar directamente.
En la etapa S313, después de que el fotograma de imagen actual capturado por el dispositivo de cámara 1001 se procesa después de la etapa S2, mediante la resta con el modelo de fondo, se obtiene el área de primer plano del fotograma de imagen actual.
En esta etapa, después de la etapa de resta, el resultado obtenido por la resta se puede procesar adicionalmente por erosión morfológica o dilatación para obtener límites más precisos del área de primer plano. La erosión morfológica y la dilatación son tecnologías conocidas en esta técnica y pueden ser practicadas por un experto en esta materia.
Después de eliminar el fondo de la imagen, las sombras de la imagen se pueden eliminar aún más para capturar con precisión las aeronaves.
En la etapa de eliminación de sombras en la etapa S32, en primer lugar, se obtienen los niveles de gris de los píxeles en el área de primer plano identificados después de los procedimientos de la etapa 31, se identifican un nivel de gris máximogmax y un nivel de gris mínimo g min, y la eliminación de sombras se realiza en áreas que tienen niveles de gris relativamente bajos. Las áreas que tienen niveles de gris relativamente bajos pueden referirse a áreas que tienen un nivel de gris menor que g min (g max -gmin) *0,5.
Cada cuadro de imagen puede incluir un área de primer plano y un área de fondo, que pueden superponerse entre sí, y un píxel en el área de primer plano puede corresponder a un píxel de fondo en el área de fondo que está en la misma posición.
En un área que tiene un nivel de gris relativamente bajo, se calcula una relación entre el nivel de gris de cada píxel y el nivel de gris de un píxel de fondo correspondiente; si la relación está entre 0,3 y 0,9, el píxel puede ser considerado como un punto de sombra.
A continuación, al realizar la erosión morfológica y la dilatación muchas veces, las áreas que no son sombra se eliminan del conjunto de puntos de sombra para obtener áreas de sombra.
Después de eliminar las áreas de sombra del área de primer plano, se realiza la erosión morfológica y la dilatación muchas veces para eliminar los agujeros en el área de primer plano que deben eliminarse, y se conectan las áreas individuales, de modo que se pueda obtener el área diana. El área diana corresponde a un objeto que puede aparecer en el área de captura 6, que podría ser una aeronave o un vehículo u otros objetos.
En la etapa de clasificación de área en la etapa S33, se establece de antemano una plantilla de área de aeronave frontal estándar. Debido a que las aeronaves tienen la característica de que dos extremos son estrechos y la parte media es ancha, la plantilla se puede usar para distinguir aeronaves y objetos que no son aeronaves.
Se extrae un área diana mediante detección de cambios, se calcula una curva de proyección vertical del área. A continuación, se calcula una curva de proyección vertical de la plantilla de área de la aeronave delantera estándar. Se determina si un coeficiente de correlación entre la curva de proyección vertical del área diana y la curva de proyección vertical de la plantilla de área de aeronave delantera estándar es mayor que un umbral de clasificación; si el coeficiente de correlación es mayor que el umbral de clasificación, se determina que el área diana corresponde a una aeronave, y se realiza adicionalmente la etapa S34; y si el coeficiente de correlación no es mayor que el umbral de clasificación, se determina que el área diana no corresponde a una aeronave. El umbral de clasificación puede ser 0,9, por ejemplo.
En la etapa S33, si el área diana corresponde a una aeronave se determina aproximadamente solo de acuerdo con el contorno, y la etapa de verificación de características en la etapa S34 debe realizarse adicionalmente para confirmar aún más si el área diana corresponde realmente a una aeronave. En la etapa de verificación de características, se verifica si el área diana corresponde a una aeronave detectando los motores y la rueda delantera de la aeronave capturada.
La etapa S34 incluye además las siguientes etapas.
En la etapa S341, se realiza la extracción del área extremadamente negra.
Se obtiene un histograma estadístico de nivel de gris para el área diana de la imagen actual, se identifican un nivel de gris máximo (gmax) y un nivel de gris mínimo (gmin) dentro de un intervalo de nivel de gris de 1 %~99 % (generalmente niveles de gris de 2~253), y se obtiene una relación de nivel de gris (es decir, gmax/ gmin) del nivel de gris máximo (gmax) al nivel de gris mínimo (gmin), donde el número de píxeles correspondiente al nivel de gris máximo no es igual a cero y el número de píxeles correspondiente al nivel de gris mínimo no es igual a cero. Se puede determinar si es de día o de noche según la relación. De acuerdo con la relación y un umbral preestablecido, la parte extremadamente negra de la imagen se extrae para obtener un área extremadamente negra.
Específicamente, las áreas que tienen un nivel de gris entregmin y('gmax-gmin) * BlackestJudgegminse extraen de la imagen utilizando un umbralBlackestJudge(es decir, un umbral de juicio extremadamente negro), es decir, la porción extremadamente negra de la imagen se extrae para obtener un área extremadamente negra.
De acuerdo con la relación del nivel de gris máximo(gmax)respecto al nivel de gris mínimo(gmin),se puede determinar si la imagen se captura de día o de noche. Cuando la relación es mayor que un valor estándar, se determina que la imagen se captura en el día, y el umbral de juicio extremadamente negro se puede establecer en 0,05. Si la relación no es mayor que el valor estándar, se determina que la imagen se captura en la noche y el umbral de juicio extremadamente negro se establece en 0,5.
Un ejemplo de un área típica extremadamente negra se muestra en la Figura 7B, y los interiores de los gráficos son áreas extremadamente negras.
En la etapa S342, se realiza una detección de cuasi-círculo.
Se extraen todos los límites exteriores del área extremadamente negra y, para cada uno de los límites, se calculan las coordenadas baricéntricas del límite.
Específicamente, el baricentro del límite se puede calcular utilizando el momento del límite. Elji-ésimomomentompdel límite se define como:
donde (x, y) representa las coordenadas de un punto de píxel, f(x, y) representa la imagen del área extremadamente negra.
Las coordenadas baricéntricas se pueden calcular utilizando los momentos 00-ésimo,10-ésimo y01-ésimo:
Para todos los puntos de píxel en un límite actual, se calculan las distancias entre los puntos de píxel y el baricentro. Si una relación entre una distancia máxima calculada y una distancia mínima calculada es mayor que un valor preestablecido (es decir, un umbral de juicio de círculo que es preferentemente 1,5), se determina que el área correspondiente al límite no es circular; y si la relación entre la distancia máxima calculada y la distancia mínima calculada no es mayor que el valor preestablecido, se determina que el área correspondiente al límite es circular. Sobre la base de dicha regla, se juzgan todos los límites.
Para cada una de esas áreas que se determinan como circulares (denominadas áreas cuasi-circulares), se registran las coordenadas baricéntricas y las distancias desde los límites al baricentro (es decir, los radios) del área, de modo que se puede realizar la determinación de similitud en la etapa S343.
En la etapa S343, se realiza una determinación de similitud. La Figura 7C es un diagrama de flujo que muestra de forma ilustrativa la determinación de similitud.
La etapa S343 puede incluir además las siguientes etapas.
En S3431, mediante el cálculo de similitud sobre las áreas cuasi-circulares, se determina si existe un motor en estas áreas cuasi-circulares. Si hay un motor en estas áreas cuasi-circulares, se realiza la etapa S4. Si no existe ningún motor en estas áreas cuasi-circulares, se realiza la etapa S3432.
Suponiendo que se detecta un total deMáreas cuasi-circulares, y se calcula una similitud entre un área cuasi-circulari-ésimay un área cuasi-circularj-ésimautilizando la siguiente ecuación:
dondeAlturarepresenta una altura del baricentro,Radiorepresenta una distancia promedio desde los límites hasta el baricentro (es decir, un radio).
Cuando la similitudSimilitudijes menor que un umbral de similitudsimilarThresh(que se establece preferentemente como 40), se determina que lai-ésimaárea cuasi-circular y laj-ésimaárea cuasi-circular son áreas del motor. Si ninguna similitudSimilitudijes menor que el umbralsimilarThresh,se determina que no se detecta área del motor y se realiza la etapa S3432.
En la etapa S3432, se ajusta el umbral y se repiten las etapas S341, S342 y S3431. Si todavía no se detecta área del motor, se realiza la etapa S3433.
Los umbralesBlackest Judge, circleJudgeysimilarThreshse incrementan, respectivamente. Por ejemplo, los umbralesBlackestJudge, circleJudgeysimilarThreshse pueden aumentar en 0,05, 0,5 y 20, respectivamente. A continuación, se realizan las etapas de extracción de áreas extremadamente negras, detección cuasi-circular y detección del motor. Si todavía no se detecta el área del motor, se realiza la etapa S3433.
En la etapa S3433, se aplica una plantilla circular en todas las áreas extremadamente negras para realizar una operación de apertura en el procedimiento morfológico y a continuación se repiten las etapas S342 y S3431.
Por ejemplo, la plantilla circular puede ser una plantilla circular de 7*7. Después de la operación de apertura, se realizan la detección cuasi-circular en la etapa S342 y la detección del motor en la etapa S3431. Si todavía no se detecta el área del motor, la etapa S3432 se realiza de forma iterativa.
Si todavía no se detecta un área del motor después de N iteraciones, se puede determinar que no hay ningún motor en la imagen. N puede ser igual a 2, por ejemplo.
Cuando se detectan fotogramas de imagen posteriores, si el número de iteración utilizado para el último fotograma es n, la iteración para el fotograma de imagen actual comienza desde n-1.
En la etapa S344, se realiza la detección de la rueda delantera.
Con una línea de conexión imaginaria que conecta los centros de los motores detectados en la etapa S343 como un lado inferior y líneas imaginarias perpendicularmente y por debajo del lado inferior y que tienen una longitud igual a cuatro diámetros y medio de cada motor como otros dos lados, se puede formar un área rectangular imaginaria, y esta área rectangular se toma como el área de búsqueda.
En el área de búsqueda, 256 niveles de gris se cuantifican en 64 niveles de gris. Un ejemplo de un histograma de nivel de 256 grises se muestra en la Figura 7D, y un ejemplo de histograma de nivel de 64 grises cuantificado.
Por ejemplo, en la Figura 7E, se buscan un primer pico 3001 y un primer valle 3002 en el histograma cuantificado de 64 niveles de gris.
Suponiendo que la posición del primer pico cuantificado espico,y la posición del primer valle esvalle,una mejor posición de picoBestPeakyunamejor posición de valleBestValleyen el histograma original de 256 niveles de gris se definen como:
dondehist256(i)es el número total de píxeles que tienen un nivelde gris de ien el histograma de nivel de gris 256. Los niveles de gris se dividen utilizandoBestValley.Para las partes que tienen un nivel de gris más pequeño que elBestValley,se eliminan los puntos inconexos que tienen un área relativamente pequeña y se realiza una operación de cierre en la imagen utilizando un elemento estructurante en forma de elipse plana. La Figura 7<f>muestra ilustrativamente los efectos de ejemplo.
Para todos los gráficos después de la operación de cierre, se calculan las características de los límites del momento Hu de siete órdenes, y las características del momento Hu de siete órdenes se comparan con las características del momento Hu de un modelo de rueda delantera estándar preestablecido. El momento Hu es un momento geométrico propuesto por Hu en 1962 (Reconocimiento visual de patrones por invariantes de momento), que es invariante a la traslación, el tamaño y la rotación. Hu utiliza un momento central de dos órdenes y un momento central de tres órdenes para construir siete momentos invariantes. Por lo tanto, el orden siete de las características del momento Hu de siete órdenes es definitivo. Si la similitud es inferior a un umbral (que se establece preferentemente como 1), se determina que el gráfico es una rueda. De esta manera, se pueden obtener posiciones de una pluralidad de conjuntos de ruedas, y la rueda inferior media es la rueda delantera.
Una vez que se determina que se detectan los motores y la rueda delantera, se puede considerar que la captura es exitosa. La etapa S4 se puede realizar hasta que la captura se realice correctamente.
En la etapa S4, se realiza una etapa de seguimiento de la aeronave.
En esta etapa, para ubicar la aeronave en tiempo real y obtener una desviación precisa de la aeronave con respecto a la línea de guía, de acuerdo con la gran diferencia entre el brillo de las paredes exteriores y el brillo de los interiores de los motores y las estructuras circulares de los motores, se pueden extraer las posiciones y los radios de los motores, y a continuación se puede encontrar la rueda delantera de la aeronave de acuerdo con una relación de posición espacial, y a continuación se puede ubicar la aeronave.
Específicamente, después de capturar una aeronave, el dispositivo de cámara 1001 continúa capturando imágenes. Si la captura de la aeronave se realiza en el último fotograma, para el fotograma de imagen actual, la etapa S4 se realiza directamente después de los pre-procedimientos de imagen en la etapa S2. O, después de las etapas S2 y S3, se realiza la etapa S4.
Debido a que las posiciones del motor en el último fotograma se han obtenido usando el procedimiento de verificación de características en la etapa S34, las posiciones del motor en el fotograma actual pueden moverse muy ligeramente. Por lo tanto, no es necesaria la redetección en toda la imagen, y la extracción del motor del fotograma actual se puede realizar en un área extendida relativamente pequeña, y los parámetros(BlackestJudge, circleJudge)en el último fotograma se pueden aplicar en la detección de dianas para el fotograma actual.
La Figura 8A es un diagrama de flujo que muestra de forma ilustrativa la etapa de seguimiento de la aeronave.
En la etapa S41, se determina si hay información del motor del último fotograma. Si existe la información del motor del último fotograma, se realiza la etapa S42. Si no hay información del motor del último fotograma, se realiza la etapa S46.
En la etapa S42, las posiciones del motor se determinan utilizando un procedimiento de llenado por inundación.
Los motores generalmente tienen paredes exteriores de colores claros, y los niveles de gris de las paredes exteriores son significativamente más altos que los de las áreas negras del interior de los motores.
La Figura 8B muestra de forma ilustrativa una parte de una imagen de motor de una aeronave. Por lo tanto, con un centro del motor en el último fotograma como punto de siembra, utilizando el procedimiento de llenado por inundación, se puede obtener el área negra de todo un motor.
En caso de tiempo nublado o poca iluminación, los niveles de gris de los límites de un motor pueden no ser mucho más altos que los del centro del motor, también existen algunos puntos de ruido y, por lo tanto, puede aparecer un desbordamiento cuando se utiliza el procedimiento de llenado por inundación. En consecuencia, el resultado puede volverse inválido, el área del motor obtenida puede ser demasiado grande y ya no será circular. Por lo tanto, la etapa S43 se lleva a cabo adicionalmente.
En la etapa S43, se determina si el resultado de llenado en la etapa S42 es válido. Si el resultado de llenado es válido, se realiza la etapa S46. Si el resultado no es válido, se realiza la etapa S44.
En la etapa S44, se realiza una etapa de detección y seguimiento del entorno oscuro.
En esta etapa, las etapas S341 y S342 se realizan nuevamente utilizando parámetros cuando se procesa el último fotograma para detectar el área del motor.
En la etapa S45, se determina si el resultado de la detección es válido. Si el resultado de la detección es válido, se emite información sobre el área del motor. Si el resultado de la detección no es válido, la información del motor del último fotograma se vacía, y se realiza la etapa S41.
En la etapa S46, se realiza la etapa de verificación de características en la etapa S34 y se genera información sobre el área del motor.
Para una secuencia de imágenes sobre el atraque de aeronaves, la etapa S46 no se puede realizar más de dos veces. Además, después de detectar un número particular de fotogramas de imagen (por ejemplo, 20 fotogramas) utilizando la etapa de detección y seguimiento de entorno oscuro en la etapa S44, la etapa de verificación de características en la etapa S34 se utiliza para realizar la detección sin importar cuál sea el resultado de la detección.
En la etapa S47, se realiza una etapa de seguimiento de la rueda delantera.
Después de obtener la información sobre el área de motor, la rueda delantera de la aeronave se detecta en esta etapa usando el procedimiento de detección de rueda delantera en la etapa S344, de modo que se pueda realizar la etapa de localización de aeronave posterior.
En la etapa S48, se realiza una etapa de procedimiento de emergencia de la rueda delantera.
Cuando el resultado de detección obtenido en la etapa S47 es obviamente incorrecto, por ejemplo, si el área que se determina como correspondiente a la rueda tiene una forma incorrecta, o la posición de la rueda obviamente se desvía de la de los cinco a diez fotogramas de imágenes anteriores, de acuerdo con la información del último fotograma de imagen y el fotograma de imagen actual, el desplazamiento de la rueda delantera en el fotograma actual se estima en función del desplazamiento de los motores entre dos fotogramas de imágenes adyacentes para obtener un resultado de estimación como resultado de seguimiento de la rueda delantera.
En la etapa S5, se realiza una etapa de localización de aeronaves. Esta etapa se utiliza para generar información de guía de atraque correcto.
La etapa S5 incluye además las siguientes etapas.
En la etapa S51, se realiza una etapa de calibración del dispositivo de cámara y corrección de imagen.
En la etapa S52, se realiza una etapa de cálculo del grado de desviación de la rueda delantera de la aeronave. En la etapa S53, se realiza una etapa de cálculo de la distancia real de la rueda delantera de la aeronave.
Mediante el procedimiento de calibración del dispositivo de cámara en la etapa S51, se determinan los parámetros geométricos y ópticos del dispositivo de cámara 1001 y la orientación del dispositivo de cámara 100 con respecto a un sistema de coordenadas mundial.
La calibración del dispositivo de la cámara se realiza en función de OpenCV. Durante el procedimiento de calibración, se utiliza un tablero de ajedrez plano con colores alternos en blanco y negro como plantilla de calibración. El dispositivo de cámara 1001 captura una pluralidad de imágenes de la plantilla de calibración plana desde diferentes ángulos para calibrar el dispositivo de cámara 1001. Con el fin de hacer que el resultado de la calibración sea más preciso, durante el procedimiento de calibración, se deben obtener al menos diez imágenes de tablero de ajedrez de 7*8 o más, y las imágenes de calibración en diferentes ángulos se pueden capturar tantas como sea posible. El procedimiento detallado podrá ser el siguiente.
En la etapa S511, se leen N imágenes de calibración.
En la etapa S512, los puntos de esquina del tablero de ajedrez se encuentran utilizando una función cvFindChessboardCorners() en OpenCV, las N imágenes de calibración leídas se introducen en la función cvFindChessboardCorners(). Si el hallazgo de todos los puntos de esquina es exitoso, la función devuelve 1, lo que indica que el hallazgo es exitoso, y se obtienen las coordenadas de los puntos de esquina en un sistema de coordenadas de imagen. Si la búsqueda de todos los puntos de esquina no tiene éxito, la función devuelve 0.
En la etapa S513, si el hallazgo de los puntos de esquina es exitoso, las coordenadas de los puntos de esquina en la plantilla de calibración se llevan a una función cvCalibrateCamera2(), y se devuelven una matriz de parámetros, un coeficiente de distorsión, un vector de rotación y un vector de traslación del dispositivo de cámara 1001.
Las lentes reales suelen tener distorsión de diferentes niveles, incluyendo principalmente distorsión radial y ligera distorsión tangencial. El coeficiente de distorsión devuelto por la funcióncvCalibrateCamera2() incluye un coeficiente de distorsión radial y un coeficiente de distorsión tangencial, y se pueden llevar a la función cvUndistort2() en OpenCV. Es decir, la distorsión de las lentes se puede eliminar matemáticamente.
El cálculo del grado de desviación de la rueda delantera de la aeronave en la etapa S52 se utiliza para determinar si la rueda delantera de una aeronave está en la línea de guía, o se desvía hacia la izquierda o la derecha con respecto a la línea de guía.
De acuerdo con el resultado de la etapa de seguimiento de la rueda delantera en la etapa S47, se pueden obtener coordenadas de la posición de la rueda delantera. A continuación, en función de la definición de campo, se puede obtener información de posición relacionada sobre la línea de guía y la línea de parada. Utilizando el conocimiento de la relación entre un punto medio y una línea recta en álgebra, se puede determinar el grado de desviación de la rueda delantera de la aeronave. Las etapas detalladas son las siguientes.
Las coordenadas (x<0>,ya)de la posición de la rueda delantera se pueden obtener de acuerdo con el resultado del seguimiento de la rueda delantera. Las coordenadas (xg<1>,ygi)y (X<92>, y92) de dos puntos cualesquiera en la línea de guía y las coordenadas (xsi, ysi) y (xs<2>, ys<2>) de dos puntos cualesquiera en la línea de parada se pueden obtener en función de la definición de la escena. Si las coordenadas x de los dos puntos en la línea de guía se encuentran con xgi = X<92>, la ecuación de línea recta 1 de la línea de guía 41 no se puede representar como una ecuación de puntopendiente, y la ecuación de línea recta 1 en este momento es: xi =<xgi>, y la pendiente de la línea recta eski ^ro. Cuandoxgitxg2,la ecuación en línea recta 1 esyi = k ix i+bi.De manera similar, la ecuación de línea recta 2 de la línea de parada 42 es y<2>=k x+ b<2>, y la distancia desde las coordenadas de la posición hasta la línea recta es la siguiente. El sistema de coordenadas se establece en la imagen, como puede conocerse en función de la posición de montaje del dispositivo de cámara 1001, el eje x es de izquierda a derecha, y el ejeyes de inferior a superior, y a continuación la ecuación de distancia modificada desde el punto a la línea recta es:
A diferencia de las ecuaciones de distancia comúnmente utilizadas, el resultado obtenido por la ecuación anterior puede ser positivo o negativo. Al llevar las coordenadas (xo, yo) de la rueda delantera actual de la aeronave a las dos ecuaciones de línea recta, se pueden obtenerdydi.
Sid2> 0, se indica que la rueda delantera de la aeronave se extiende más allá de la línea de parada 41; si d<2>< 0, se indica que la rueda delantera de la aeronave no ha llegado a la línea de parada 41; y en este momento, si k<1>> 0 (incluido el caso de k i^ ro ) ,d,> 0 indica que la aeronave se desvía hacia la izquierda y d<1>< 0 indica que la aeronave se desvía hacia la derecha. Si k<1>< 0, d<1>< 0 indica que la aeronave se desvía hacia la izquierda, d<1>> 0 indica que la aeronave se desvía hacia la derecha. La desviación hacia la izquierda o la derecha se determina a partir del ángulo de visión del piloto. Además, para evitar que el algoritmo sea demasiado sensible y se llegue a una conclusión de "desviación de la línea de guía" en cualquier caso de d<1>t 0 , se puede introducir una condición de juicio | d<1>|>ancho/ 2, donde elanchoes un umbral que es igual al ancho de la rueda delantera de la aeronave. Cuando se cumple la condición de juicio, se puede determinar que la aeronave se desvía de la línea de guía.
La desviación se puede determinar de acuerdo con los parámetros que se muestran en la Tabla 1.
Tabla 1
El cálculo de la distancia real de la rueda delantera de la aeronave en la etapa S53 se utiliza para calcular la distancia real desde una aeronave hasta la línea de parada en tiempo real.
En primer lugar, se establece una correspondencia entre las coordenadas de la imagen y las coordenadas geodésicas. Una regla en la que se disponen rayas alternas en blanco y negro se coloca inmediatamente adyacente a la línea de guía en la escena, y a continuación, cuando se define la escena, según la regla, se dibujan puntos con un intervalo máximo de 1 metro para obtener puntos de marcado, y se registran las distancias desde cada uno de los puntos de marcado hasta el primer punto de marcado en la escena real.
Las coordenadas de los puntos de marcado establecidos por el ajuste de campo de S1 son coordenadas de imagen. Por ejemplo, hay 20 puntos que están separados entre sí por 1 metro, los puntos se indican como {poin tl, point 2,...,point 20}, y las coordenadas relativas de los puntos individuales con respecto a un punto final(punto 1)en la línea de parada se calculan como{relativepoint1,relativepoint2,...,relativepoint20}, las coordenadas delrelativepointlson (0,0), las distancias de los puntos individuales desde elrelativepointldel punto final son {dis1, dis2,...,dis20},y las distancias reales de los puntos individuales desde el punto finalpuntolson{0m, 1m,...,19m}.De esta manera, se obtiene la correspondencia entre {dis1,dis2,...,dis20} y {0m, 1m,..., 19m}.
Los puntos que están separados entre sí por el mismo intervalo en el suelo se manifiestan como una relación de curva cuadrática. Es decir, a medida que aumenta la distancia, los intervalos de dos puntos forman una progresión aritmética. Por lo tanto, el ajuste de curva cuadrática se realiza utilizando los puntos dibujados mediante un procedimiento de mínimos cuadrados para obtener una ecuación de línea de curvay=ax2+bx+c,donde x es una distancia en la imagene yes una distancia real. La Figura 9 es un gráfico que muestra ilustrativamente los puntos correspondientes de las distancias reales y las distancias de la imagen y una curva de ajuste. En esta figura, el eje horizontal representa las distancias reales en metros y el eje vertical representa las distancias de la imagen en píxeles.
La posición de la rueda delantera de la aeronave en la imagen se proyecta sobre la línea de guía a lo largo de una dirección de la línea de parada, una distancia euclidiana entre el punto de proyección y el punto de parada se calcula como x, x se introduce en la ecuacióny=ax2+bx+cpara obtener y, y por lo tanto se obtiene una distancia real (en metros) desde la rueda delantera de la aeronave hasta la línea de parada. De esta manera, se genera la información de guía de atraque correcta.
Antes de que la aeronave entre en la plataforma, el aeropuerto envía la información de tipo al sistema de guía de atraque e identificación de tipo de aeronaves basado en visión artificial. Después de realizar la etapa S3, la etapa S6 se puede realizar a continuación, que es una etapa de identificación y verificación de identidad de la aeronave. En esta etapa, la identificación del tipo se verifica mediante el análisis de imágenes. Es decir, las etapas S4 y S5 se pueden realizar simultáneamente con la etapa S6.
La Figura 10A es un diagrama de flujo que muestra de forma ilustrativa la identificación de la aeronave y la verificación de la identidad. La Figura 10B es un diagrama esquemático que muestra de forma ilustrativa una estructura de imagen en capas. Según una realización ejemplar, la detección de características de visión multinivel de aproximada a fina puede usarse para detectar el perfil de la aeronave. Las etapas detalladas pueden ser los siguientes.
Cuando i=0, la imagen original S0 tiene la resolución más alta. A medida queiaumenta, la resolución de la imagen disminuye. Cuando i=L, la imagen SL tiene la resolución más baja. El diagrama esquemático de la estructura de imagen en capas es como se muestra en la Figura 10B. En un entorno con un gran número de ruidos (por ejemplo, lluvia, nieve o niebla, noches y similares), se emplean imágenes en capas con una resolución relativamente baja. En caso de días soleados, se emplean imágenes en capas que tienen una resolución relativamente alta para obtener una precisión relativamente alta. Después de que el área de la aeronave se obtiene en una imagen de baja resolución y se asigna nuevamente a la imagen original S0, las áreas se dividen con bordes que tienen efectos de mosaico. La función de detección de visión de varios niveles de áspero a fino se utiliza en condiciones climáticas adversas, por ejemplo, lluvia, nieve o niebla o por la noche. En estas condiciones climáticas, los ruidos de las imágenes se vuelven grandes y los efectos de detección se pueden mejorar disminuyendo la resolución. A continuación, el área detectada se asigna de nuevo a la resolución más alta para realizar la identificación y verificación de los tipos de aeronaves. Este es un procedimiento para detectar características de la aeronave en condiciones climáticas adversas, y el sistema identifica automáticamente una resolución óptima según la calidad de imagen para extraer el perfil de la aeronave. La Etapa S6 puede incluir las siguientes etapas.
En la etapa S61, se realiza la verificación de parámetros.
En la etapa S62, se realiza la coincidencia de plantillas.
En la etapa S63, se realiza un juicio sintético.
La etapa S61 incluye además las siguientes etapas.
En la etapa S611, se extrae un parámetro del motor de la aeronave en las imágenes y se compara con un parámetro del motor de la aeronave de un tipo correspondiente que se almacena previamente en una base de datos del sistema. La extracción del parámetro del motor de la aeronave (en píxeles) se puede realizar utilizando las etapas descritos anteriormente (S341) a (S343).
Se calcula una relación de un radio de motor de aeronave en el parámetro de motor de aeronave extraído con respecto a los datos de radio de motor en una base de datos de parámetros de tipo de la aeronave que corresponde a la información de tipo recibida por el sistema, y esta relación se denomina primera relación.
En la etapa S612, se extrae un parámetro de ala de aeronave en las imágenes y se compara con un parámetro de ala de aeronave del tipo correspondiente que está prealmacenado en la base de datos.
La extracción del parámetro de alas de la aeronave puede incluir las siguientes etapas.
En la etapa S6121, los bordes de una imagen de aeronave se extraen utilizando un operador Canny. Ejemplos de bordes de una aeronave se muestran en la Figura 10C.
En la etapa S6122, se extraen los puntos de píxel en los bordes de la imagen de la aeronave. Los puntos de píxel se enumeran hacia arriba a lo largo de un eje medio del motor de la aeronave que está en un lado lejos del puente de la aeronave (el lado izquierdo en la Figura 10C). Para cada uno de los puntos de píxel, se dibujan líneas rectas con ángulos de pendiente de 0 a 20 grados, y se calcula el número de puntos de píxel de los bordes Canny por los que pasa cada línea recta.
En la etapa S6123, se determinan los bordes de las alas de la aeronave. Dos líneas rectas que pasan a través del mayor número de puntos de píxel de los bordes se toman como los bordes de las alas de la aeronave.
En la etapa S6124, se determinan las puntas de las alas. Los píxeles del borde en las áreas alrededor de las puntas de las alas se registran como características de la punta de las alas.
En la Figura 10D se muestran ejemplos del perfil de ala y el perfil de motor.
En la etapa S6125, se realiza la comparación de parámetros. Las longitudes de las alas de la aeronave se miden de acuerdo con las posiciones de las puntas de las alas, y se calcula una relación de las longitudes de las alas de la aeronave con respecto a los datos de longitud de las alas de la aeronave en la base de datos de parámetros de tipo del aeropuerto que corresponde a la información de tipo recibida por el sistema. La relación se denomina segunda relación.
En la etapa S613, se extrae un parámetro de la cabeza de la aeronave en las imágenes y se compara con un parámetro de cabeza de aeronave del tipo correspondiente que se almacena previamente en la base de datos.
En la etapa S6131, se determinan los límites de una cabeza de aeronave. Se determina una posición del eje medio de la aeronave de acuerdo con el parámetro del motor de la aeronave que se ha determinado en las etapas anteriores. Los puntos en el eje central se enumeran como el centro, y los círculos se dibujan enumerando radios que son de dos a cuatro veces la longitud del radio del motor de la aeronave, y el círculo que pasa a través del mayor número de puntos de píxel de los bordes Canny se toma como el límite de la cabeza de la aeronave.
En la etapa S6132, se determina una ventana de la cabeza de la aeronave.
La ventana de una aeronave generalmente se encuentra en la mitad superior de la cabeza de la aeronave y, por lo tanto, se utiliza un procedimiento de búsqueda de profundidad para encontrar un borde más largo de la mitad superior del límite de la cabeza de la aeronave que no está conectado al borde del límite de la cabeza de la aeronave como la posición en la que se encuentra la ventana de la cabeza de la aeronave.
En la etapa S6133, se realiza la comparación de parámetros. Se mide el radio de la cabeza de la aeronave y se calcula una relación del radio de la cabeza de la aeronave con respecto al radio de la cabeza de la aeronave en la base de datos de parámetros de tipo del aeropuerto que corresponde a la información de tipo recibida por el sistema. La relación se denomina tercera relación. El conjunto del radio medido de la cabeza de la aeronave es el píxel.
En la etapa S614, se extrae un parámetro de aleta de cola de la aeronave en las imágenes y se compara con el parámetro de aleta de cola de aeronave del tipo correspondiente que se almacena previamente en la base de datos. En la etapa S6141, usando un procedimiento de búsqueda de profundidad primero, se encuentra una porción sobresaliente a lo largo de un borde superior del límite de la cabeza de la aeronave como la aleta de cola de la aeronave.
En la etapa S6142, se realiza la comparación de parámetros. Se mide una altura (en píxeles) de la aleta de cola, y se calcula una relación de la altura de la aleta de cola al parámetro de aleta de cola en la base de datos de parámetros de tipo de la aeronave que corresponde a la información de tipo recibida por el sistema. La relación se denomina cuarta relación.
En la etapa S615, se identifican el máximo y el mínimo entre la primera relación, la segunda relación, la tercera relación y la cuarta relación, y se calcula una relación del mínimo al máximo como el parámetro de similitud de tipo, que se toma como un coeficiente 1.
La etapa de coincidencia de plantillas S62 puede incluir las siguientes etapas.
En la etapa S621, se realiza la coincidencia global de plantillas. Con una imagen completa capturada actualmente como imagen a buscar y una imagen de aeronave estándar en la base de datos del sistema como plantilla, se calcula un parámetro de similitud de plantilla global. El parámetro de similitud de plantilla global se toma como un coeficiente 2.
La Figura 10E muestra ilustrativamente la imagen S a buscar, una subimagenS'jy una plantillaT.Específicamente, el cálculo de coincidencia de plantilla global es el siguiente. La imagen S a buscar se denota como 6001 en esta figura, con un ancho y una altura deW*H.La subimagenSjde la imagen S a buscar se indica como 6002 en esta figura, con un ancho y una altura den*m.La subimagen está separada del borde izquierdo de la imagen por j píxeles, y está separada del borde inferior de la imagen por i píxeles. La plantillaTse denota como 6003 en esta figura, con un ancho y una altura den*m.Un parámetro de similitudR(i, j)entre la plantillaTy la subimagenSijes:
donde M es un valor máximo que se puede obtener en la dirección de la altura de la subimagen Sj , y N es el valor máximo que se puede obtener en el ancho de la subimagenSij.
Se encuentra un valor máximoRmax(imjm)deR (i,j)a partir de todos los resultados deR(i, j),y la subimagenSjcorrespondiente al valor máximo es la diana coincidente, yRmax(im,jm)es el parámetro de similitud de plantilla global de la subimagenSij.
En la etapa S622, se realiza la coincidencia de plantillas locales. Con imágenes del motor de la aeronave, el ala de la aeronave, la cabeza de la aeronave y la aleta de cola de la aeronave extraídas de acuerdo con las etapas S611 a S614 como imágenes a buscar, y un motor de la aeronave, un ala de la aeronave, una cabeza de la aeronave y una aleta de cola de la aeronave en la imagen estándar de la aeronave en la base de datos de parámetros de tipo del aeropuerto, que corresponden a la información de tipo a la información de tipo recibida por el sistema, como plantillas, se calculan cuatro similitudes sobre el motor de la aeronave, el ala de la aeronave, la cabeza de la aeronave y la aleta de cola de la aeronave utilizando la ecuación en la etapa S621. Después de eliminar el mínimo entre las cuatro similitudes, se calcula un valor promedio de las tres similitudes restantes como un parámetro de similitud de plantilla local. El parámetro de similitud de plantilla local se toma como un coeficiente 3.
El coeficiente 1, el coeficiente 2 y el coeficiente 3 pueden proporcionarse al módulo de fusión 3000 para fusionarse con los datos obtenidos por el subsistema de escaneo láser 2000. Por el contrario, el subsistema de visión artificial 1000 puede obtener independientemente la conclusión de la verificación de identificación, y en tal condición, se realiza adicionalmente la etapa S63.
En la etapa S63, se realiza un juicio sintético. Si al menos dos del coeficiente 1, el coeficiente 2 y el coeficiente 3 son mayores o iguales que un primer umbral de verificación (por ejemplo, 0,85), o si todos del coeficiente 1, el coeficiente 2 y el coeficiente 3 son mayores que un segundo umbral de verificación (por ejemplo, 0,7), se puede determinar que la aeronave capturada actualmente es consistente con la información de tipo que se obtiene por adelantado, y se pasa la verificación de identidad; de lo contrario, no se pasa la verificación.
A continuación, se describirán los detalles de funcionamiento del subsistema de escaneo láser 2000.
La Figura 11 es un diagrama esquemático que muestra de forma ilustrativa una estructura del subsistema de escaneo láser 2000. El subsistema de escaneo láser 2000 está dispuesto detrás de la línea de detención 42, directamente orientado hacia la cabeza de una aeronave que se aproxima en la línea de extensión de la línea de guía 41. Una aeronave se mueve hacia adelante a lo largo de la línea de guía 41.
Un punto de intersección de la línea de guía 41 y la línea de detención 42 se utiliza como punto cero. Una dirección perpendicular a la línea de guía 41 y paralela al suelo es una dirección del eje X, y la dirección positiva del eje X es la dirección hacia la izquierda con respecto a la dirección de atraque de la aeronave. Una dirección en paralelo con el suelo y la guía 41 es una dirección del eje Y, y la dirección positiva del eje Y es opuesta a la dirección de atraque de la aeronave. Una dirección perpendicular al suelo y la línea de guía es una dirección del eje Z, y la dirección positiva del eje Z es perpendicular al suelo y apunta hacia arriba.
Al igual que el subsistema de visión artificial 1000, el subsistema de escaneo láser 2000 necesita realizar la etapa de configuración de la escena de atraque de la aeronave, y el procedimiento detallado es el mismo que la etapa S1 descrito anteriormente, y aquí se omiten las descripciones repetidas.
El subsistema de escaneo láser 2000 incluye un dispositivo de telemetría láser 2001, un dispositivo de escaneo láser horizontal 2002, un dispositivo de escaneo láser vertical 2003, un dispositivo de control de escaneo 2004 y un conjunto de procedimiento de información 2005.
El dispositivo de telemetría láser 2001, el dispositivo de escaneo láser horizontal 2002, el dispositivo de escaneo láser vertical 2003 y el conjunto de procedimiento de información 2005 están conectados con el dispositivo de control de escaneo 2004, y el conjunto de procedimiento de información 2005 está conectado además con el dispositivo de visualización 4000.
El conjunto de procedimiento de información 2005, el dispositivo de procedimiento central 1002 y el conjunto de fusión de información de visión e información láser 3000 pueden estar dispuestos en el mismo dispositivo que tiene capacidad de procesamiento, o pueden ser independientes entre sí.
El dispositivo de telemetría láser 2001 emite láser y recibe el láser que llega a un obstáculo y a continuación es reflejado por el obstáculo, y mientras tanto mide una distancia entre un punto de emisión de láser y el obstáculo para obtener un valor de distancia. El dispositivo de escaneo láser emplea una estructura de galvanómetro doble (que incluye direcciones horizontales y verticales). Específicamente, el dispositivo de escaneo láser horizontal 2002 incluye un motor etapa a etapa de escaneo horizontal 2002.1 y un espejo de reflexión horizontal 2002.2, y el dispositivo de escaneo láser vertical 2003 incluye un motor etapa a etapa de escaneo vertical 2003.1 y un espejo de reflexión vertical 2003.2. Durante el procedimiento de escaneo, de acuerdo con un ángulo de rotación a del motor etapa a etapa de escaneo horizontal 2002.1, un ángulo de rotación p del motor etapa a etapa de escaneo vertical 2003.1 y los datos de telemetría láser 1 obtenidos por el dispositivo de telemetría láser 2001, se pueden obtener coordenadas polares de un determinado punto en el espacio.
El escaneo láser horizontal en la presente descripción se refiere a que el motor etapa a etapa de escaneo horizontal 2002.1 se gira un ángulo a para accionar el espejo de reflexión horizontal 2002.2 para que se gire un ángulo a, de modo que el dispositivo de telemetría láser 2001 pueda realizar la telemetría en la dirección horizontal. Bajo tal condición, el motor etapa a etapa de escaneo vertical 2003.1 no se gira y solo se gira el motor etapa a etapa de escaneo horizontal 2002.1, y mientras tanto el dispositivo de telemetría láser 2001 realiza continuamente la telemetría para obtener un conjunto de datos de telemetría en la dirección horizontal, y a continuación se termina un escaneo láser horizontal.
El escaneo láser vertical en la presente descripción se refiere a que el motor etapa a etapa de escaneo vertical 2003.1 se gira un ángulo p para accionar el espejo de reflexión vertical 2003.2 para que se gire un ángulo p, de modo que el dispositivo de telemetría láser 2001 pueda realizar la telemetría en la dirección vertical. En tal condición, el motor etapa a etapa de escaneo horizontal
2002.1 no se gira y solo se gira el motor etapa a etapa de escaneo vertical 2003.1, y mientras tanto el dispositivo de telemetría láser 2001 realiza continuamente la telemetría para obtener un conjunto de datos de telemetría en la dirección vertical, y a continuación se termina un escaneo láser vertical.
El dispositivo de telemetría láser 2001, el dispositivo de escaneo láser horizontal 2002 y el dispositivo de escaneo láser vertical 2003 constituyen un sistema de escaneo en el subsistema de escaneo láser 2000.
El dispositivo de control de escaneo 2004 acepta comandos del conjunto de procedimiento de información 2005 para configurar y enviar comandos de control al sistema de escaneo, y transmite los datos relacionados con el atraque de la aeronave que son muestreados por el sistema de escaneo al conjunto de procesamiento de información 2005. El conjunto de procedimiento de información 2005 procesa los datos y muestra de forma independiente la información procesada en el dispositivo de visualización 4000, de modo que los pilotos puedan ajustar la dirección de desplazamiento de una aeronave de acuerdo con la posición de la aeronave mostrada en el dispositivo de visualización 4000. O, el conjunto de procedimiento de información 2005 puede enviar los datos al conjunto de fusión de información de visión e información láser 3000, y los datos se pueden mostrar después de la fusión.
Con el fin de reflejar la información de posición de una aeronave que se va a acoplar en tiempo real, el sistema de escaneo y el conjunto de procedimiento de información 2005 son rápidos y precisos.
La Figura 12 es un diagrama de bloques que muestra ilustrativamente una estructura del sistema de escaneo. En correspondencia con la Figura 11, una carcasa 11 del sistema de escaneo aloja al menos el dispositivo de telemetría láser 2001, el dispositivo de escaneo láser horizontal 2002 y el dispositivo de escaneo láser vertical 2003. La carcasa 11 del sistema de escaneo está provista de una ventana de emisión de láser 12, a través de la cual se emite el láser del dispositivo de escaneo láser horizontal 2002 y el dispositivo de escaneo láser vertical 2003 para escanear un objeto a guiar. La ventana de emisión de láser 12 tiene una posición fija con respecto al dispositivo de escaneo láser horizontal 2002 y al dispositivo de escaneo láser vertical 2003.
Cuando el subsistema de escaneo láser 2000 se monta por primera vez, se debe realizar una etapa de calibración de punto cero de montaje del dispositivo para calibrar el punto cero del sistema de escaneo. Especialmente, es necesario determinar la posición de punto cero horizontal para la dirección de emisión de láser horizontal del dispositivo de escaneo láser horizontal 2002 y la posición de punto cero vertical para la dirección de emisión de láser vertical del dispositivo de escaneo láser vertical 2003.
Calibración horizontal del punto cero
Tanto el dispositivo de escaneo láser horizontal 2002 como el dispositivo de escaneo láser vertical 2003 están montados a una altura H del suelo. Cuando se calibra la posición horizontal del punto cero, el espejo de reflexión vertical 2003.2 mantiene el ángulo de escaneo vertical inicial p<0>sin cambios, y el motor etapa a etapa de escaneo horizontal 2002.1 acciona el espejo de reflexión horizontal 2002.2 para escanear horizontalmente un área de calibración frontal en el suelo con un ángulo de escaneo de a<0>. El área de calibración es una línea recta, por ejemplo, que generalmente está delante y debajo del dispositivo de escaneo láser horizontal 2002, por ejemplo, la línea de detención 42 como se muestra en la Figura 13. Durante el procedimiento de escaneo horizontal, el dispositivo de telemetría láser 2001 obtiene los valores de distancia de puntos individuales en el área de calibración en tiempo real. La Figura 14 es un diagrama esquemático que muestra ilustrativamente el principio de la calibración horizontal del punto cero.
A continuación, el conjunto de procedimiento de información 2005 divide igualmente el área de calibración en N regiones pequeñas, y realiza la medición de distancia en los puntos límite de cada una de las regiones pequeñas para obtener N+1 valores de distancia Dn, donde n=0, 1,..., N.
Se encuentra un valor mínimo Dmin entre los N+1 valores de distancia Dn. Con el punto límite correspondiente al valor mínimo Dmin como centro, se determina un área extendida Dexe. Por ejemplo, con el punto límite correspondiente al valor mínimo Dmin como centro, desplazando una longitud o grado preestablecido hacia la izquierda y hacia la derecha, se puede obtener el área extendida. El propósito de determinar el área extendida es determinar un intervalo aproximado donde podría existir el punto cero horizontal.
El área extendida se escanea de nuevo. En este momento, el área extendida se puede dividir más finamente con la resolución más alta, y la medición de distancia se puede realizar con respecto a los puntos límite divididos, y un punto correspondiente a un valor de distancia mínima se puede identificar como un punto cero horizontal.
Calibración vertical del punto cero
La calibración del punto cero vertical se puede realizar escaneando dos veces.
En primer lugar, el dispositivo de escaneo láser horizontal 2002 mantiene la estática en un ángulo fijo, y el dispositivo de escaneo láser vertical 2003 realiza la medición de distancia en un ángulo de escaneo vertical pi para obtener el primer valor de distancia Li+
A continuación, el dispositivo de escaneo láser horizontal 2002 aún mantiene la estática en el ángulo fijo, y el dispositivo de escaneo láser vertical 2003 realiza la medición de distancia nuevamente ajustando el ángulo de escaneo vertical hacia arriba en un ángulo X, es decir, en un ángulo de escaneo vertical p<2>, para obtener un segundo valor de distancia L<2>. Los ángulos pi y p<2>son todos ángulos del láser con respecto a la línea horizontal.
La Figura 15 es un diagrama esquemático que muestra ilustrativamente el principio de la calibración vertical del punto cero. En la Figura 5, el triángulo rectángulo con Li como hipotenusa y el triángulo rectángulo con L<2>como hipotenusa comparten el mismo lado, lo que indica el valor de altura del sistema de escaneo desde el suelo horizontal.
Además, p<2>= pi-A, y de acuerdo con el Li y L<2>medidos y el A conocido, y además en vista de la ecuación Li*sen pi = L<2>*sen(pi-A), se puede calcular pi.
De esta manera, una línea recta donde se encuentra Li se toma como una hipotenusa, una línea de proyección de la hipotenusa en el suelo se toma como una pata, y un vértice de un triángulo rectángulo formado por la hipotenusa y la pata, un ángulo incluido entre el cual es pi, se toma como un punto cero vertical.
A continuación, se calibran los puntos cero horizontales y verticales y se finaliza la calibración del punto cero.
Lo descrito anteriormente es la calibración realizada cuando el subsistema de escaneo láser 2000 se monta por primera vez. Cada vez que se vuelve a encender el sistema de escaneo, se debe realizar una etapa de corrección cero.
Después de que el sistema se enciende de nuevo, tanto el motor etapa a etapa de escaneo horizontal 2002.i como el motor etapa a etapa de enlatado vertical 2003.i pueden generar oscilaciones (o vibraciones). Para minimizar el error causado por la oscilación y aumentar la precisión del sistema de guía, se debe seleccionar un objeto de referencia para recalibrar el punto cero para el escaneo láser.
Por ejemplo, el límite de la ventana de emisión de láser i2 puede seleccionarse como el objeto de referencia. Después de que finaliza la etapa de calibración del punto cero de montaje del dispositivo, el sistema de escaneo ajusta un ángulo de escaneo desde un punto cero calibrado etapa a etapa hasta que se encuentra un objeto de referencia preestablecido, y registra un ángulo de escaneo(ar,pr)en este momento como un ángulo de corrección.
Específicamente, el motor etapa a etapa de escaneo horizontal 2002.i y el motor etapa a etapa de escaneo vertical 2003.i comienzan desde el punto cero calibrado. Tomando como ejemplo una esquina predeterminada (por ejemplo, la esquina superior izquierda) de la ventana de emisión de láser i2, el espejo de reflexión vertical sube gradualmente desde el ángulo inicial, y se realiza un escaneo horizontal para cada ángulo de escaneo vertical, hasta que se obtiene un valor de distancia consistente con una longitud preestablecida en un cierto ángulo de escaneo vertical, y el ángulo de escaneo horizontal en ese momento corresponde a la posición donde está la esquina superior izquierda de la ventana de emisión de láser i2, es decir, la dirección del ángulo de escaneo horizontal es hacia la izquierda. El ángulo de escaneo vertical pr y el ángulo de escaneo horizontal ar se registran como el ángulo de corrección, y el ángulo de corrección se puede endurecer en una constante para el registro.
Cuando se reinicia el sistema de escaneo, el motor etapa a etapa de escaneo horizontal 2002.i y el motor etapa a etapa de escaneo vertical 2003.i escanean aleatoriamente hasta que se encuentra el objeto de referencia preestablecido. A continuación, los ángulos de escaneo se ajustan hacia atrás por el ángulo de corrección para encontrar el punto cero calibrado, de modo que el procedimiento posterior de captura, seguimiento y guía pueda tener una mayor precisión.
Después de los procedimientos de calibración y corrección mencionados anteriormente, el subsistema de escaneo láser 2000 comienza a realizar una etapa de captura. El procedimiento de guía de atraque de aeronaves realizado por el subsistema de escaneo láser 2000 en la presente descripción puede incluir generalmente tres etapas: una etapa de captura, una etapa de guía y una etapa de seguimiento (también con referencia a la Figura 3).
En la etapa de captura, el escaneo láser se realiza para escanear horizontalmente una posición donde se espera que aparezca una cabeza de aeronave de una aeronave, se obtienen fragmentos de datos de eco basados en el escaneo láser y, de acuerdo con una condición de juicio, si la aeronave aparece se determina en función de los datos de eco.
2 i
En la etapa de guiado, después de que aparece la aeronave, se realiza el escaneo láser para escanear horizontalmente la cabeza de la aeronave, se obtienen datos de eco basados en el escaneo láser, y se determina una posición de una nariz de la aeronave de la aeronave de acuerdo con los datos de eco.
En la etapa de seguimiento, mientras la aeronave se está moviendo, la posición de la nariz de la aeronave se rastrea ajustando un ángulo de escaneo vertical del escaneo láser.
Específicamente, en la etapa de captura, con referencia a la Figura 16, para una posición de estacionamiento particular, el tipo de aeronave o una aeronave particular que puede acoplarse en la posición se designa de antemano y, a continuación, la altura de la nariz de la aeronavehde una aeronave que debe acoplarse puede conocerse de antemano. La altura de montaje del sistema 2000 esH(es decir, el sistema 2000 está montado a una altura de H), y una distancia desde el sistema 2000 hasta el borde más alejado del área de captura es s de acuerdo con la definición de la escena.
En la etapa de captura, el sistema de escaneo escanea horizontalmente una posición donde se espera que aparezca una cabeza de aeronave de una aeronave, obtiene datos de eco basados en el escaneo láser y, de acuerdo con una condición de juicio, determina si la aeronave aparece en función de los datos de eco.
Específicamente, se espera que la cabeza de una aeronave que llega aparezca en el borde más alejadosdel área de captura a una alturah(es decir, la altura de la nariz de la aeronave). El ángulo de escaneo inicial p (un ángulo incluido con respecto a la línea horizontal) del dispositivo de escaneo láser vertical 2003 en el sistema 2000 puede ser:
La Figura 17 es un diagrama de flujo que muestra ilustrativamente la etapa de captura en la presente descripción.
En la etapa S 101, el sistema de escaneo escanea horizontalmente una posición donde se espera que aparezca una cabeza de aeronave de una aeronave y obtiene datos de eco.
El sistema de escaneo obtiene continuamente datos sobre la misma fila, especialmente los valores de distancia de la misma fila. Antes de que aparezca una aeronave, los datos obtenidos por el sistema de escaneo pueden ser datos devueltos incorrectos que pueden exceder la distancia más lejana o pueden ser resultados mucho mayores que la distancia del borde. Cuando aparece una aeronave, los datosdis_predictque se espera que obtenga el sistema de escaneo son:
En la etapa S 102, se analizan los datos de eco.
Los puntos en los datos de eco que están dentro de un cierto intervalo dedis_predictpueden considerarse como puntos de interés. Por ejemplo, los puntos dentro del intervalo dedis_ predict 5mpueden considerarse como puntos de interés.
Se calcula el número totalCountTotalde los puntos de interés en los datos con respecto a una fila obtenida después de un escaneo horizontal.
Los datos con respecto a la fila pueden incluir puntos de interés y puntos que no son de interés. Se encuentran puntos de interés continuos en esta fila, y se puede encontrar una pluralidad de cadenas de puntos de interés. A partir de la pluralidad de cadenas de puntos de interés, se identifica una cadena que tiene los datos mínimos Lmin. El punto correspondiente a los datos mínimos puede considerarse como el punto de la nariz esperada de la aeronave. El número total de puntos en la cadena que tiene los datos mínimos Lmin esCountMin.
En la etapa S 103,sedetermina siCountMin/CountTotales mayor que un umbral. SiCountMin/CountTotales mayor que un umbral, se realiza la etapa S104. SiCountMin/CountTotalno es mayor que un umbral, se realiza la etapa S101.
El umbral puede ser 0,5, por ejemplo, pero la presente descripción no se limita a esto.
En la etapa S104, se calcula el ancho de una aeronave en función del número total de datos de eco, y se determina si el ancho de la aeronave no es menor que un umbral de ancho. Si el ancho de la aeronave no es menor que un umbral de ancho, se realiza la etapa S105. Si el ancho de la aeronave es menor que un umbral de ancho, se realiza la etapa S101.
Cada posición de estacionamiento se asigna con un tipo particular de aeronave de antemano, se conocen los parámetros de las aeronaves de este tipo. Bajo tal condición, se puede hacer una determinación adicional de acuerdo con el ancho de la aeronave que se está atracando realmente para identificar si la aeronave que se está atracando actualmente cumple con los requisitos de parámetros del tipo predefinido, y a continuación se puede determinar si la aeronave que se está atracando actualmente es el tipo particular de aeronave asignada por adelantado.
El ancho de la aeronavewidth_calde la aeronave actualmente atracada se calcula:
donde R es un parámetro de tipo, debido a que el tipo se puede conocer de antemano, se conoce el parámetro de tipo. Dependiendo de los tipos particulares, el parámetro de tipo puede establecerse en 0,1125°, por ejemplo.
Se determina si el ancho de la aeronave cumple con width_cal >width*0.7,dondewidthes el ancho de la aeronave del tipo particular de aeronave. Si el ancho de la aeronave cumple con la condición anterior, se realiza la etapa S105. Si el ancho de la aeronave no cumple con la condición anterior, se realiza la etapa S 101 para realizar un escaneo adicional.
En la etapa S 105, se calcula una altura de la aeronave z y se determina si la altura de la aeronave calculada está dentro de un intervalo predeterminado. Si la altura de la aeronave calculada está dentro de un intervalo predeterminado, se realiza la etapa S 106. Si la altura calculada de la aeronave no está dentro de un intervalo predeterminado, se realiza la etapa S 101.
Al igual que con la etapa S 104, los datos de altura de la aeronave que está atracada se determinan adicionalmente en esta etapa para identificar con precisión si la aeronave que está atracada actualmente cumple con los requisitos de parámetros del tipo predefinido de aeronave, y a continuación se puede determinar si la aeronave que está atracada actualmente es el tipo particular de aeronave asignada por adelantado.
La altura de la aeronave z es la altura de la nariz de la aeronave. Cuando se realiza el escaneo láser en la etapa S 101 por primera vez, el punto correspondiente a Lmin en los datos de eco obtenidos puede considerarse como el punto de la nariz de la aeronave esperado:
Se determina si la altura de la aeronave cumple conh-0,5m < z < h+ 0,5m, dondehes la altura de la nariz de la aeronave del tipo particular de aeronave que se conoce.
Si la altura de la aeronave cumple con la condición anterior, se puede determinar que la aeronave que se está acoplando actualmente es el tipo particular de aeronave, y a continuación se realiza adicionalmente la etapa S106. Si la altura de la aeronave no cumple con la condición anterior, se realiza la etapa S101.
En la etapa S 106, se determina si la aeronave recorre una distancia particular. Si la aeronave no recorre una distancia particular, se realiza la etapa S101. Si la aeronave recorre una distancia particular, se calculan las coordenadas tridimensionales del punto de la nariz de la aeronave esperado de la aeronave capturada y a continuación se realizan la etapa de guiado y la etapa de seguimiento posteriores.
Por ejemplo, la distancia particular puede ser de 10 metros. En la presente descripción, desde el momento en que la aeronave entra en el área de captura, se realizan escaneos y determinaciones repetidas mientras la aeronave se desplaza 10 metros. Si la aeronave es consistente con el tipo de aeronave en particular y recorre más allá de 10 metros, se obtienen las tres coordenadas del punto de la nariz de la aeronave esperado de la aeronave. Después de que una aeronave recorre la distancia particular, la aeronave entra en el área de guía.
Las coordenadas tridimensionales del punto de la nariz esperado de la aeronave se pueden calcular de acuerdo con el punto correspondiente a Lmin en los datos de eco obtenidos por el sistema de escaneo, los ángulos de desviación p y a de los dispositivos de escaneo láser vertical y horizontal correspondientes a este punto:
Según otra realización, se puede incluir además otra etapa S1011 (es decir, una etapa de pre-procesamiento) entre las etapas S101 y S102.
En la etapa de pre-procesamiento, cuando se obtienen los datos de eco, se realiza un filtrado de mediana en los datos de eco y a continuación se determina si aparece la aeronave. La etapa de pre-procesamiento se puede realizar en cualquier momento cuando se reciben datos de eco, y después de que se procesan los datos de eco, se puede realizar una etapa posterior.
El propósito del pre-procesamiento de datos es garantizar la efectividad y el rendimiento en tiempo real de los datos. El pre-procesamiento incluye principalmente la eliminación de puntos de ruido aleatorios y la conversión coordinada de puntos de datos. Los puntos de ruido inconexos pueden eliminarse de los datos de eco bajo la premisa de que el grado de distorsión no influye en el juicio de la información de posición de la aeronave, para garantizar la uniformidad y fiabilidad de los puntos de datos de eco. Mientras tanto, bajo la condición de que se pueda garantizar la precisión, se pueden usar procedimientos de compactación de datos para reducir el tiempo de transmisión de datos en 1/3.
La fila de datos obtenida después de un escaneo en la etapa S101 se puede definir como un conjunto de puntos P(di d2,d3,—,dN),y una diferencia de datos directos se define como Ad = dj - dj - dj-i.
Para puntos adyacentes en una superficie curva continua, Ad es muy pequeño. Debido a la existencia de puntos de ruido, suponiendo que el valor del punto de ruido esdj,las dos diferencias Ad entre un punto de ruido y sus dos puntos vecinos dj-i y Aaj+i son relativamente grandes.
Suponiendo que la longitud de secuencia s = 5, es decir, los puntos de secuencia mediana(dj-2,dj-i, dj, dj i, dj 2) se seleccionan para realizar el filtrado, donde dj es el punto de ruido.
Con el fin de distinguir los puntos de ruido y los puntos en diferentes planos de escaneo, los datos deben reorganizarse.
Para dos puntos láser adyacentes cualesquiera (dj-2,dy-i,dy,dj+i,aj+2),si los valores dedjydj_1cumplen \dj-aj-i| > 1m, (dj_2,dj_1,dj,dj+1,dj+2)se disponen en orden ascendente para obtener una nueva secuencia (ds<-2>,ds-i,ds,ds+i,ds<+2>), ydjse modifica como el valor mediodsen la nueva secuencia (es decir,dj= ds). De esta manera, el punto de cambio bruscodjse puede filtrar y el puntodjse puede modificar como un valor que es adyacente al puntodj,y las posiciones y valores de otros puntos en la secuencia original se mantienen sin cambios.
Las etapas principales del filtrado mediano incluyen:
( i) comparar sucesivamente los valores de distancia entre puntos de datos adyacentes:
(2) determinar si cadaAdjes mayor que un umbral predeterminado (im ); si unAdjes mayor que el umbral, extraer un intervalo de vecindad (dj-<2>,dj-i,dj,dj+i,dj+<2>) dedj;
(3) reordenar la secuencia de datos extraída(dj-2,dj-i,dj,dj+i,dj+2)en un orden ascendente para obtener una nueva secuencia (ds-<2>,ds-i,ds,ds+i,ds+<2>), reemplazardjcon el punto medianods,y mantener sin cambios las posiciones y valores de otros puntos en la secuencia original.
Para garantizar la estabilidad del filtrado de la mediana, al comienzo de la iteración, los dos primeros valores se pueden establecer como iguales entre sí y se les puede asignar un valor de cero (do =di = 0) durante la etapa de inicialización para llegar a una iteración de filtrado de la mediana relativamente estable.
Después de la etapa S i06, se realiza la etapa de guía. La Figura i9 es un diagrama de flujo que muestra ilustrativamente la etapa de guía. La etapa de orientación puede incluir las siguientes etapas.
En la etapa S20i, después de que una aeronave entra en el área de guía, la posición esperada del punto de la nariz de la aeronave se escanea en un ángulo de escaneo vertical predeterminado para obtener datos de eco, los puntos diana que caen en la cabeza de la aeronave se extraen de los datos de eco, y los puntos diana se convierten de datos de coordenadas polares en datos espaciales tridimensionales.
Los puntos diana se pueden seleccionar en función de los mismos principios para seleccionar los puntos de interés que se mencionaron anteriormente.
En la etapa S202, un punto que tiene un valor mínimo en la dirección Y se identifica a partir de los puntos diana como un punto más cercano (Xd, Yd).
En la etapa S203, se realiza el ajuste de la curva para ajustar los puntos diana a una curva y se identifica un vértice de la curva.
Suponiendo que el conjunto de puntos diana que caen sobre la cabeza de la aeronave es S(pi, p2 ••• pfpj, donde i es el número de serie de cada uno de los puntos diana, eIes el número total de los puntos diana. La coordenada del eje X y la coordenada del eje Y de cada uno de los puntos dianaPise indican como(x, y).El ajuste polinómico de segundo orden se realiza para todos los puntos diana:
Según el procedimiento de mínimos cuadrados, se pueden obtener los valores de ao, ai y a<2>.
Después de obtener la ecuación de curva cuadrática, se puede identificar el vértice (Xo, Yo) de la curva, y las coordenadas del vértice se pueden indicar como (xm¡n,ym¡n),y este punto es el punto de la nariz de la aeronave, donde:
. La coincidencia de (xm¡n,ym¡n) con el conjunto S de puntos diana se lleva
a cabo para identificar un punto que tiene coordenadas del eje X y del eje Y que son las mismas que (xmin, y min), y las coordenadas tridimensionales(xn ,yn, zn) del punto se pueden formar usando (xm¡n,ym¡n) y la coordenada del eje Z del punto.
En la etapa S204, de acuerdo con una diferencia entre el valor de Xd del punto más cercano (Xd, Yd) y el valor de Xmin del vértice, se puede determinar uno del punto más cercano y el vértice como la posición de la nariz de la aeronave.
Por ejemplo,
Se puede determinar si A X es menor que un umbral preestablecido. Si A X no es menor que un umbral preestablecido, se puede tomar (Xo, Yo) como el punto de la aeronave. Si A X es menor que un umbral preestablecido, el punto más cercano (Xd, Yd) se puede tomar como el punto de la nariz de la aeronave. De esta manera, el punto de la nariz de la aeronave se puede ubicar con precisión. El umbral preestablecido puede ser, por ejemplo, de 50 centímetros.
Después de ubicar la nariz de la aeronave, debido a que la aeronave se mueve continuamente, el sistema de escaneo necesita actualizar la posición de la nariz de la aeronave en tiempo real para determinar la posición en tiempo real de la aeronave en cualquier momento. Por lo tanto, después de la etapa S204, la etapa de seguimiento se realiza adicionalmente. La Figura 20 es una vista aérea durante el seguimiento de una aeronave, y la Figura 21 es un diagrama de flujo que muestra de forma ilustrativa la etapa de seguimiento.
La etapa de seguimiento puede incluir las siguientes etapas.
En la etapa S301, la posición del punto de la nariz de la aeronave se escanea en un ángulo de escaneo vertical predeterminado p, y se registra una distancia vertical Yio desde el punto de la nariz de la aeronave hasta el eje x en este momento.
En la etapa S3o2, a medida que la aeronave avanza, se realiza un escaneo horizontal con el ángulo de escaneo vertical actual sin cambios.
En la etapa S3o3, el punto de la nariz de la aeronave actual se encuentra mediante un algoritmo de localización, se registra una distancia vertical Y<2>o desde el punto de la nariz de la aeronave hasta el eje x.
El algoritmo de localización puede ser el siguiente. Cuando se realiza el escaneo horizontal mientras se mantiene el ángulo de escaneo vertical p, la aeronave se desplaza hacia adelante y el valor de distancia mínima en los datos de eco recibidos actualmente disminuye gradualmente. La forma de la aeronave es fija y se conocen los datos sobre la forma de la aeronave, y a continuación de acuerdo con los datos de eco recibidos y los datos de forma conocidos del tipo particular de aeronave, la posición específica de la aeronave escaneada cuando el escaneo horizontal se realiza con el ángulo de escaneo vertical p sin cambios. Y, la posición del punto de la nariz de la aeronave actual se puede conocer mediante el cálculo de acuerdo con los datos de forma del tipo particular de aeronave.
En la etapa S3o4, se calcula una distancia de movimiento: Y3o = Yio - Y<2>o.
En la etapa S3o5, se determina si Y3o cumple con un requisito de umbral dado. Si Y3o cumple con un requisito de umbral dado, se realiza la etapa S3o6. Si Y3o no cumple con un requisito de umbral dado, se realiza la etapa S3o2.
Cuando Y<10>es igual o superior a 20 metros, el umbral se establece en 5 metros. Cuando Y<10>es inferior a 20 metros, el umbral se establece en 1 metro. Se determina si Y<30>es menor que el umbral.
En la etapa S306, se determina si la aeronave llega a la línea de parada. Si la aeronave ha llegado a la línea de parada, se realiza la etapa S307.
En la etapa S307, el escaneo vertical se realiza por una vez en el punto de la nariz de la aeronave actual para obtener el contorno de la aeronave, encontrar el vértice de la parábola del contorno de la aeronave y, por lo tanto, calcular una cantidad de variación p del ángulo de escaneo vertical. Al mismo tiempo, se calcula una cantidad de variación esperada p del ángulo de escaneo vertical de acuerdo con Y<20>, y se calculad=| p'- p"|. Sidcumple con un requisito de umbral de cantidad de variación, el ángulo de escaneo vertical se ajusta usando p'. Sidno cumple con el requisito de umbral de cantidad de variación, el ángulo de escaneo vertical se ajusta usando p", y se realiza la etapa S302.
La etapa del escaneo vertical es consistente con la etapa S203, en la que
En la etapa S308, el seguimiento continúa durante un periodo de tiempo predeterminado, y se determina si la aeronave se está moviendo.
En la etapa S309, si la aeronave se está moviendo, se puede emitir una advertencia y se realiza la etapa S306. Si la aeronave no se mueve, se puede detener el seguimiento.
En vista de lo anterior, las soluciones técnicas en la presente descripción pueden ajustar el ángulo de escaneo vertical en cualquier momento para encontrar la posición real del punto de la nariz de la aeronave en cualquier momento. Por lo tanto, se realiza el rastreo del punto de la nariz de la aeronave.
Además de las etapas anteriores, después de que una aeronave ingrese al área de identificación de tipo y verificación de identidad, las soluciones técnicas en la presente descripción pueden incluir además una etapa de identificación de tipo de aeronave. Si se encuentra en la etapa de identificación de la aeronave que la aeronave actual no es consistente con el tipo de aeronaves que deben atracarse en una puerta, no se cumplen las condiciones de verificación correspondientes y a continuación se puede emitir información de advertencia. La identificación de la aeronave puede incluir una o más de la verificación de la altura de la nariz de la aeronave, la verificación del ancho de la cabina de la aeronave, la verificación de un perfil de vista aérea de la cabeza, la verificación de un perfil de vista lateral de la cabeza y la verificación del motor de la aeronave
Dependiendo de los diferentes requisitos, las condiciones de verificación anteriores se pueden clasificar en diferentes niveles de la siguiente manera:
Nivel 1: verificar si la altura de la nariz de la aeronave y el ancho de la cabina de la aeronave son correctos; Nivel 2: verificar si la altura de la nariz de la aeronave, el ancho de la cabina de la aeronave y el perfil de la vista aérea de la cabeza de la aeronave son correctos;
Nivel 3: verificar si la altura de la nariz de la aeronave, el ancho de la cabina de la aeronave, el perfil de la vista aérea de la cabeza de la aeronave y el perfil de la vista lateral de la cabeza de la aeronave son correctos;
Nivel 4: verificar si la altura de la nariz de la aeronave, el ancho de la cabina de la aeronave, el perfil de la vista aérea de la cabeza de la aeronave, el perfil de la vista lateral de la cabeza de la aeronave son correctos y si el número de motores de la aeronave y la distancia entre los motores son correctos.
Un nivel de seguridad más alto requiere una condición más estricta para verificar si el tipo y la identidad de la aeronave son correctos y, en consecuencia, se necesita más tiempo. Por lo tanto, se puede seleccionar un nivel de verificación correspondiente según la longitud de las líneas de guía de las plataformas y el tipo de aeronave.
Además, cuando se escanean los motores, la posición de la nariz de la aeronave se puede calcular de acuerdo con las posiciones obtenidas y la relación entre las posiciones relativas de la nariz de la aeronave y los motores para ubicar la aeronave.
La verificación de la altura de la nariz de la aeronave se puede realizar como se describió anteriormente con respecto al etapa S105.
La verificación del ancho de la cabina de la aeronave se puede realizar como se describió anteriormente con respecto al etapa S104.
La verificación del perfil de vista aérea de la cabeza puede incluir: llevar una pluralidad de piezas de datos de eco tridimensional(x¡,y , zi)obtenidos mediante escaneo láser horizontal a una ecuación de perfil de vista aérea preestablecida de la cabeza de la aeronavey = f (x),donde la ecuación de perfil de vista aérea preestablecida de la cabeza de la aeronave corresponde a una sección transversal que pasa a través de la cabeza y la nariz de la aeronave y está en paralelo con el suelo, y la proyección del perfil de la sección transversal en el suelo es una línea curva;
calcular un error de punto de ajuste horizontalM identificar un error de ajuste horizontal máximo
y asumirADh = 0,3m, si Dh < ADh,determinar que se pasa la verificación del perfil de vista aérea
de la cabeza, dondeADhes un umbral para la verificación del perfil de vista aérea del cabezal, i es el número de serie de uno de los puntos diana individuales en los datos de eco, ynes el número de accesorios de la vista aérea ecuación de perfil, generalmente,nes igual a 7.
La verificación del perfil de vista lateral de la cabeza incluye: llevar una pluralidad de piezas de datos de eco tridimensional (xi, y i, zi) obtenidos mediante escaneo láser vertical a una ecuación de perfil de vista lateral preestablecida de la cabeza de la aeronave z = gm (y), donde la ecuación de perfil de vista lateral preestablecida de la cabeza de la aeronave corresponde a una sección transversal que pasa a través de la cabeza y la nariz de la aeronave y es perpendicular al suelo, y el perfil de sección transversal se proyecta en un plano yoz en el sistema de coordenadas y el ajuste de curva de orden superior se realiza con respecto al límite de la línea curva; calcular un error de punto de
D
ajuste vertical , identificar un error de ajuste vertical máximo y, suponiendoADy = Q3m, fDv < ADy,
, determinar que se pasa la verificación del perfil de vista lateral de la cabeza, donde ADv es un umbral para la verificación del perfil de vista lateral de la cabeza, i es el número de serie de uno de los puntos diana individuales en los datos de eco, y m es el número de ajustes de la vista lateral ecuación, generalmente, m es igual a 11.
La verificación del motor de la aeronave podrá ser la siguiente.
En la etapa S41, se calculan las posiciones de los motores de acuerdo con la posición de la nariz de la aeronave, y se realiza un escaneo láser para escanear horizontal y verticalmente las posiciones de los motores.
Debido a que se determina el tipo de aeronaves que deben atracar en una puerta, se determina la relación entre las posiciones relativas de la nariz de la aeronave y cada uno de los motores y, por lo tanto, las posiciones de cada motor se pueden calcular de acuerdo con la posición de la nariz de la aeronave.
Por ejemplo, si las diferencias de coordenadas entre la nariz de la aeronave y un centro del motor son (Axn, Ayn, Azn) son conocidas, y las coordenadas obtenidas de la nariz de la aeronave son (xn,yn,zn), las coordenadas de un centro
teórico del motor sonpean .Ajustando el ángulo de deflexión del espejo de reflexión vertical 32 que refleja el láser para hacer que el láser pueda escanear el centro teórico del motor, se realiza un escaneo horizontal.
En la etapa S42, los datos de eco obtenidos por el escaneo láser horizontal se convierten en coordenadas tridimensionales x-y-z, se encuentra un punto de coordenadas más cercano que está más cerca del centro teórico del motor, y se encuentran puntos contiguos al punto de coordenadas más cercano para obtener un conjunto de puntos, y una distancia entre un punto más a la izquierda y un punto más a la derecha en el conjunto de puntos se calcula como un ancho del motor y un punto medio entre el punto más a la izquierda y el punto más a la derecha se toma como una coordenada horizontal Xe9n de un centro del motor.
El término "contiguo" requiere que la distancia entre puntos adyacentes no exceda de 20 cm.
En la etapa S43, los datos de eco obtenidos por el escaneo láser vertical se convierten en coordenadas tridimensionales x-y-z, se encuentra un punto de coordenadas más cercano que está más cerca del centro teórico del motor, y se encuentran puntos contiguos al punto de coordenadas más cercano para obtener un conjunto de puntos, y una distancia entre un punto más alto y un punto más bajo en el conjunto de puntos se calcula como una altura del motor, y un punto medio entre el punto más alto y el punto más bajo se toma como una altura Ze9b del centro del motor desde el suelo.
En la etapa S44, si se puede encontrar un par de Xe9n y Ze9b, se puede determinar que se encuentra un motor. Al escanear diferentes motores una pluralidad de veces, se puede obtener el número ne9n de motores.
En la etapa S45, se determina si el número de los motores es consistente con un número preestablecido, y si el número de los motores no es consistente con el número preestablecido, se puede determinar que no se ha pasado la verificación del motor de la aeronave.
En la etapa S46, se determina si una diferencia entre la coordenada horizontal del centro del motor y un valor estándar excede un umbral o si una diferencia entre la altura del centro del motor desde el suelo y un valor estándar excede un umbral (por ejemplo, 30 cm), y si la diferencia entre la coordenada horizontal del centro del motor y un valor estándar excede el umbral o la diferencia entre la altura del centro del motor desde el suelo y un valor estándar excede el umbral, se puede determinar que no se pasa la verificación del motor de la aeronave.
En la etapa S47, si una diferencia entre el ancho del motor y un valor estándar excede un umbral, o si una diferencia entre la altura del motor y un valor estándar excede un umbral (por ejemplo, 20 cm), y si la diferencia entre el ancho del motor y un valor estándar excede el umbral, o la diferencia entre la altura del motor y un valor estándar excede el umbral, se puede determinar que no se pasa la verificación del motor de la aeronave.
La información de visión y el conjunto de fusión de información láser 3000 pueden fusionar la información de atraque obtenida por el subsistema de visión artificial 1000 y el subsistema de escaneo láser 2000. La fusión incluye principalmente una etapa de fusión de información de posición S3100 y una etapa de fusión de verificación de identidad S3200.
En la etapa S3100, la información de ubicación de la aeronave obtenida por el subsistema de visión artificial usando la etapa S5 y la posición de la aeronave obtenida por el subsistema de escaneo láser se fusionan en un nuevo conjunto de información.
La etapa S3100 puede incluir además las siguientes etapas.
En la etapa S3101, se calcula una diferencia entre las coordenadas de la posición de la rueda delantera obtenidas por el subsistema de escaneo láser 1000 y las coordenadas de la posición de la rueda delantera obtenidas por el subsistema de visión artificial 2000.
El subsistema de visión artificial 2000 puede obtener la posición de la rueda delantera utilizando las etapas S344 o S43.
El subsistema de escaneo láser 1000 obtiene la posición de la nariz de la aeronave mediante cálculo, y a continuación la posición de la rueda delantera puede conocerse de acuerdo con la posición de la nariz de la aeronave porque la distancia horizontal desde la nariz de la aeronave hasta la rueda delantera es un valor fijo conocido.
En la etapa S3102, según la diferencia y una regla de fusión, se puede obtener un resultado de fusión.
La regla de fusión podrá ser la siguiente.
Para un caso en el que la rueda delantera de la aeronave se desvía de la línea de guía, si una distancia entre las coordenadas x de posición de la rueda delantera de la aeronave obtenida por los dos subsistemas es menor o igual que un umbral. El umbral puede ser de 20 cm, por ejemplo. Si la distancia es menor o igual que el umbral, el grado de desviación de la rueda delantera de la aeronave se proporciona utilizando el resultado calculado por el subsistema de visión artificial; si la distancia no es menor o igual que el umbral, se realiza un filtrado suave en la posición de la rueda delantera obtenida por el subsistema de escaneo láser 2000 y la posición de la rueda delantera obtenida por el subsistema de visión artificial 1000 para proporcionar información de desviación que indica cómo la rueda delantera de la aeronave se desvía de la línea de guía.
Para un caso en el que haya una distancia restante desde la rueda delantera de la aeronave hasta la línea de parada: Si hay una fluctuación anormal en la posición de la rueda delantera obtenida por el subsistema de escaneo láser; si no hay tal fluctuación anormal, la posición de la rueda delantera obtenida por el subsistema de escaneo láser se utiliza como la distancia desde la rueda delantera de la aeronave hasta la línea de parada; si hay tal fluctuación anormal, se calcula un valor de diferencia promedio de N valores de diferencia anteriores (por ejemplo, docenas de valores de diferencia anteriores) entre las posiciones de la rueda delantera de la aeronave obtenidas por el subsistema de visión artificial y el subsistema de escaneo láser, y se calcula un total de una posición de la rueda delantera de la aeronave obtenida por el subsistema de visión artificial esta vez y el valor promedio como la distancia desde la rueda delantera de la aeronave hasta la línea de parada.
La fluctuación anormal puede incluir cambios horizontales grandes (por ejemplo, 20 cm), cambios anormales a lo largo de la dirección de la línea de guía (por ejemplo, la tasa de cambio es obviamente mayor que los cambios de posición anteriores, o el cambio se está moviendo hacia atrás), fallos de seguimiento durante el procedimiento de seguimiento, pérdida de aeronaves, etc.
En la etapa S3200, la información de verificación de identidad de la aeronave obtenida por el subsistema de visión artificial y el subsistema de escaneo láser se fusiona en un resultado de fusión.
La etapa S3200 incluye además las siguientes etapas.
En la etapa S3201, se establece un cuadro no vacío de discernimientoD = {0,h, h,H}utilizando un procedimiento de fusión basado en la teoría D-S, en el quehrepresenta que el tipo de aeronave es correcto,hrepresenta que el tipo de aeronave es incorrecto,H= {h, h} representa que el tipo de aeronave podría ser correcto o incorrecto y no se puede determinar temporalmente, y 0 representa un evento imposible.
En la etapa S3202, se establecen una función de masa del subsistema de visión artificial y una función de masa del subsistema de escaneo láser,
dondemi(•) representa la función de masa del subsistema de visión artificial, ym2(•) representa la función de masa del subsistema de escaneo láser, y se cumple la siguiente condición:
donde,
el coeficiente 1, el coeficiente 2 y el coeficiente 3 son valores conocidos que ya han sido obtenidos por el subsistema de visión artificial,
m2(h)y m<2>(h) cambian de acuerdo con una secuencia de determinación de prioridad preestablecida por el subsistema de escaneo láser. Cuando se pasa un cierto nivel de verificación de identidad y no se realiza un nivel más alto de verificación de identidad, m-i(h) aumenta a medida que aumenta el nivel que se ha pasado, y m-i(h) disminuye a medida que aumenta el nivel que se ha pasado. Cuando se pasa un cierto nivel de verificación de identidad y no se pasa un nivel más alto de verificación de identidad, m-i(h) disminuye a medida que aumenta el nivel que se ha pasado, y m-i(h) aumenta a medida que aumenta el nivel que se ha pasado. Los valores empíricos típicos pueden ser:
En la etapa S3203, se calcula una suma ortogonal de las funciones de masa:
donde
si:
donde<£1>y<£2>son umbrales preestablecidos, por ejemplo,<£1>= 0,3 y<£2>= 0,2, h es el resultado del juicio. A continuación, se genera un resultado de fusión que indica que el tipo de aeronave es correcto y se pasa la verificación de identidad.
Si:
m(h) -m(h) > ex
<m(H)< e2
-m í'h) >m(7/ ), se genera un resultado de fusiónhque indica que el tipo de aeronave es incorrecto y no se pasa la verificación de identidad.
A continuación, se puede realizar la etapa de visualización de información para enviar el resultado de la fusión al dispositivo de visualización 4000 para su visualización.
El dispositivo de visualización 4000 puede ser una pantalla de visualización grande que se monta en un aeropuerto para que los pilotos la vean durante el procedimiento de atraque de la aeronave. Además, el dispositivo de visualización 4000 se puede usar para que el equipo del aeropuerto vea situaciones de aeronaves.
La Figura 22 es un diagrama esquemático que muestra de forma ilustrativa un ejemplo de una posible forma de visualización en el dispositivo de visualización 4000.
En esta Figura, 7000 representa un área en el dispositivo de visualización 4000 que se utiliza para mostrar información de orientación, 7002 representa una forma de "T" formada por la línea de orientación y la línea de parada, de modo que se pueden mostrar las posiciones relativas de las aeronaves con respecto a la línea de orientación y la línea de parada.
La presente descripción no impone limitaciones específicas en los detalles de visualización, sino que necesita mostrar posiciones específicas de las aeronaves, lo cual es importante en la guía de la aeronave, por ejemplo, información que indique si la aeronave se desvía hacia la izquierda o hacia la derecha (7001), la distancia 7003 restante a la línea de parada y también el tipo de aeronave 7004 que debe verificarse durante el procedimiento de identificación y verificación de la aeronave.
De esta manera, los pilotos pueden ver la trayectoria en movimiento de las aeronaves y, por lo tanto, se puede mejorar la seguridad para el atraque de las aeronaves.
En la presente divulgación, dos subsistemas obtienen información de atraque de forma independiente, y la información de atraque se fusiona para obtener resultados finales sobre la desviación de la rueda delantera y la verificación de identidad. Mientras se realiza la guía de atraque de la aeronave, se puede mejorar de manera efectiva la precisión en la determinación de la desviación de la rueda delantera y la verificación de identidad durante el procedimiento de atraque de la aeronave.
Además, los sistemas y procedimientos de guía de atraque de aeronaves e identificación de tipo tienen una capacidad de información inteligente efectiva, y pueden capturar, rastrear y localizar aeronaves de manera efectiva y verificar la identidad durante el procedimiento de atraque de aeronaves. Además, los procedimientos y sistemas tienen funciones de monitoreo visual que se pueden aplicar en plataformas inteligentes y pueden mejorar de manera efectiva los niveles de automatización, inteligencia y gestión de operaciones de los aeropuertos de aviación civil.

Claims (14)

  1. REIVINDICACIONES 1. Procedimiento de guía de atraque e identificación de tipo de aeronave, realizado por un sistema de guía de atraque e identificación de tipo de aeronave que comprende un subsistema de visión artificial, un subsistema de escaneo láser y un módulo de fusión, donde el procedimiento comprende: en la etapa 1000, obtener imágenes, mediante el subsistema de visión artificial, a través de la captura de imágenes y obtener una primera posición de una rueda delantera de una aeronave mediante el cálculo basado en las imágenes; en la etapa 2000, obtener una posición de una nariz de la aeronave de la aeronave, por el subsistema de escaneo láser, por medio de escaneo láser, y obtener una segunda posición de la rueda delantera de la aeronave por cálculo; y en la etapa 3000, realizar la fusión con respecto a la primera posición y la segunda posición de la rueda delantera de la aeronave de acuerdo con una regla de fusión para identificar la desviación de la rueda delantera de la aeronave; donde la regla de fusión comprende: para un caso en el que la rueda delantera de la aeronave se desvía de la línea de guía: determinar si una distancia entre las coordenadas x de la primera posición y la segunda posición de la rueda delantera de la aeronave es menor o igual que un umbral; si la distancia es menor o igual que el umbral, obtener el grado de desviación de la rueda delantera de la aeronave calculado por el subsistema de visión artificial; si la distancia es mayor que el umbral, realizar un filtrado suave en la primera posición y la segunda posición de la rueda delantera de la aeronave para proporcionar información de desviación que indique cómo la rueda delantera de la aeronave se desvía de la línea de guía; el grado de desviación de la rueda delantera de la aeronave calculado por el subsistema de visión artificial se determina de la siguiente manera: obtener coordenadas de la primera posición de la rueda delantera de acuerdo con un resultado de una etapa de seguimiento de la rueda delantera; donde se utiliza un procedimiento de detección de la rueda delantera en la etapa de seguimiento de la rueda delantera que incluye: en un área de búsqueda de la imagen, cuantificar 256 niveles de gris en 64 niveles de gris, buscando un primer pico y un primer valle en el histograma cuantificado de 64 niveles de gris, donde una mejor posición de pico BestPeak y una mejor posición de valleBestValleyen el histograma original de 256 niveles de gris se definen como: B B
    dondehist256(i)es el número total de píxeles que tienen un nivel de gris de i en el histograma de nivel de gris de 256; dividir los niveles de gris usando BestValley, y para las porciones que tienen un nivel de gris más pequeño que el BestValley, eliminar los puntos inconexos que tienen un área relativamente pequeña y realizar una operación de cierre en la imagen usando un elemento estructurante en forma de elipse plana; y para todos los gráficos, calcular las características de momento Hu de siete órdenes de los límites, comparar las características de momento Hu de siete órdenes con las características de momento de un modelo de rueda delantera estándar preestablecido, y si la similitud es menor que un umbral, determinar que un gráfico del medio es la rueda delantera; obtener información de posición relacionada sobre la línea de guía y una línea de parada basada en la definición de campo; y determinar el grado de desviación de la rueda delantera de la aeronave utilizando el conocimiento de la relación entre un punto medio y una línea recta en álgebra; para un caso en el que hay una distancia restante desde la rueda delantera de la aeronave hasta la línea de parada: determinar si hay una fluctuación anormal en la segunda posición de la rueda delantera de la aeronave; si no hay tal fluctuación anormal, obtener la segunda posición de la rueda delantera de la aeronave como la distancia restante desde la rueda delantera de la aeronave hasta la línea de parada; si hay tal fluctuación anormal, obtener un valor de diferencia promedio de N valores de diferencia anteriores entre las posiciones de la rueda delantera de la aeronave obtenidos por el subsistema de visión artificial y el subsistema de escaneo láser, y calcular un total de una posición de la rueda delantera de la aeronave obtenida por el subsistema de visión artificial esta vez y el valor de diferencia promedio como la distancia restante desde la rueda delantera de la aeronave hasta la línea de parada.
  2. 2. El procedimiento según la reivindicación 1, donde la etapa 1000 comprende además: en la etapa S1, realizar una etapa de configuración de la escena de atraque de la aeronave para dividir una escena de monitoreo en diferentes áreas funcionales del procedimiento de información; en la etapa S2, realizar una etapa de pre-procesamiento de imágenes para realizar el pre-procesamiento en las imágenes capturadas; en la etapa S3, realizar una etapa de captura de aeronave para reconocer los motores y la rueda delantera de la aeronave a partir de las imágenes para conformar que una aeronave aparece en las imágenes; en la etapa S4, realizar una etapa de seguimiento de la aeronave para rastrear continuamente las imágenes de los motores y la rueda delantera de la aeronave capturadas en la etapa S3 y actualizar las imágenes de los motores y la rueda delantera de la aeronave en tiempo real; en la etapa S5, realizar una etapa de localización de la aeronave para localizar la aeronave en tiempo real y determinar con precisión un grado de desviación de la aeronave con respecto a una línea de guía y qué tan lejos está la aeronave de una línea de parada; donde la etapa de pre-procesamiento de la imagen comprende además: en la etapa S21, determinar si las imágenes pertenecen a una imagen de iluminación baja, una imagen de iluminación alta o una imagen de iluminación normal según los niveles de gris promedio de las imágenes, realizar un procedimiento de imagen de iluminación baja en imágenes de iluminación baja y realizar un procedimiento de imagen de iluminación alta en imágenes de iluminación alta; en la etapa S22, determinar si cada una de las imágenes de iluminación normal es una imagen normal de acuerdo con una varianza de la imagen; y en la etapa S23, para imágenes que no son imágenes normales, determinar si cada una de las imágenes es una imagen de lluvia o nieve o una imagen de niebla, realizar una etapa de procedimiento de imagen de lluvia o nieve en la imagen de lluvia o nieve, y realizar una etapa de procedimiento de imagen de niebla en la imagen de niebla.
  3. 3. El procedimiento según la reivindicación 2, donde el procedimiento de imagen de baja iluminación comprende:
    dondef (x,y) representa una imagen original,(x, y)son coordenadas de puntos de píxel individuales en la imagen,g (x, y)representa la imagen procesada, y a esunparámetro de procedimiento de imagen de baja iluminación; y donde la etapa de procedimiento de imagen de lluvia o nieve comprende: encontrar píxeles a procesar que estén dañados por la lluvia o la nieve utilizando un modelo fotométrico; para los píxeles que se procesarán en una imagen actual, extraer los valores de brillo de los píxeles correspondientes en las imágenes anteriores y posteriores que son adyacentes a la imagen actual, determinar si los píxeles correspondientes en las imágenes anteriores y posteriores que son adyacentes a la imagen actual son píxeles que se procesarán de acuerdo con los valores de brillo; si los píxeles correspondientes en las imágenes anteriores y posteriores que son adyacentes a la imagen actual son píxeles a procesar, obtener un valor promedio de los valores de brillo de todos los píxeles que son adyacentes a los píxeles a procesar en la imagen actual y reemplazar los valores de brillo de los píxeles a procesar en la imagen actual con el valor promedio; y si los píxeles correspondientes en las imágenes anteriores y posteriores que son adyacentes a la imagen actual no son píxeles a procesar, reemplazar los valores de brillo de los píxeles a procesar en la imagen actual con un valor mínimo entre los valores de brillo de los píxeles correspondientes en las imágenes anteriores y posteriores que son adyacentes a la imagen actual o un valor promedio de dos valores mínimos entre los valores de brillo de los píxeles correspondientes en las imágenes anteriores y posteriores que son adyacentes a la imagen actual; y donde la etapa de procedimiento de imagen de niebla se realiza mediante filtrado homomórfico; donde la etapa de captura de aeronave comprende además: en la etapa S31, realizar una etapa de eliminación de fondo para simular una distribución dinámica de fondo del campo usando un modelo de fondo gaussiano úni fondo usando una diferencia entre las imágenes actuales y el modelo de fondo para obtener un área de primer plano; en la etapa S32, realizar una etapa de eliminación de sombras para calcular los niveles de grises del área de primer plano para identificar un nivel de grises máximogmax y un nivel de grises mínimogmin, y realizar una eliminación de sombras en un área que tiene un nivel de grises menor queT=gmin+ (g max-gmin) * 0.5; en la etapa S33, realizar una etapa de clasificación de área, establecer una plantilla de área de aeronave delantera estándar, extraer un área diana mediante detección de cambios, calcular una curva de proyección vertical del área, calcular un coeficiente de correlación entre la curva de proyección vertical y una curva de proyección vertical de la plantilla de área de aeronave delantera estándar, y si el coeficiente de correlación es mayor o igual que un umbral de clasificación, determinar que el área diana corresponde a una aeronave; y en la etapa S34, realizar una etapa de verificación de características para verificar adicionalmente si el área diana corresponde a la aeronave detectando los motores y la rueda delantera de la aeronave capturada; donde la etapa de verificación de características comprende además: en la etapa S341, realizar una etapa de extracción de área extremadamente negra para obtener un histograma estadístico de nivel de gris para el área diana de la imagen actual, identificar un nivel de gris máximo y un nivel de gris mínimo dentro de un intervalo de nivel de gris de 1 % ~ 99 %, y extraer la parte más negra de la imagen en función de un umbral de juicio extremadamente negro preestablecido, el nivel de gris máximo y el nivel de gris mínimo para obtener un área extremadamente negra; en la etapa S342, realizar una detección de cuasi-círculo para extraer todos los límites externos del área extremadamente negra, y para cada uno de los límites, calcular las coordenadas baricéntricas del límite utilizando el momento del límite, donde el momentoji-ésimodel límite se define como: ;donde las coordenadas baricéntricas y para todos los puntos de píxel en un límite actual, calcular las distancias entre el baricentro; si una relación entre una distancia máxima calculada y una distancia mínima calculada es mayor que un umbral de juicio de círculo, determinar que el área no es circular y proceder a realizar la determinación de un área siguiente; y si la relación no es mayor que el umbral de juicio de círculo, determinar que el área es cuasi-circular y registrar las coordenadas baricéntricas y el radio del área; en la etapa S343, detectar los motores de la aeronave en el área cuasi-circular mediante la determinación de similitud; y en la etapa S344, detectar la rueda delantera de la aeronave para obtener la primera posición de la aeronave.
  4. 4. El procedimiento según la reivindicación 3, donde en la etapa S343, para M áreas cuasi-circulares detectadas, una similitudSimilitudjentre un área cuasi-circulari-ésimay un área cuasi-circularj-ésimaes: ;donde laalturarepresenta una altura del baricentro, elradiorepresenta un radio, y cuando la similitudSimilitudjes menor que un umbral de similitud preestablecido, se determina que el área cuasi-circulari-ésimay el área cuasicircularj-ésimacorresponden a motores de las aeronaves; donde en la etapa (S343), si no se detecta ningún motor de aeronave, se realiza una detección iterativa para realizar las etapas (S341) a (S343) aumentando el umbral de juicio extremadamente negro, el umbral de juicio circular y el umbral de similitud; si todavía no se detecta ningún motor de aeronave, se aplica una plantilla circular de 7*7 en todas las áreas extremadamente negras para realizar una operación de apertura y a continuación se realizan las etapas (S342) a (S343); si todavía no se detecta un motor de aeronave, la detección iterativa se realiza dos veces; y si todavía no se detecta ningún motor de aeronave, se determina que no existe ningún motor en la imagen; donde el umbral de juicio extremadamente negro, el umbral de juicio circular y el umbral de similitud se incrementan en 0,05, 0,5 y 20, respectivamente; donde la etapa S344 comprende el procedimiento de detección de rueda delantera de la reivindicación 1; o, donde la etapa de seguimiento de la aeronave comprende además: en la etapa S41, después de obtener las posiciones de los motores en el último fotograma de imagen, realizar el seguimiento utilizando un algoritmo de llenado por inundación para determinar un área del motor en un fotograma actual; en la etapa S42, si un resultado de llenado en la etapa S41 no es válido, realizar una etapa de detección y seguimiento de entorno oscuro para realizar las etapas S341 y S342 usando parámetros para el último fotograma para detectar y rastrear el área del motor; en la etapa S43, después de obtener información con respecto al área del motor, detectar la rueda delantera de la aeronave usando la etapa S344 para obtener la primera posición de la rueda delantera de la aeronave; en la etapa S44, realizar una etapa de procedimiento de emergencia de la rueda delantera: cuando se detecta que una forma de la rueda delantera no es correcta o que una posición de la rueda delantera obviamente se desvía de la de los fotogramas de imágenes anteriores, de acuerdo con la información del último fotograma de imagen y el fotograma de imagen actual, estimar el desplazamiento de la rueda delantera en el fotograma actual en función del desplazamiento de los motores entre dos fotogramas de imágenes adyacentes para obtener un resultado de estimación como resultado de seguimiento de la rueda delantera; si no se puede detectar ninguna rueda delantera después de más de N fotogramas de imágenes, emitir información de error; en la que la etapa de localización de la aeronave comprende: en la etapa S51, realizar una etapa de calibración del dispositivo de cámara y corrección de imagen para determinar una correspondencia entre los parámetros ópticos de un dispositivo de cámara y un sistema de coordenadas geográficas; en la etapa S52, realizar una etapa de cálculo del grado de desviación de la rueda delantera de la aeronave; y en la etapa S53, realizar una etapa de cálculo de la distancia real de la rueda delantera de la aeronave.
  5. 5. El procedimiento según la reivindicación 4, donde la etapa S51 comprende además: en la etapa S511, leer N imágenes de calibración; en la etapa S512, encontrar puntos de esquina del tablero de ajedrez usando una función cvFindChessboardCorners () en OpenCV, llevando las N imágenes de calibración leídas a la función cvFindChessboardCorners (); si la búsqueda de todos los puntos de esquina es exitosa, devolver 1 por la función y obtener coordenadas de los puntos de esquina en un sistema de coordenadas de imagen; si la búsqueda de todos los puntos de esquina no es exitosa, devolver 0 por la función; y en la etapa S513, llevar las coordenadas de los puntos de esquina encontrados con éxito en una plantilla de calibración a una función cvCalibrateCamera2(), y devolver una matriz de parámetros, un coeficiente de distorsión, un vector de rotación y un vector de traslación del dispositivo de cámara.
  6. 6. El procedimiento según la reivindicación 4, donde la etapa S52 comprende además: de acuerdo con la primera posición (x<0>,ya)de la rueda delantera de la aeronave obtenida en la etapa S43, usar una relación entre las coordenadas de la posición y las líneas de guía y parada, obteniendo una ecuación de línea recta de la línea de guía como yi =ki xi+ bi y una ecuación de línea recta de la línea de parada como y<2>= fe X<2>+b2,donde una distancia desde las coordenadas de la posición a una línea recta es:
    y poner (xo, yo) en las dos ecuaciones de línea recta para obtenerdiy efe; donde si efe > 0, se indica que la rueda delantera de la aeronave corre más allá de la línea de parada; sid2 <0, se indica que la rueda delantera de la aeronave no ha llegado a la línea de parada; y en este momento, si ki > 0, di > 0 indica que la aeronave se desvía hacia la izquierda y di < 0 indica que la aeronave se desvía hacia la derecha; y si ki < 0, di < 0 indica que la aeronave se desvía hacia la izquierda, di > 0 indica que la aeronave se desvía hacia la derecha.
  7. 7. El procedimiento según la reivindicación 6, donde la etapa S52 comprende además: determinar si | di | >ancho/ 2, donde elanchoes un umbral igual a un ancho de la rueda delantera de la aeronave detectada; si | di | >ancho/ 2, determinar que la aeronave se desvía de la línea de guía.
  8. 8. El procedimiento según la reivindicación 4, donde la etapa S53 comprende además: establecer una correspondencia entre las coordenadas de la imagen y las coordenadas geodésicas; obtener coordenadas de imagen de puntos de calibración utilizados durante el ajuste de campo en la etapa S i, realizar un ajuste de curva cuadrática utilizando las coordenadas de imagen mediante un procedimiento de mínimos cuadrados para obtener una ecuación de línea de curvay = ax2 bx+c,donde x es una distancia en una imagen,yes una distancia real; proyectar la posición de la rueda delantera de la aeronave en la imagen sobre la línea de guía a lo largo de una dirección de la línea de parada, calcular una distancia euclidiana entre un punto de proyección y un punto de parada como x, y obtener una distancia real desde la rueda delantera de la aeronave hasta la línea de parada usandoy = a x2+bx+c.
  9. 9. El procedimiento según la reivindicación 2, donde el procedimiento comprende además la etapa S6 realizada después de la etapa S3, donde la etapa S6 es una etapa de identificación y verificación de identidad de aeronave que comprende: en la etapa S61, realizar la verificación de parámetros: extraer parámetros de aeronave en las imágenes y comparar los parámetros de aeronave con datos de tipo que se almacenan previamente en una base de datos para obtener un parámetro de similitud de tipo; en la etapa S62, realizar la coincidencia de plantillas: comparar las imágenes con plantillas de tipo que se almacenan previamente en la base de datos para obtener un parámetro de similitud de plantilla; y en la etapa S63, realizar un juicio sintético: cuando el parámetro de similitud de tipo y la similitud de plantilla son mayores o iguales que un umbral de verificación, determinar que se pasa la verificación de identidad.
  10. 10. El procedimiento según la reivindicación 9, donde la etapa S61 comprende además: en la etapa S611, extraer un parámetro de motor de aeronave en las imágenes y comparar el parámetro de motor de aeronave con un parámetro de motor de aeronave de un tipo correspondiente que se almacena previamente en la base de datos para obtener una primera relación; en la etapa S612, extraer un parámetro de ala de aeronave en las imágenes y comparar el parámetro de ala de aeronave con un parámetro de ala de aeronave del tipo correspondiente que se almacena previamente en la base de datos para obtener una segunda relación; en la etapa S613, extraer un parámetro de cabeza de aeronave en las imágenes, y comparar el parámetro de cabeza de aeronave con un parámetro de cabeza de aeronave del tipo correspondiente que se almacena previamente en la base de datos para obtener una tercera relación; en la etapa S614, extraer un parámetro de aleta de cola de aeronave en las imágenes, y comparar el parámetro de aleta de cola de aeronave con un parámetro de aleta de cola de aeronave del tipo correspondiente que se almacena previamente en la base de datos para obtener una cuarta relación; y en la etapa S615, identificar el máximo y el mínimo entre la primera relación, la segunda relación, la tercera relación y la cuarta relación, y calcular una relación del mínimo al máximo como el parámetro de similitud de tipo; donde la etapa S62 comprende además: en la etapa S621, realizar una coincidencia de plantilla global: con una imagen completa como imagen a buscar y una imagen de aeronave estándar como plantilla, calcular un parámetro de similitud de plantilla global; y en la etapa S622, realizar una coincidencia de plantilla local: con imágenes de un motor de aeronave, un ala de aeronave, una cabeza de aeronave y una aleta de cola de aeronave extraídas de acuerdo con las etapas S611 a S614 como imágenes a buscar, y un motor de aeronave, un ala de aeronave, una cabeza de aeronave y una aleta de cola de aeronave en la imagen de aeronave estándar como plantillas, calcular cuatro similitudes entre las imágenes a buscar y las plantillas, eliminar la mínima entre las cuatro similitudes y calcular un valor promedio de las tres similitudes restantes como un parámetro de similitud de plantilla local; donde la etapa S63 comprende además: si al menos dos del parámetro de similitud de tipo, el parámetro de similitud de plantilla global y el parámetro de similitud de plantilla local son mayores o iguales que un primer umbral de verificación, determinar que se pasa la verificación de identidad; o si todo el parámetro de similitud de tipo, el parámetro de similitud de plantilla global y el parámetro de similitud de plantilla local son mayores que un segundo umbral de verificación, determinar que se pasa la verificación de identidad.
  11. 11. El procedimiento según la reivindicación 1, donde la etapa 2000 comprende además: en una etapa de captura, realizar un escaneo láser para escanear horizontalmente una posición donde se espera que aparezca una cabeza de aeronave de una aeronave, obtener fragmentos de datos de eco en función del escaneo láser y, de acuerdo con una condición de evaluación, determinar si la aeronave aparece en función de los datos de eco; en una etapa de localización, después de que aparezca la aeronave, realizar el escaneo láser para escanear horizontalmente la cabeza de la aeronave, obtener los datos de eco en función del escaneo láser y determinar una posición de una nariz de la aeronave de la aeronave de acuerdo con los datos de eco; y en una etapa de seguimiento y guía, mientras la aeronave está viajando, rastrear la posición de la nariz de la aeronave ajustando un ángulo de escaneo vertical del escaneo láser.
  12. 12. El procedimiento según la reivindicación 11, donde antes de la etapa de captura, el procedimiento comprende además una etapa de calibración de punto cero que comprende una etapa de calibración de punto cero de montaje del dispositivo realizada cuando el sistema de escaneo láser se instala por primera vez, donde la etapa de calibración de punto cero de montaje del dispositivo comprende: una etapa de medición de punto cero horizontal que comprende: escanear horizontalmente, mediante el sistema de escaneo, un área de calibración en el suelo con un ángulo de escaneo vertical fijo, donde el área de calibración se divide igualmente en N regiones pequeñas; medir distancias desde un punto límite de cada una de las regiones pequeñas y encontrar un valor mínimo entre los valores de distancia obtenidos; determinar un área extendida con un punto límite correspondiente al valor mínimo como centro; e identificar un punto correspondiente a un valor de distancia mínima como un punto cero horizontal; y una etapa de medición vertical de punto cero que comprende: realizar la medición de distancia en un ángulo de escaneo vertical pi mediante el sistema de escaneo para obtener un primer valor de distancia Li, realizar la medición de distancia nuevamente ajustando el ángulo de escaneo vertical pi en un ángulo A para obtener un segundo valor de distancia L<2>, y calcular pi usando la siguiente ecuación:
    donde una línea recta donde se encuentra L1 se toma como una hipotenusa, una línea de proyección de la hipotenusa en el suelo se toma como una pata, y un vértice de un triángulo rectángulo formado por la hipotenusa y la pata, un ángulo incluido entre los cuales es pi, se toma como un punto cero vertical; y donde la etapa de calibración de punto cero comprende además una etapa de corrección de punto cero que comprende: después de que finaliza la etapa de calibración del punto cero de montaje del dispositivo, ajustar un ángulo de escaneo del sistema de escaneo desde un punto cero etapa a etapa hasta que se encuentra un objeto de referencia preestablecido, y registrar un ángulo de escaneo en este momento como un ángulo de corrección; y cuando se reinicia el sistema de escaneo, ajustar el ángulo de escaneo hacia atrás por el ángulo de corrección para encontrar el punto cero después de que el sistema de escaneo encuentre el objeto de referencia preestablecido; y donde la condición de juicio comprende además: A: determinar si una relación del número de puntos de interés, que son continuos y uno de los cuales corresponde a un valor de distancia mínima, al número total de los datos de eco es mayor que un umbral; B: calcular una anchura de aeronave en función del número total de los datos de eco, y determinar si la anchura de aeronave no es menor que un umbral de anchura; y C: calcular la altura de una aeronave y determinar si la altura de la aeronave calculada está dentro de un intervalo predeterminado; donde los valores de distancia de los puntos de interés están dentro de un intervalo especificado en dos lados de una longitud de predicción; o donde en la etapa de captura, cuando se obtienen los datos de eco, el filtrado de mediana se realiza en los datos de eco y a continuación se determina si la aeronave aparece; y, donde la etapa de localización comprende además: extraer de los datos de eco los puntos diana que caen sobre la cabeza de la aeronave y convertir los puntos diana de los datos de coordenadas polares en datos espaciales tridimensionales; identificar a partir de los puntos diana un punto que tiene un valor mínimo en la dirección Y como punto más cercano; realizar un ajuste de curva para ajustar los puntos diana a una curva e identificar un vértice de la curva; y determinar uno de los puntos más cercanos y el vértice como la posición de la nariz de la aeronave de acuerdo con una diferencia entre un valor X del punto más cercano y un valor X del vértice; y, donde la etapa de seguimiento y guía comprende además: escanear la posición de la nariz de la aeronave en un ángulo de escaneo vertical predeterminado mientras la aeronave está viajando; calcular un punto de la nariz de la aeronave actual según los datos de eco; y escanear verticalmente el punto de la nariz actual de la aeronave, y calcular una cantidad de variación del ángulo de escaneo vertical según un vértice de una parábola obtenida según el escaneo, y cambiar el ángulo de escaneo vertical según la cantidad de variación, o calcular la cantidad de variación del ángulo de escaneo vertical según el punto de la nariz actual de la aeronave y cambiar el ángulo de escaneo vertical según la cantidad de variación; y donde el procedimiento comprende además una etapa de identificación del tipo de aeronave; donde la etapa de identificación del tipo de aeronave comprende una o más de verificación de la altura de la nariz de la aeronave, verificación del ancho de la cabina de la aeronave, verificación de un perfil de vista aérea de la cabeza, verificación de un perfil de vista lateral de la cabeza y verificación del motor de la aeronave; la verificación de altura de la nariz de la aeronave comprende: si una diferencia entre la altura de la nariz de la aeronave y una altura de la nariz de la aeronave preestablecida está dentro de un intervalo preestablecido, determinar que se pasa la verificación de altura de la nariz de la aeronave; la verificación del ancho de la cabina de la aeronave comprende: encontrar dos puntos a partir de los datos de eco, cuya diferencia entre las coordenadas X es máxima, con una distancia en línea recta entre los dos puntos como ancho de la cabina de la aeronave, si el ancho de la cabina de la aeronave es mayor que un producto de un ancho teórico de la cabina de la aeronave y un coeficiente de ancho, determinar que se pasa la verificación del ancho de la cabina de la aeronave; la verificación del perfil de vista aérea de la cabeza comprende: llevar los datos de eco (x,,y, z)obtenidos mediante escaneo láser horizontal a una ecuación de perfil de vista aérea preestablecida y = f(x ), calcular un error de ajuste de error de punto horizontal
    identificar un error de ajuste vertical máximo y si Dh < ADh, determinar que sepasa la verificación del perfil de vista lateral de la cabeza, donde ADh es un umbral para la verificación del perfil de vista aérea de la cabeza,ies el número de serie de uno de los puntos diana individuales en los datos de eco, y n es el número de ajustes de la ecuación de perfil de vista aérea; la verificación del perfil de vista lateral de la cabeza comprende: llevar los datos de eco(xi, y¡, z)obtenidos mediante escaneo láser vertical a una ecuación de perfil de vista lateral preestablecida z
    =gm (y),calcular un error de punto de ajuste vertical identificar un error de ajuste vertical máximo y siDv <ADv,determinar que se pasa la verificación del perfil de vista lateral de la cabeza, dondeADves un umbral para la verificación del perfil de vista lateral de la cabeza,ies el número de serie de uno de los puntos diana individuales en los datos de eco, ymes el número de ajustes de la ecuación de perfil de vista lateral; la verificación del motor de la aeronave comprende: calcular las posiciones de los motores de acuerdo con la posición de la nariz de la aeronave, y realizar un escaneo láser para escanear horizontal y verticalmente las posiciones de los motores; convertir los datos de eco obtenidos por el escaneo horizontal en coordenadas tridimensionales x-y-z, encontrar un punto de coordenadas más cercano que esté más cerca de un centro de motor teórico, y encontrar puntos contiguos al punto de coordenadas más cercano para obtener un conjunto de puntos, y calcular una distancia entre un punto más a la izquierda y un punto más a la derecha en el conjunto de puntos como un ancho de motor y un punto medio entre el punto más a la izquierda y el punto más a la derecha como una coordenada horizontal de un centro de motor; convertir los datos de eco obtenidos por el escaneo vertical en coordenadas tridimensionales xy-z, encontrar un punto de coordenadas más cercano que esté más cerca del centro teórico del motor y encontrar puntos contiguos al punto de coordenadas más cercano para obtener un conjunto de puntos, y calcular una distancia entre un punto más alto y un punto más bajo en el conjunto de puntos como una altura del motor, y un punto medio entre el punto más alto y el punto más bajo como una altura del centro del motor desde el suelo; determinar si el número de motores es consistente con un número preestablecido, y si el número de motores no es consistente con el número preestablecido, determinar que no se pasa la verificación del motor de la aeronave; determinar si una diferencia entre la coordenada horizontal del centro del motor y un valor estándar excede un umbral o si una diferencia entre la altura del centro del motor desde el suelo y un valor estándar excede un umbral, y si la diferencia entre la coordenada horizontal del centro del motor y un valor estándar excede un umbral o la diferencia entre la altura del centro del motor desde el suelo y un valor estándar excede un umbral, determinar que no se pasa la verificación del motor de la aeronave; determinar si una diferencia entre el ancho del motor y un valor estándar excede un umbral, o si una diferencia entre la altura del motor y un valor estándar excede un umbral, y si la diferencia entre el ancho del motor y un valor estándar excede un umbral, o la diferencia entre la altura del motor y un valor estándar excede un umbral, determinar que no se pasa la verificación del motor de la aeronave.
  13. 13. El procedimiento según la reivindicación 1, donde la regla de fusión comprende además: establecer un marco no vacío de discernimiento D utilizando un procedimiento de fusión basado en la teoría D-S, en el quehrepresenta que el tipo de aeronave es correcto,hrepresenta que el tipo de aeronave es incorrecto, H=í,‘1- ,I]<j>'representa que el tipo de aeronave podría ser correcto o incorrecto y no se puede determinar temporalmente, y O representa un evento imposible; establecer una función de masami(•) del subsistema de visión artificial y una función de masam2(•) del subsistema de escaneo láser, y se cumple la siguiente condición:
    donde
    /772 (.h)y /772 ' ' cambian de acuerdo con una secuencia de determinación de prioridad preestablecida por el subsistema de escaneo láser; calcular una suma ortogonal de las funciones de masa:
    donde
    si:
    donde<£1>y£2son umbrales preestablecidos, generando un resultado de fusión que indica que el tipo de aeronave es correcto y se pasa la verificación de identidad; si:
    generando un resultado de fusión que indica que el tipo de aeronave es incorrecto y no se pasa la verificación de identidad.
  14. 14. Un dispositivo de guía de atraque e identificación de tipo de aeronave, que comprende: un subsistema de visión artificial (1000) configurado para obtener imágenes, a través de la captura de imágenes y obtener una primera posición de una rueda delantera de una aeronave mediante cálculo basado en las imágenes; un subsistema de escaneo láser (2000) configurado para obtener una posición de una nariz de aeronave de la aeronave por medio de escaneo láser, y obtener una segunda posición de la rueda delantera de la aeronave por cálculo; y un dispositivo de fusión (3000) configurado para realizar la fusión con respecto a la primera posición y la segunda posición de la rueda delantera de la aeronave de acuerdo con una regla de fusión para identificar la desviación de la rueda delantera de la aeronave; donde la regla de fusión comprende: para un caso en el que la rueda delantera de la aeronave se desvía de la línea de guía: determinar si una distancia entre las coordenadas x de la primera posición y la segunda posición de la rueda delantera de la aeronave es menor o igual que un umbral; si la distancia es menor o igual que el umbral, obtener el grado de desviación de la rueda delantera de la aeronave calculado por el subsistema de visión artificial; si la distancia es mayor que el umbral, realizar un filtrado suave en la primera posición y la segunda posición de la rueda delantera de la aeronave para proporcionar información de desviación que indique cómo la rueda delantera de la aeronave se desvía de la línea de guía; el grado de desviación de la rueda delantera de la aeronave calculado por el subsistema de visión artificial se determina de la siguiente manera: obtener coordenadas de la primera posición de la rueda delantera de acuerdo con un resultado de una etapa de seguimiento de la rueda delantera; donde se utiliza un procedimiento de detección de la rueda delantera en la etapa de seguimiento de la rueda delantera que incluye: en un área de búsqueda de la imagen, cuantificar 256 niveles de gris en 64 niveles de gris, buscando un primer pico y un primer valle en el histograma cuantificado de 64 niveles de gris, donde una mejor posición de pico BestPeak y una mejor posición de valleBestValleyen el histograma original de 256 niveles de gris se definen como:
    dondehist256(i)es el número total de píxeles que tienen un nivel de gris de i en el histograma de nivel de gris de 256; dividir los niveles de gris usando BestValley, y para las porciones que tienen un nivel de gris más pequeño que el BestValley, eliminar los puntos inconexos que tienen un área relativamente pequeña y realizar una operación de cierre en la imagen usando un elemento estructurante en forma de elipse plana; y para todos los gráficos, calcular las características de momento Hu de siete órdenes de los límites, comparar las características de momento Hu de siete órdenes con las características de momento de un modelo de rueda delantera estándar preestablecido, y si la similitud es menor que un umbral, determinar que un gráfico del medio es la rueda delantera; obtener información de posición relacionada sobre la línea de guía y una línea de parada basada en la definición de campo; y determinar el grado de desviación de la rueda delantera de la aeronave utilizando el conocimiento de la relación entre un punto medio y una línea recta en álgebra; para un caso en el que hay una distancia restante desde la rueda delantera de la aeronave hasta la línea de parada: determinar si hay una fluctuación anormal en la segunda posición de la rueda delantera de la aeronave; si no hay tal fluctuación anormal, obtener la segunda posición de la rueda delantera de la aeronave como la distancia restante desde la rueda delantera de la aeronave hasta la línea de parada; si hay tal fluctuación anormal, obtener un valor de diferencia promedio de N valores de diferencia anteriores entre las posiciones de la rueda delantera de la aeronave obtenidos por el subsistema de visión artificial y el subsistema de escaneo láser, y calcular un total de una posición de la rueda delantera de la aeronave obtenida por el subsistema de visión artificial esta vez y el valor de diferencia promedio como la distancia restante desde la rueda delantera de la aeronave hasta la línea de parada.
ES15827975T 2014-08-01 2015-07-02 Sistema y procedimiento para guía de atraque de aeronaves e identificación del tipo de aeronave Active ES2967980T3 (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201410377430.5A CN105302151B (zh) 2014-08-01 2014-08-01 一种飞机入坞引导和机型识别的系统及方法
PCT/CN2015/083205 WO2016015546A1 (zh) 2014-08-01 2015-07-02 一种飞机入坞引导和机型识别的系统及方法

Publications (1)

Publication Number Publication Date
ES2967980T3 true ES2967980T3 (es) 2024-05-06

Family

ID=55199531

Family Applications (1)

Application Number Title Priority Date Filing Date
ES15827975T Active ES2967980T3 (es) 2014-08-01 2015-07-02 Sistema y procedimiento para guía de atraque de aeronaves e identificación del tipo de aeronave

Country Status (5)

Country Link
US (1) US10255520B2 (es)
EP (1) EP3196863B1 (es)
CN (1) CN105302151B (es)
ES (1) ES2967980T3 (es)
WO (1) WO2016015546A1 (es)

Families Citing this family (76)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10127448B2 (en) * 2014-08-27 2018-11-13 Bae Systems Information And Electronic Systems Integration Inc. Method and system for dismount detection in low-resolution UAV imagery
PL3270104T3 (pl) * 2015-04-22 2019-12-31 Nippon Steel Corporation Urządzenie do pomiaru kształtu i sposób pomiaru kształtu
TWI604422B (zh) * 2016-03-23 2017-11-01 業群資訊股份有限公司 航空器導引過程的監控系統以及其監控方法
CN107277433B (zh) * 2016-04-06 2019-12-13 业群资讯股份有限公司 航空器导引过程的监控系统以及其监控方法
CN109478071A (zh) * 2016-05-05 2019-03-15 沃尔玛阿波罗有限责任公司 用于收集和处理图像数据的系统和方法
JP2019526477A (ja) * 2016-08-15 2019-09-19 シンガポール テクノロジーズ ダイナミックス ピーティーイー リミテッド 自動乗客搭乗橋ドッキングシステム
CN106128170A (zh) * 2016-08-24 2016-11-16 桂林信通科技有限公司 一种飞机泊位智能指示系统
CN107045677A (zh) * 2016-10-14 2017-08-15 北京石油化工学院 一种危化品仓库障碍物扫描定位还原方法、装置及系统
US10629072B2 (en) 2016-10-20 2020-04-21 Ford Global Technologies, Llc LIDAR and vision vehicle sensing
CN106530354B (zh) * 2016-10-31 2020-01-14 纵目科技(上海)股份有限公司 一种图像处理装置、图像校正、标定点查找方法及系统
IL267810B2 (en) * 2017-01-06 2025-07-01 Aurora Flight Sciences Corp Collision avoidance system and method for an unmanned aircraft
CN106976567A (zh) * 2017-01-11 2017-07-25 天津华德宝航翼光电科技有限公司 一种飞机停泊过程方向引导动态显示系统
RU2708346C1 (ru) * 2017-03-22 2019-12-05 Александр Иванович Стучилин Способ идентификации типа самолета средствами пассивной оптической локации и устройство для его осуществления
CN107220973A (zh) * 2017-06-29 2017-09-29 浙江中烟工业有限责任公司 基于Python+OpenCV的六边形中空滤棒快速检测方法
SG11201810922VA (en) * 2017-08-25 2019-03-28 Beijing Didi Infinity Technology & Development Co Ltd Methods and systems for detecting environmental information of a vehicle
DE102017215614A1 (de) 2017-09-05 2019-03-07 Osram Gmbh Stochastisch getaktete Bilderzeugung eines Lidar-System
AU2017443912A1 (en) 2017-12-19 2020-04-23 Nihon Onkyo Engineering Co., Ltd. Device for collecting aircraft flight history information
CN108132672A (zh) * 2017-12-20 2018-06-08 襄阳宏伟航空器有限责任公司 一种热气球飞行高度的自动控制方法
CN109961455B (zh) * 2017-12-22 2022-03-04 杭州萤石软件有限公司 一种目标检测方法及装置
US10752158B2 (en) * 2018-02-07 2020-08-25 Massachusetts Institute Of Technology Methods and apparatus for imaging through fog
CN108960236B (zh) * 2018-06-27 2021-08-27 浙江理工大学 基于二维码匹配与图像识别的指针式仪表识别方法
KR102545105B1 (ko) * 2018-10-10 2023-06-19 현대자동차주식회사 차량용 허위 타겟 판별 장치 및 그의 허위 타겟 판별 방법과 그를 포함하는 차량
CN109543533B (zh) * 2018-10-22 2023-05-09 捻果科技(深圳)有限公司 一种用于机场作业人员管理的自动识别方法
CN109711036B (zh) * 2018-12-24 2023-05-23 中国航空工业集团公司西安飞机设计研究所 飞行控制系统试验结果的评估方法
CN111368603B (zh) * 2018-12-26 2023-04-07 北京眼神智能科技有限公司 遥感图像的飞机分割方法、装置、可读存储介质及设备
EP3680689A1 (en) * 2019-01-11 2020-07-15 ADB Safegate Sweden AB Airport stand arrangement
CN109752730B (zh) * 2019-02-25 2024-02-27 佛山市奇创自动化设备有限公司 一种基于v槽检测的激光定位方法及系统
CN111637834B (zh) * 2019-03-01 2023-01-10 北京伟景智能科技有限公司 一种三维数据测量装置及方法
CN109887343B (zh) * 2019-04-04 2020-08-25 中国民航科学技术研究院 一种航班地服保障节点自动采集监测系统及方法
CN110097596B (zh) * 2019-04-30 2023-06-09 湖北大学 一种基于opencv的目标检测系统
CN110113510B (zh) * 2019-05-27 2021-02-26 杭州国翌科技有限公司 一种实时视频图像增强方法和高速相机系统
CN112034831B (zh) * 2019-06-04 2021-11-09 深圳中集天达空港设备有限公司 登机桥接靠飞机的方法及电子设备以及存储介质
CN110516739B (zh) * 2019-08-27 2022-12-27 创新先进技术有限公司 一种证件识别方法、装置及设备
CN110728668B (zh) * 2019-10-09 2022-06-28 中国科学院光电技术研究所 一种小目标形态保持的空域高通滤波器
CN110646212B (zh) * 2019-10-23 2022-01-25 成都飞机工业(集团)有限责任公司 一种飞机发动机标定的新方法
EP3813039A1 (en) * 2019-10-24 2021-04-28 thyssenkrupp Airport Solutions, S.A. Method of observing a ground traffic within an airport
CN111079663B (zh) * 2019-12-19 2022-01-11 深圳云天励飞技术股份有限公司 高空抛物的监测方法、装置、电子设备及存储介质
CN111522345B (zh) * 2020-04-30 2024-02-27 电子科技大学 一种登机桥对接舱门的轮位控制方法
US11538349B2 (en) 2020-08-03 2022-12-27 Honeywell International Inc. Multi-sensor data fusion-based aircraft detection, tracking, and docking
CN112164086B (zh) * 2020-10-12 2024-07-19 华雁智能科技(集团)股份有限公司 一种精细化的图像边缘信息确定方法、系统及电子设备
CN112381029B (zh) * 2020-11-24 2023-11-14 沈阳建筑大学 一种基于欧氏距离的机载LiDAR数据建筑物提取方法
CN112597892B (zh) * 2020-12-23 2022-09-23 重庆邮电大学 一种汽车座舱内遗留物检测系统及检测方法
CN113013781B (zh) * 2021-02-05 2022-04-01 安阳一都网络科技有限公司 基于图像处理的激光发射及动态校准装置、方法、设备和介质
CN113052190B (zh) * 2021-04-01 2022-05-31 威海职业学院(威海市技术学院) 一种基于图像处理的视觉辅助系统及方法
KR102567249B1 (ko) * 2021-04-21 2023-08-21 (주)안세기술 3차원 레이저 스캐너를 이용한 항공기 주기유도 시스템 및 이를 이용한 항공기 주기 제어방법
CN113204244B (zh) * 2021-04-23 2022-06-03 电子科技大学 一种基于定位导航的登机桥对接方法
US12372656B2 (en) * 2021-06-09 2025-07-29 Honeywell International Inc. Aircraft identification
CN113610133B (zh) * 2021-07-30 2024-05-28 上海德衡数据科技有限公司 一种激光数据和视觉数据融合方法及系统
CN113343957B (zh) * 2021-08-06 2021-12-21 深圳市信润富联数字科技有限公司 基于三维视觉的轮毂识别方法、装置、设备及存储介质
KR102347972B1 (ko) * 2021-08-18 2022-01-07 주식회사 아이지아이에스 파노라마 영상 제공시스템
CN113432558B (zh) * 2021-08-25 2021-11-26 山东捷瑞数字科技股份有限公司 一种基于激光的不规则物体表面积的测量装置及方法
CN114001658B (zh) * 2021-10-29 2022-08-30 合肥工业大学 一种冰箱发泡夹具腔内自动检测装置及其方法
EP4177864A1 (en) * 2021-11-09 2023-05-10 TK Airport Solutions, S.A. Visual docking guidance system
CN114067147B (zh) * 2021-11-12 2022-12-16 北京航空航天大学 一种基于局部形状匹配的舰船目标确认方法
CN114140497B (zh) * 2021-11-15 2024-12-06 中国科学院自动化研究所 目标车辆3d实时追踪方法及系统
CN114543664B (zh) * 2021-12-30 2024-05-07 中国航空工业集团公司沈阳飞机设计研究所 一种基于激光扫描的加油锥套定位方法及装置
US12020346B2 (en) * 2022-01-11 2024-06-25 Rtx Corporation Aircraft communication visualization
CN114594789B (zh) * 2022-03-03 2024-06-21 飞循智航(成都)科技有限公司 一种无人机回收引导方法、装置及电子设备
CN114674231B (zh) * 2022-03-28 2022-12-20 大连理工大学 一种基于单片机的便携式在线视觉位移测量系统
CN114674249B (zh) * 2022-03-28 2023-02-07 上海大学 一种筒体嵌套装配对中的视觉测量引导装置、方法及系统
CN114863332B (zh) * 2022-04-29 2024-08-27 华中科技大学 一种基于事件相机的雨滴检测方法
CN114821377B (zh) * 2022-04-29 2025-12-19 中国人民解放军空军工程大学航空机务士官学校 一种基于特征融合的高动态多目标无人机检测方法
CN114954997B (zh) * 2022-07-14 2022-12-13 成都飞机工业(集团)有限责任公司 一种舱门装配阶差的控制方法、装置、设备及介质
DE102022134637A1 (de) * 2022-12-22 2024-06-27 Rheinmetall Air Defence Ag Verfahren zur fernsteuerung einer fluggastbrücke
CN116758271B (zh) * 2023-05-09 2025-11-14 中国航空无线电电子研究所 飞行指引符号图像识别方法
CN116300971B (zh) * 2023-05-17 2023-09-01 中国民航大学 民航飞机的牵引滑行控制方法、装置、牵引车及存储介质
US20240420445A1 (en) * 2023-06-14 2024-12-19 Honeywell International Inc. Aircraft maintenance system and methods
CN116452840B (zh) * 2023-06-19 2023-08-18 济宁联威车轮制造有限公司 一种基于数控机床的汽车零部件组装位置视觉校对系统
CN117022662A (zh) * 2023-07-11 2023-11-10 北京华翼助航技术开发有限公司 一种大角度引导飞机停靠系统、方法及存储介质
CN117086500B (zh) * 2023-08-17 2024-06-25 深圳市大德激光技术有限公司 一种激光蚀刻设备电气控制系统
CN116804865B (zh) * 2023-08-28 2023-12-08 成都飞机工业(集团)有限责任公司 一种三轴自动化程编特征识别与刀轨生成方法
CN117152144B (zh) * 2023-10-30 2024-01-30 潍坊华潍新材料科技有限公司 基于图像处理的导辊监测方法及装置
CN117452956A (zh) * 2023-12-26 2024-01-26 天津瀚海蓝帆海洋科技有限公司 一种具有电子围栏应急系统的水下机器人
CN117830731B (zh) * 2024-01-02 2024-06-28 北京蓝耘科技股份有限公司 多维并行调度方法
CN118314359B (zh) * 2024-03-11 2025-05-13 广东国工智能科技有限公司 高速机械执行末端防抖动计算调控方法、系统及加工系统
CN117949917B (zh) * 2024-03-26 2024-05-28 中国民航大学 机坪杂波环境下鸟类目标的识别方法和存储介质

Family Cites Families (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2637694B1 (fr) * 1988-10-07 1991-10-18 Electr Et Entreprises Dispositif de detection de la position d'un mobile, notamment d'un aeronef, dans un plan
JP2667924B2 (ja) * 1990-05-25 1997-10-27 東芝テスコ 株式会社 航空機ドッキングガイダンス装置
US6324489B1 (en) * 1999-10-29 2001-11-27 Safegate International Ab Aircraft identification and docking guidance systems
DE4301637C2 (de) * 1993-01-22 1997-05-22 Daimler Benz Aerospace Ag Verfahren zum Andocken eines Flugzeuges an eine Fluggastbrücke eines Flughafengebäudes
ES2206373T3 (es) * 1994-10-14 2004-05-16 Safegate International Aktiebolag Sistema de identificacion de aeronaves.
US5675661A (en) * 1995-10-12 1997-10-07 Northrop Grumman Corporation Aircraft docking system
CN1103092C (zh) * 1996-02-29 2003-03-12 西门子公司 机场导引系统,尤其是机场地面交通导引系统
FR2763727B1 (fr) * 1997-05-20 1999-08-13 Sagem Procede et systeme de guidage d'un avion vers un poste d'accostage
US6353793B1 (en) * 1999-02-01 2002-03-05 Aero Modifications & Consulting, Llc System and apparatus for determining the center of gravity of an aircraft
US6564142B2 (en) * 1999-02-01 2003-05-13 Aero Modifications & Consulting, L.L.C. System and apparatus for determining the center of gravity of an aircraft
US6563432B1 (en) 2001-01-12 2003-05-13 Safegate International Ab Aircraft docking system and method with automatic checking of apron and detection of fog or snow
ES2206016B1 (es) * 2002-04-04 2005-07-16 Team Tecnologia Europea Aplicada Al Movimiento, S.L. Procedimiento y aparato para el control de la posicion de aeronaves en maniobras en tierra despues del aterrizaje.
US6928363B2 (en) * 2002-09-20 2005-08-09 The Boeing Company Autotiller control system for aircraft
JP4402400B2 (ja) 2003-08-28 2010-01-20 オリンパス株式会社 物体認識装置
CN1300750C (zh) 2005-03-07 2007-02-14 张积洪 飞机泊位机型自动识别与指示系统
US7702453B2 (en) * 2007-03-23 2010-04-20 Dew Engineering And Development Ulc System and method for guiding an aircraft to a stopping position
FR2924831B1 (fr) * 2007-12-11 2010-11-19 Airbus France Procede et dispositif de generation d'un ordre de vitesse de lacet pour un aeronef roulant au sol
CN101739694B (zh) * 2010-01-07 2011-10-05 北京智安邦科技有限公司 基于图像分析的高压输电线的超高检测的方法及装置
CN102252619A (zh) * 2011-04-21 2011-11-23 中国民航大学 飞机泊位过程中移动距离测量与显示系统
FR2982062B1 (fr) * 2011-10-27 2013-12-13 Airbus Operations Sas Procede et un dispositif d'aide a la garantie de la precision et de l'integrite d'une position d'un aeronef au sol.
US9280155B2 (en) * 2011-12-02 2016-03-08 Borealis Technical Limited Aircraft ground travel traction control system and method
CN102567093A (zh) * 2011-12-20 2012-07-11 广州粤嵌通信科技股份有限公司 一种应用于视觉泊位自动引导系统的泊位机型识别方法
WO2013141605A1 (ko) 2012-03-21 2013-09-26 (주)안세기술 항공기의 기종판별 및 주기유도를 위한 시스템 및 방법
CN103049788B (zh) * 2012-12-24 2015-11-18 南京航空航天大学 基于计算机视觉的待过行人数目的检测系统及方法
CN103177586A (zh) * 2013-03-05 2013-06-26 天津工业大学 一种基于机器视觉的城市交叉路口多车道车流量检测方法
CN103853893B (zh) * 2014-03-26 2016-10-26 中国民用航空总局第二研究所 一种从点云数据检测飞机姿态的参数模型匹配方法

Also Published As

Publication number Publication date
EP3196863A4 (en) 2018-03-21
US20170262732A1 (en) 2017-09-14
CN105302151B (zh) 2018-07-13
EP3196863B1 (en) 2023-12-06
EP3196863C0 (en) 2023-12-06
EP3196863A1 (en) 2017-07-26
WO2016015546A1 (zh) 2016-02-04
CN105302151A (zh) 2016-02-03
US10255520B2 (en) 2019-04-09

Similar Documents

Publication Publication Date Title
ES2967980T3 (es) Sistema y procedimiento para guía de atraque de aeronaves e identificación del tipo de aeronave
US10290219B2 (en) Machine vision-based method and system for aircraft docking guidance and aircraft type identification
EP3876189B1 (en) Geographic object detection apparatus, computer-implemented geographic object detection method, and geographic object detection program
US10562644B2 (en) System and method for aircraft docking guidance and aircraft type identification
RU2764708C1 (ru) Способы и системы для обработки данных лидарных датчиков
ES2704503T3 (es) Procedimiento de control de un sistema de vigilancia de tráfico
US9196160B2 (en) Vehicle detection apparatus and vehicle detection method
US12296622B2 (en) Systems and methods of determining tread depth
CN104005325A (zh) 基于深度和灰度图像的路面裂缝检测装置和方法
KR102316818B1 (ko) 도로 네트워크를 갱신하는 방법 및 장치
CN110415259A (zh) 一种基于激光反射强度的行道树点云识别方法
US10760907B2 (en) System and method for measuring a displacement of a mobile platform
CN110550067B (zh) 列车车轮的测量方法及相关系统
Ravi et al. Lane width estimation in work zones using LiDAR-based mobile mapping systems
US20160259034A1 (en) Position estimation device and position estimation method
CN117496467A (zh) 基于单目相机和3d lidar融合的异形车道线检测方法
ES2394902A1 (es) Sistema y procedimiento de medición del espesor de frotadores de pantógrafo.
López et al. Robust lane lines detection and quantitative assessment
US12517061B2 (en) Multi-angle vehicle defect measurement using surface-adaptive optical corrections
CN120088395B (zh) 一种基于双目视觉测量的轨道线形监测方法及设备
RU2807978C1 (ru) Способ визуальной локализации городского рельсового транспорта на основе фильтров частиц калмана и данных о картировании
McLoughlin et al. Mobile mapping for the automated analysis of road signage and delineation
RU2775822C1 (ru) Способы и системы для обработки данных лидарных датчиков
Miller et al. Time of Flight Camera Calibration and Obstacle Detection Application
CN117011271A (zh) 一种激光雷达点云物体检测方法及系统