ES2757592T3 - Navegación basada en al menos un sensor y un mapa 3D - Google Patents
Navegación basada en al menos un sensor y un mapa 3D Download PDFInfo
- Publication number
- ES2757592T3 ES2757592T3 ES15163511T ES15163511T ES2757592T3 ES 2757592 T3 ES2757592 T3 ES 2757592T3 ES 15163511 T ES15163511 T ES 15163511T ES 15163511 T ES15163511 T ES 15163511T ES 2757592 T3 ES2757592 T3 ES 2757592T3
- Authority
- ES
- Spain
- Prior art keywords
- air vehicle
- dimensional
- sensor
- images
- input data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/005—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 with correlation of navigation data from several sources, e.g. map or contour matching
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S19/00—Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
- G01S19/01—Satellite radio beacon positioning systems transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
- G01S19/13—Receivers
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/08—Control of attitude, i.e. control of roll, pitch, or yaw
- G05D1/0808—Control of attitude, i.e. control of roll, pitch, or yaw specially adapted for aircraft
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/207—Analysis of motion for motion estimation over a hierarchy of resolutions
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/32—Determination of transform parameters for the alignment of images, i.e. image registration using correlation-based methods
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/74—Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S19/00—Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
- G01S19/38—Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
- G01S19/39—Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
- G01S19/42—Determining position
- G01S19/48—Determining position by combining or switching between position solutions derived from the satellite radio beacon positioning system and position solutions derived from a further system
- G01S19/485—Determining position by combining or switching between position solutions derived from the satellite radio beacon positioning system and position solutions derived from a further system whereby the further system is an optical system or imaging system
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/08—Control of attitude, i.e. control of roll, pitch, or yaw
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10032—Satellite or aerial image; Remote sensing
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20016—Hierarchical, coarse-to-fine, multiscale or multiresolution image processing; Pyramid transform
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Automation & Control Theory (AREA)
- Computer Networks & Wireless Communication (AREA)
- Aviation & Aerospace Engineering (AREA)
- Navigation (AREA)
Abstract
Un procedimiento (100) de navegación de un vehículo aéreo, comprendiendo el procedimiento la provisión (110) de una imagen de sensor a partir de un sensor de vehículo aéreo y, de forma reiterada, hasta que al menos se alcance un criterio predeterminado (150), llevando a cabo las etapas siguientes: - el ajuste (120) de datos de entrada que comprenden informaciones relacionadas con el ángulo de cabeceo, el ángulo de balanceo, el ángulo de guiñada y la posición tridimensional del vehículo aéreo; - la provisión (130) de una imagen bidimensional a partir de una base de datos sobre la base de los datos de entrada, donde la base de datos comprende un mapa georreferenciado tridimensional del entorno o un modelo georreferenciado tridimensional del entorno, - la comparación (140) de la imagen de sensor y la imagen bidimensional a partir de la base de datos; y la utilización de los datos de entrada respecto de los cuales las dos imágenes se corresponden mejor entre sí para determinar (160) al menos una de las siguientes cantidades: ángulo de cabeceo, ángulo de balanceo, ángulo de guiñada y posición tridimensional del vehículo aéreo.
Description
DESCRIPCIÓN
Navegación basada en al menos un sensor y un mapa 3D
Campo técnico
La presente invención se refiere a un procedimiento y a un sistema de navegación de un vehículo aéreo. También se refiere a un programa de ordenador y a un producto de programa de ordenador para la navegación de un vehículo aéreo.
Técnica antecedente
La navegación de vehículos, especialmente de vehículos aéreos, se basa a menudo hoy en día en un sistema de navegación global por satélite (GNSS), como el GPS. Esto tiene la ventaja de que la posición del propio vehículo es bastante bien conocida dentro de una cierta imprecisión. Sin embargo, puede suceder que un vehículo tenga que desplazarse a través de un área en la que la señal del GNSS se excluya, por ejemplo durante una guerra o en conflictos, o debido a que alguna entidad por cualquier razón utilice transmisores de interferencia para perturbar las señales del GNSS. Así mismo, fallos técnicos podrían en principio provocar la interrupción de la señal del GNSS. Para poder navegar sin el GNSS algunos vehículos incorporan a bordo unas unidades de mediciones inerciales (IMU). Pueden ser utilizadas para mantener el seguimiento de la posición actual del vehículo utilizando un proceso denominado navegación por estima. Estos sistemas IMU, sin embargo, con el tiempo tienen la tendencia de que la posición calculada difiera cada vez más de la posición real. Esto se debe al hecho de que en la suma de los cálculos se introducen errores. Por tanto, cuanto mayor sea el tiempo durante el cual un vehículo navegue únicamente con una IMU, mayor será la incertidumbre acerca de la posición real efectiva de ese vehículo.
Para reducir la incertidumbre acerca de la posición real efectiva y para reducir la diferencia entre una posición efectiva calculada y la posición efectiva real se puede utilizar una IMU con mejores componentes. Esto, sin embargo, únicamente consigue reducir los errores y las diferencias, mientras que el error total y la incertidumbre total siguen aumentando a medida que el tiempo transcurre. Por otro lado, una IMU con mejores componentes generalmente incrementa sustancialmente el peso de la IMU. Especialmente en los vehículos aerotransportados, esto se traduce en la utilización del combustible que puede ser transportado por el vehículo en cuestión y porque, dependiendo del tamaño del vehículo aerotransportado, el alcance se puede reducir drásticamente. Se desprende de ello, por tanto, la necesidad de un procedimiento de navegación en las áreas de exclusión del GNSS el que los errores no aumenten con el tiempo.
El documento EP 2144038 A2 divulga una medición inercial que utiliza un sensor de formación de imágenes y un mapa digitalizado. El sistema determina la actitud y la posición de un vehículo en base a la extracción de al menos tres características obtenidas de los datos gráficos. Dependiendo del entorno, puede ser diferente o incluso imposible efectuar la extracción de al menos tres características. Siguen necesitándose sistemas GPS o similares para determinar una posición absoluta.
El documento AT 511 460 A4 divulga el principio de comparar imágenes a partir de una cámara de a bordo de una aeronave con unas imágenes de referencia ortonormalizadas almacenadas. El documento EP 1860456 A1 divulga el posicionamiento de aviones asistido por radar para aproximaciones y aterrizajes, mediante la comparación de las imágenes de radar con las características del terreno almacenadas y sus signaturas de radar. El documento EP 1 806 700 A1 divulga un procedimiento en el que se pueden detectar cambios de las imágenes, comparando las imágenes obtenidas por una cámara con imágenes almacenadas.
Sumario de la invención
Un objetivo de la presente divulgación es suministrar unos procedimientos, unos objetivos y unos vehículos aéreos de navegación que se propongan mitigar, aliviar o eliminar una o más de las deficiencias anteriormente identificadas de la técnica y los inconvenientes de manera individual o en cualquier combinación.
Esto se consigue mediante un procedimiento de navegación de un vehículo aéreo, de acuerdo con la reivindicación 1.
Una ventaja de dicho procedimiento es que no se basa en un GNSS. Así, este procedimiento de navegación está especialmente indicado en áreas de exclusión del GNSS. Así mismo, no se basa en la extracción de características, resultando especialmente utilizable en áreas en las que la extracción de características sería imposible o difícil de efectuar. El procedimiento presenta también la ventaja de obtener un mejor rendimiento que el de la navegación en base únicamente a una IMU dado que la etapa de comparación de imágenes se basa en una comparación absoluta debido al hecho de que las informaciones de la base de datos son georreferenciadas y no se basan en una comparación relativa respecto de valores anteriormente determinados como con relación a los procedimientos de navegación con solo las iMu .
En un ejemplo, la al menos una cantidad determinada comprende la posición tridimensional del vehículo aéreo.
Esta, a menudo, es la cantidad más interesante a los fines de la navegación. Así, este ejemplo será especialmente favorable para la mayoría de las tareas de navegación. Tiene además la ventaja de que un error o una incertidumbre acerca de la posición del vehículo no aumentan con el tiempo.
En un ejemplo, el procedimiento comprende además las etapas de la determinación de una posición tridimensional de un vehículo aéreo en base a un sistema de navegación global por satélite, GNSS, y la comparación de la posición tridimensional determinada del vehículo aéreo en base al GNSS con la posición tridimensional determinada del vehículo aéreo donde se han utilizado los datos de entrada respecto de los cuales han sido utilizados imágenes que mejor se correspondan entre sí, para determinar si el GNSS está suministrando datos fiables.
Llevando a cabo este conocimiento se obtiene si las informaciones del GNSS suministradas son fiables o no. Así, se suministra una herramienta para detectar un GNSS interferido y / o perturbado y / o suplantado. Así mismo, es posible detectar cuándo una interferencia, perturbación o suplantación del GNSS ha disminuido o desaparecido. En un ejemplo, la etapa de comparar la imagen de sensor y la imagen bidimensional a partir de la base de datos comprende calcular una medición de similitud entre las dos imágenes.
En un ejemplo, las dos imágenes que mejor se corresponden entre sí son las dos imágenes que ofrecen la medida de similitud calculada más elevada entre dos imágenes.
Una medida de similitud es generalmente una buena indicación de hasta qué punto las imágenes se corresponden satisfactoriamente entre sí, calculando de esta manera, una medida de similitud permite proporcionar una indicación acerca de hasta qué punto las informaciones relacionadas con los ángulos y la posición tridimensional del vehículo aéreo que están comprendidas en los datos de entrada, se corresponden fielmente con los ángulos reales y la posición tridimensional del vehículo aéreo.
En un ejemplo, el cálculo de una medida de similitud entre las dos imágenes comprende el cálculo de una correlación cruzada entre las dos imágenes, de modo preferente, una correlación transversal normalizada.
El cálculo de una correlación cruzada está especialmente indicado para determinar hasta qué punto las imágenes están próximas entre sí. Una correlación transversal normalizada (NCC) suministra una medida muy útil y sencilla de correspondencia, dado que una NCC de 1 se corresponde con una perfecta correspondencia, una NCC de 0 no se corresponde con ninguna correspondencia en absoluto y cuanto más alta sea la NCC entre 0 y 1 mejor será la correspondencia entre las imágenes.
En un ejemplo la etapa de suministrar una imagen bidimensional a partir de una base de datos en base a los datos de entrada comprende la provisión de la imagen bidimensional a partir de la base de datos de tal manera que se proyecte sobre el campo de visión del sensor del vehículo aéreo, donde se supone que el vehículo aéreo presenta su ángulo de cabeceo, ángulo de balanceo, y ángulo de guiñada y la posición tridimensional de acuerdo con los datos de entrada.
Este es un ejemplo preferente del procedimiento. Las informaciones georreferenciadas tridimensionales del entorno comprendido en la base de datos pueden generalmente ser utilizadas para ser convertidas en un mapa 3D o en un modelo 3D. La imagen bidimensional a partir de la base de datos será entonces suministradas como si una cámara en el lugar del sensor y con la misma orientación que el sensor tomara una imagen del modelo 3D o del mapa 3D. Así, la imagen de sensor y la imagen a partir de la base de datos ofrecerían las mismas transformaciones y / o la misma deformación de objetos sobre el suelo y del propio suelo en las imágenes. La obtención de las mismas transformaciones y / o deformaciones sobre las imágenes es una gran ventaja al comparar las imágenes, dado que los errores debidos a la transformación y / o deformación no deban ser tomados en cuenta o al menos necesitan ser tomados en cuenta en mucha menor medida.
En un ejemplo, el ajuste de los datos de entrada se actualiza en cada etapa de tal manera que se encuentre la mejor correspondencia entre dos imágenes.
La actualización orientada al objetivo de los datos de entrada reduce en gran medida el tiempo de circulación o, si el tiempo de circulación es fijo, proporciona una oportunidad mayor de encontrar una mejor correspondencia entre las imágenes y con ello unos mejores valores para la al menos una cantidad.
En un ejemplo, el valor de la correlación transversal normalizada para las dos imágenes que mejor se corresponden entre sí, se utiliza para calcular una incertidumbre de al menos una cantidad.
Esto proporciona un procedimiento sencillo para determinar una incertidumbre de la al menos una cantidad determinada.
En un ejemplo, el criterio predeterminado es que las etapas se repitan un número de veces predeterminado y / o que la mejor correspondencia entre dos imágenes que ha sido conseguida hasta ahora, converja.
Estos son criterios favorables, dado que el primero supone un tiempo máximo para un cálculo y el último que el cálculo se puede terminar si no se pueden conseguir mejoras significativas adicionales en la medida de similitud.
En un ejemplo, se utiliza una incertidumbre en las informaciones georreferencias tridimensionales del entorno para calcular una incertidumbre de la al menos una cantidad.
Esto permite obtener una medida de la fiabilidad del valor de la al menos una cantidad, lo que podría ser útil al calcular los riesgos de las decisiones especificas basadas en la al menos una cantidad determinada. Por ejemplo, cuando la incertidumbre de la al menos una cantidad determinada es tan grande que no se pueda asegurar que el vehículo aéreo no se estrellará cuando adopte una determinada ruta de navegación sería aconsejable tomar otra ruta menos arriesgada.
En un ejemplo, se suministran imágenes a partir de diferentes sensores del vehículo aéreo y el procedimiento se efectúa independientemente de la imagen de sensor de cada sensor del vehículo aéreo, tras lo cual la al menos una cantidad determinada es una combinación de la al menos una cantidad determinada para cada procedimiento independientemente desarrollado.
Esto permite una mejor determinación de la al menos una cantidad o la determinación de más de la al menos una cantidad, dado que se utilizan más imágenes de sensor. Así mismo, ello permite utilizar el procedimiento en más situaciones dado que una única imagen de sensor podría no suministrar resultados fiables bajo todas las condiciones, por ejemplo, periodo de día / de noche, cielo nublado / no nublado, etc.
En un ejemplo, la combinación de la al menos una cantidad determinada para cada procedimiento llevado a cabo de manera independiente se basa en la fiabilidad y / o la precisión de los sensores a partir de los cuales se suministraron las imágenes de sensor.
Esto asegura que las informaciones procedentes de sensores más fiables y / o más precisos contribuyeron más a la al menos una cantidad determinada que las informaciones procedentes de sensores menos fiables y / o menos precisos, incrementando con ello la fiabilidad y / o la precisión de la al menos una calidad determinada.
En un ejemplo, un ajuste inicial de los datos de entrada comprende las informaciones relacionadas con los valores reales supuestos para el vehículo aéreo, especialmente las informaciones relacionadas con los valores reales supuestos con respecto al ángulo de cabeceo, el ángulo de balanceo, el ángulo de guiñada y a la posición tridimensional del vehículo aéreo.
El hacer esto generalmente es un buen punto de inicio para determinar la al menos una cantidad, dado que es la mayor apuesta que se puede efectuar antes de llevar a cabo el procedimiento. Así, después de haber supuesto que los valores reales son el punto de partida, ello puede tanto reducir el tiempo del cálculo como permitir afirmar cuándo se ha encontrado un mejor valor / unos mejores valores que el (los) valor(es) supuesto(s) para la al menos una cantidad determinada.
En un ejemplo, los datos de entrada comprenden el ángulo de cabeceo, el ángulo de balanceo, el ángulo de guiñada y la posición tridimensional del vehículo aéreo, y la al menos una cantidad determinada es la correspondiente al menos una cantidad de los datos de entrada para los que se corresponden mejor entre sí las dos imágenes.
El objetivo se obtiene también mediante un sistema de navegación de un vehículo aéreo, de acuerdo con la reivindicación 9.
El sistema presenta la ventaja de que no se basa en un GNSS. Así, este sistema de navegación está especialmente indicado para áreas de exclusión del GNSS. Así mismo, no se basa en la extracción de características, resultando con ello especialmente de utilidad en áreas en las que la extracción de características sería difícil o imposible de efectuar. El sistema presenta además la ventaja de que puede utilizar un equipamiento, por ejemplo, unos sensores y / o una unidad de tratamiento, los cuales podrían ya estar dispuestos a bordo del vehículo aéreo. El sistema presenta también la ventaja de comportarse mejor que en el caso de la navegación basada únicamente en la IMU dado que la etapa de la comparación de imágenes se basa en una comparación absoluta, debido al hecho de que las informaciones en la base de datos son georreferenciadas, y no sobre la base de una comparación relativa con valores anteriormente determinados como en el caso de los procedimientos de navegación únicamente en base a las IMU.
En una forma de realización, el sistema comprende además una unidad de dirección del vehículo aéreo, estando la unidad de dirección dispuesta para recibir la dicha al menos una cantidad comunicada.
Esto está especialmente indicado para la navegación, dado que permite que el sistema esté integrado con el control del vehículo aéreo. El control puede ser tripulado, por ejemplo por un piloto o un operador, y / o mecanizado, como por ejemplo un piloto automático.
En una forma de realización, el sistema comprende además unos medios para determinar una posición tridimensional del vehículo aéreo en base a un sistema global de navegación por satélite, GNSS. La unidad de tratamiento está dispuesta para determinar al menos la posición tridimensional del vehículo aéreo en base a los datos de entrada para los que se obtuvo la mejor correspondencia entre una de las imágenes bidimensionales y la imagen de sensor. La unidad de tratamiento está también dispuesta para comparar la posición tridimensional del
vehículo aéreo en base al GNSS con dicha posición tridimensional determinada del vehículo aéreo en base a los datos de entrada para los que se obtuvo la mejor correspondencia entre una de las imágenes bidimensionales y la imagen de sensor. La unidad de tratamiento está también dispuesta para determinar si el GNSS está suministrando datos fiables en base a dicha comparación de las posiciones tridimensionales determinadas.
En esta forma de realización, se suministra el conocimiento acerca de si las informaciones del GNSS suministradas son fiables o no. Así, se suministra una herramienta para detectar un GNSS interferido y / o perturbado y / o suplantado. Así mismo, es posible detectar cuándo ha disminuido o desaparecido la interferencia, la perturbación o la suplantación del GNSS.
En una forma de realización, la al menos una cantidad determinada comprende la posición tridimensional del vehículo aéreo.
Una ventaja es que un erro o una incertidumbre acerca de la posición real del vehículo no se incrementan por tanto con el tiempo.
En una forma de realización, la unidad de tratamiento está dispuesta para efectuar de forma reiterada los procesos de ajuste de los datos de entrada, la provisión de una imagen bidimensional y la comparación de una imagen bidimensional con la imagen de sensor hasta que se alcance un criterio predeterminado.
Esto está especialmente indicado para un procedimiento de optimización de la al menos una cantidad determinada. En una forma de realización, el sistema comprende varios sensores del vehículo aéreo. Cada sensor suministra una imagen de sensor. La unidad de tratamiento está también dispuesta para efectuar, independientemente para cada imagen de sensor, dichos procesos de recepción de imágenes de sensor, reglar los datos de entrada, suministrar imágenes bidimensionales, comparar imágenes y determinar al menos una de las siguientes cantidades: ángulo de cabeceo, ángulo de balanceo, ángulo de guiñada y posición tridimensional del vehículo aéreo. La unidad de tratamiento está también dispuesta para determinar una al menos cantidad combinada sobre al menos una cantidad determinada correspondiente para cada imagen de sensor.
Esto permite una mejor determinación de la al menos una cantidad o determinar más de la al menos una cantidad, dado que se utilizan más imágenes de sensor. Así mismo, permite el uso del sistema en más situaciones, dado que un solo sensor de imagen podría no ofrecer resultados fiables en todas circunstancias, por ejemplo, el tiempo de día / noche, en un cielo con nubes / sin nubes, etc.
En una forma de realización, la unidad de tratamiento está también dispuesta para calcular una incertidumbre para la al menos una cantidad determinada en base a una incertidumbre en las informaciones georreferenciadas tridimensionales del entorno.
Esto permite obtener una medida de la fiabilidad del valor de la al menos una cantidad, lo que podría ser de ayuda al calcular los riesgos de decisiones específicas en base a la al menos una cantidad determinada. Por ejemplo, cuando la incertidumbre de la al menos una cantidad determina es tan grande y que no se puede asegurar que el vehículo aéreo no se vaya a estrellar al adoptar una determinada ruta de navegación, podría ser aconsejable tomar otra ruta menos arriesgada.
El objetivo se consigue también mediante un programa de ordenador de acuerdo con la reivindicación 13.
El objetivo se consigue también mediante un producto de programa de ordenador que comprende un código de programa almacenado en un medio legible por ordenador para la navegación de un vehículo aéreo, de acuerdo con la reivindicación 14.
Otras ventajas de la presente invención son entre otras, que se puede omitir una IMU en un ejemplo y / o una forma de realización y que el tamaño y / o el peso del sistema puede reducirse en relación con la iMu omitida, ahorrando con ello espacio y / o peso del vehículo aéreo e incrementando su alcance.
Otra ventaja adicional más de la presente invención es, entre otras, que, en una forma de realización, se puede utilizar una IMU más simple la cual, de modo preferente, sea de menor tamaño y tenga un peso menor que las IMUs anteriormente utilizadas. Esto se debe a que no resulta fiable en cuanto a la precisión de la IMU con respecto a la navegación del vehículo aéreo en un área de exclusión del GNSS. El sistema utilizado puede entonces conseguirse que sea de menor tamaño y / o de menor peso que el espacio y / o el peso ahorrados mediante la IMU más simple, incrementando con ello el alcance del vehículo.
Breve descripción de los dibujos
La Fig. 1a muestra esquemáticamente una situación en la que se puede utilizar la presente invención.
La Fig. 1b muestra esquemáticamente lo que sucede en un área de exclusión del GNSS en una situación de la técnica anterior.
La Fig. 2 muestra un diagrama de flujo de un procedimiento de navegación de un vehículo aéreo de acuerdo con la presente invención.
La Fig. 3 muestra un diagrama de flujo de un procedimiento extendido de navegación de un vehículo aéreo de acuerdo con la presente invención.
La Fig. 4 muestra que ilustra un esbozo que ilustra un ejemplo acerca de la forma en que se dispone una imagen bidimensional a partir de una base de datos de acuerdo con la presente invención.
La Fig. 5 muestra un esbozo esquemático de un sistema de navegación de un vehículo aéreo de acuerdo con la presente invención.
Descripción detallada
La Fig. 1a muestra esquemáticamente una situación 10 en la que se puede utilizar la presente divulgación. Un vehículo se pondrá en marcha en algún punto 11 de partida. El vehículo aéreo puede ser cualquier tipo de vehículo aéreo. En un ejemplo, el vehículo aéreo es un aeroplano o un helicóptero. El vehículo aéreo puede estar tripulado o no tripulado. En un ejemplo, el vehículo aéreo es un vehículo aéreo no tripulado, UAV. El vehículo aéreo puede también ser un vehículo aéreo que se supone que no retorna al punto 11 de partida, como un misil o un cohete. El vehículo aéreo puede, en principio, puede ser cualquier tipo de vehículo aéreo, tanto civil como militar. En un ejemplo, el vehículo aéreo incorpora una IMU. En un ejemplo, el vehículo aéreo incorpora unos medios de recepción de datos suministrados a partir de un GNSS y unos medios para calcular la propia posición en base a los datos del GNSS. El punto 11 de partida puede ser cualquier punto de partida. En un ejemplo, el punto de partida es un aeródromo como por ejemplo un aeropuerto, un campo de aviación o un punto de lanzamiento de cohetes. Así mismo, puede ser un vehículo de transporte. En un ejemplo, un punto de partida es una unidad de lanzamiento de misiles. Este punto puede estar situado sobre una unidad naval, sobre una unidad con base en tierra o sobre una unidad aérea. El vehículo aéreo, después de su partida desde el punto 11 de partida volará a lo largo de una trayectoria 12 de vuelo. En el ejemplo de la Fig. 1a, la trayectoria 12 de vuelo retorna al punto 11 de partida. En otro ejemplo, la trayectoria de vuelo se desplazará hasta un punto de aterrizaje separado. En otro ejemplo adicional, la trayectoria de vuelo terminará en algún punto, por ejemplo un objetivo militar. Este puede ser un objetivo con base en tierra, un objetivo con base en el agua o un objetivo basado en el aire. La trayectoria 12 de vuelo puede estar predeterminada o no. En un ejemplo, la trayectoria 12 de vuelo puede ser modificada durante el vuelo del vehículo aéreo. En general, es conocida la posición y la altitud del vehículo aéreo en el punto 11 de partida. Esto se puede deber a los sensores dispuestos en el vehículo aéreo. Esto también puede deberse a la vigilancia del punto de partida. También puede deberse a unos sensores y / o a algún otro conocimiento previo sobre el punto de partida, especialmente en el caso de que el punto de partida se desplace. En un ejemplo, la posición y la orientación del punto de partida es conocida en base a unos sensores de un vehículo de transporte u otro vehículo aéreo. También se puede basar en un GNSS, lo mismo que el GPS.
El vehículo aéreo generalmente incorpora un sistema de navegación que está dispuesto para determinar una posición absoluta del vehículo. Esto, sin embargo, no es un requisito previo de la presente invención. En el caso de que el vehículo aéreo incorpore un sistema para determinar la posición absoluta, este sistema se basa en un GNSS. Así, el sistema podría ser vulnerable a los fallos técnicos del GNSS, a la exclusión de servicio del GNSS o a interferencias. En el ejemplo de la Fig. 1a la línea 14 de puntos indica la frontera entre el área en la que el GNSS funciona de manera fiable (el área que está por debajo y a la izquierda de la línea 14) y un área en la que el GNSS no funciona de manera fiable (el área que está por encima y a la derecha de la línea 14). En un ejemplo de la Fig. 1a, el vehículo aéreo, por tanto, no dispone de otra manera para determinar su posición sobre la trayectoria 13 de vuelo
A continuación, al referirnos a un área de exclusión del GNSS en la presente memoria y en el conjunto del documento, ello puede deberse a cualquier razón. Ello no solo debe comprender el caso de negación activa del GNSS, sino también al supuesto de que la exclusión del GNSS se deba a razones técnicas o debido a cualquier tipo de exclusión. El área de exclusión del GNSS puede, en un ejemplo, comprender el punto 11 de partida. En un ejemplo, la total trayectoria de vuelo está comprendida en el área de exclusión del GNSS. En otro ejemplo, diferentes partes de la trayectoria de vuelo están comprendidas en el área de exclusión del GNSS. El área de exclusión del GNSS puede también cambiar durante el vuelo del vehículo aéreo.
El vehículo aéreo incorporará algunos valores iniciales respecto de la orientación y la posición antes de entrar en el área de exclusión del GNSS. Esto se puede deber a que el sistema de navegación incluya un GNSS y funcione antes de entrar en el área de exclusión del GNSS, y / o se puede deber al conocimiento de la posición y la orientación desde el punto de partida 11 según lo descrito con anterioridad.
La presente divulgación puede también ser utilizada en áreas que no sean de exclusión del GNSS. En este caso, la divulgación puede ser utilizada para verificar la validez de los datos del GNSS y / o la deriva de una IMU. La invención puede también ser utilizada para incrementar la exactitud de la posición y / o actitud en comparación con su dependencia únicamente respecto del GNSS y /o de la IMU.
La Fig. 1b representa esquemática lo que sucede con un vehículo aéreo 20 en un área de exclusión del GNSS en una situación de la técnica anterior. La situación de la Fig. 1b no está relacionada con una escala real entre los objetos. Un vehículo aéreo 20 podía entrar en el área de exclusión del GNSS en la referencia numeral 21. Antes de entrar, su posición podría determinarse con la ayuda de un GNSS como el GPS. Después de entrar en el área de exclusión del GNSS el vehículo aéreo 20 se desplazará a lo largo de la trayectoria 22. Para determinar su posición el vehículo aéreo 20 tendrá que confiar en una IMU dado que su receptor del GPS ya no será capaz de recibir las señales necesarias para determinar su posición. Las posiciones determinadas por medio de la IMU y, por tanto, la trayectoria 23 de desplazamiento determinada a través de la IMU sin embargo, diferirán de la trayectoria 22 de desplazamiento real. La diferencia será mayor cuanto más avance el tiempo, como se indica en la figura y como se describe en la sección de antecedentes.
La Fig. 2 muestra un diagrama de flujo de un procedimiento 100 de navegación de un vehículo aéreo de acuerdo con la presente divulgación. El procedimiento se inicia con la etapa 110 consistente en la provisión de una imagen de sensor a partir de un sensor de un vehículo aéreo. Aquí, y en todo el documento, al hacer referencia a una imagen de sensor se supondrá siempre que la imagen de sensor procede de un sensor de vehículo aéreo a menos que explícitamente se manifieste otra cosa. El sensor del vehículo aéreo puede ser cualquier tipo de sensor que permita el suministro de imágenes procedentes del entorno, esto es procedentes de la tierra sobre la que el vehículo aéreo está volando. En un ejemplo, el sensor del vehículo aéreo es una cámara. En un ejemplo, el sensor del vehículo aéreo es una cámara basada en una tecnología de dispositivo acoplado por carga (CCD). En un ejemplo, el sensor aéreo es una cámara basada en la tecnología de semiconductor complementario de óxido metálico (CMOS). El sensor del vehículo aéreo puede también comprender unos elementos de láser o radar. En un ejemplo, el sensor del vehículo aéreo está operando en unas longitudes de ondas de luz visible. En un ejemplo, el sensor del vehículo aéreo está operando en una(s) longitud(es) de onda infrarrojas (IR) y / o ultravioleta (UV). Hay muchos tipos diferentes de sensores de vehículo aéreo que pueden suministrar imágenes de sensor y el experto en la materia apreciará que tipos diferentes de sensores ofrecen diferentes ventajas e inconvenientes y pueden ser escogidos de acuerdo con el uso previsto de la invención. Por ejemplo, la elección del sensor se puede basar en si el sensor debe poder suministrar imágenes incluso durante la noche o no, si debe ser capaz de suministrar imágenes durante condiciones nubosas, el coste a que ascendería y otras circunstancias. Si un sensor no es capaz de satisfacer todas las exigencias, se combinan diferentes sensores para suministrar unas imágenes de sensor. En un ejemplo, pueden ser utilizados diferentes sensores para suministrar diferentes imágenes de sensor. Esto se describirá con mayor detalle en relación con la Fig. 3. En la técnica es sabido cómo convertir la salida del sensor en imágenes del sensor. Por tanto no se describirá con mayor detalle en la presente memoria. En un ejemplo, la imagen de sensor se representa como unos bits de datos y / o en otras representaciones eléctricas para su ulterior tratamiento. El procedimiento continúa con la etapa 120. La etapa 110 no es necesario que se lleve a cabo como primera etapa. En otro ejemplo, la etapa 110 se lleva a cabo en cualquier momento del tiempo antes de que se efectúe la etapa 140. Este otro ejemplo forma parte también de la presente invención y está amparado por la dicción de las reivindicaciones independientes.
En la etapa 120 se regulan los datos de entrada que comprenden las informaciones relacionadas con el ángulo de cabeceo, el ángulo de balanceo, el ángulo de guiñada y una posición tridimensional del vehículo aéreo. En un ejemplo, los datos de entrada utilizados en una primera iteración del procedimiento comprenden las informaciones relacionadas con los valores reales adoptados del vehículo aéreo, especialmente las informaciones relacionadas con los valores reales adoptados respecto del ángulo de cabeceo, del ángulo de balanceo, y del ángulo de guiñada y de la posición tridimensional del vehículo aéreo. Las informaciones relacionadas con los valores reales adoptados respecto del ángulo de cabeceo, el ángulo de balanceo, y el ángulo de guiñada son, en un ejemplo, suministrados por una IMU. En el caso de que el vehículo aéreo no esté en un área de exclusión del GNSS, las informaciones respecto de un valor real adoptado respecto de la posición tridimensional del vehículo aéreo son suministradas a partir de un GNSS. En un ejemplo, las informaciones relacionadas con los valores reales adoptados para el vehículo aéreo se calculan en base a la última posición conocida y a los datos relativos a la posición. En un ejemplo, los datos de la posición relativa se basa en los datos procedentes de una IMU, sobre la velocidad del vehículo aéreo y sobre el tiempo desde la última posición conocida. La última posición conocida es, en un ejemplo, la última posición conocida antes de entrar en un área de exclusión del GNSS. En un ejemplo, la última posición conocida se basa en la posición conocida del punto de partida. En un ejemplo, la última posición conocida se basa en el resultado de un procedimiento de acuerdo con la presente divulgación que ha sido efectuada en un tiempo anterior. En la técnica es sabido la forma de calcular los valores reales adoptados respecto de la posición tridimensional de un vehículo aéreo en base a la última posición conocida y en base a los datos de la posición relativa. Por tanto, ello no se describirá con mayor detenimiento en la presente memoria. El procedimiento continúa con la etapa 130.
En la etapa 130 se suministra una imagen bidimensional a partir de una base de datos en base a los datos de entrada. La base de datos comprende informaciones georreferenciadas tridimensionales del entorno, por ejemplo un mapa 3D del entorno o un modelo 3D del entorno. El modelo 3D podría ser cualquier tipo de modelo 3D conocido por los expertos en la materia. En un ejemplo, el modelo 3D se representa como una malla. En otro ejemplo, el modelo 3D se representa como una representación de superficie. En otro ejemplo, el modelo 3D se representa como una representación en vóxeles. En un ejemplo, el modelo 3D incluye informaciones de textura. En un ejemplo, e modelo 3D es una nube de puntos. En un ejemplo, las informaciones georreferenciadas tridimensionales del entorno se representan de manera que pudiera construirse un modelo 3D o un mapa 3D del entorno en base a las
informaciones. En un ejemplo, el mapa 3D es una malla basada en una red (de hojalata) y regular triangular drapeada con texturas. En un ejemplo, una incertidumbre posicional o de malla está asociada con al menos alguno de los nodos / superficies / bordes de la malla. La incertidumbre de la malla asociada con cada respectivo nodo / superficie / borde representa una incertidumbre en ese punto específico del modelo.
Se supone que la relación entre el vehículo aéreo y el sensor del vehículo aéreo a partir del cual se suministra la imagen de sensor es conocida. En un ejemplo, el sensor del vehículo está montado de manera fija sobre el vehículo aéreo sin ningún grado de libertad para modificar su orientación o su posición con respecto al vehículo aéreo. En otro ejemplo, el sensor del vehículo aéreo presenta uno o más grados de libertad para modificar su posición y / u orientación con respecto al vehículo aéreo. Este cambio es entonces objeto de seguimiento de manera que sea conocida la relación entre el vehículo aéreo y el sensor del vehículo aéreo a partir del cual se suministra la imagen de sensor. Así, dado que los datos de entrada comprenden las informaciones relacionadas con el ángulo de cabeceo, el ángulo de balanceo, el ángulo de guiñada y la posición tridimensional del vehículo aéreo, estas informaciones se refieren también a la orientación (esto es, la actitud) y la posición del sensor del vehículo aéreo.
La imagen bidimensional procedente de la base de datos es entonces, de modo preferente, suministrada de tal manera que se corresponda con la imagen de sensor. Esto se describe con mayor detalle en relación con la Fig. 4. El procedimiento continúa con la etapa 140.
En la etapa 140, la imagen de sensor y la imagen bidimensional a partir de la base de datos son comparadas. En un ejemplo, la comparación comprende el cálculo de una medida de similitud entre las dos imágenes. En un ejemplo, el cálculo de una medida de similitud entre las dos imágenes comprende el cálculo de las informaciones mutuas. En un ejemplo, el cálculo de una medida de similitud entre las dos imágenes comprende el cálculo de una coincidencia de chaflanes. En un ejemplo, el cálculo de una medida de similitud entre dos imágenes comprende el cálculo de una relación de fase. En un ejemplo, el cálculo de una medida de similitud entre dos imágenes comprende el cálculo de una correlación matemática, de modo preferente una correlación transversal entre las dos imágenes, de modo preferente una correlación transversal normalizada. El experto en la materia advertirá que hay más medidas de similitud conocidas en la técnica que pueden ser calculadas en este contexto. El objetivo de esta etapa es obtener una indicación acerca de hasta qué punto las dos imágenes se corresponden entre sí de manera satisfactoria. En un ejemplo, un valor es calculado y representa el grado de correspondencia. En un ejemplo, el cálculo del valor comprende la utilización de uno o más cálculos de convolución. En un ejemplo, el valor es un escalar. En otro ejemplo, el valor es un objeto dimensional más alto. En un ejemplo, el valor es la correlación transversal normalizada. La correlación transversal normalizada puede entonces adoptar un valor entre cero y uno, donde cero corresponde a ninguna coincidencia entre las dos imágenes y la otra se refiere a una total correspondencia entre las dos imágenes. En un ejemplo, una medida de similitud filtrada. Si la imagen de sensor se corresponde completamente con la imagen bidimensional procedente de la base de datos puede suponer que el ángulo de cabeceo, el ángulo de balanceo, el ángulo de guiñada y la posición tridimensional del vehículo aéreo al cual se refieren las informaciones de los datos de entrada son los valores auténticos respecto del ángulo de cabeceo, del ángulo de balanceo, del ángulo de guiñada y de la posición tridimensional del vehículo aéreo. Si no se corresponden completamente, se puede, por ejemplo tomar el valor de la correlación transversal normalizada hasta una medida de hasta qué punto se corresponden satisfactoriamente entre sí las dos imágenes. Cuanto más alto sea el valor mejor será la correspondencia. El procedimiento continúa con la etapa 150.
En la etapa 150 se verifica si se satisface una condición predeterminada (esto es un criterio). Esta condición predeterminada es, en un ejemplo, si el procedimiento ha sido llevado a cabo un número de veces predeterminado o no. En un ejemplo, la condición predeterminada se refiere a si la comparación a la que se llegó en la etapa 140 alcanzó o sobrepasó una determinada cantidad de correspondencia entre las dos imágenes. Esto es, por ejemplo, que la correlación transversal normalizada alcanzó o sobrepasó un valor específico. En un ejemplo, la condición predeterminado es que la mejor correspondencia entre las dos imágenes que se ha conseguido, hasta ahora converge. Así mismo, son posibles otras condiciones predeterminadas, aisladas o en combinación. Varias condiciones predeterminadas pueden ser combinadas de manera que una o todas tengan que ser satisfechas.
Si la condición predeterminada se satisface, el procedimiento continúa con la etapa 160.
Si la condición predeterminada se satisface, el procedimiento continúa con la etapa 120, donde se establece los nuevos datos de entrada. Los nuevos datos de entrada, en un ejemplo, basados en los datos de entrada precedentes y en la comparación entre las dos imágenes. En un ejemplo, los datos de entrada son modificados de tal manera que es probable que una mejor comparación, por ejemplo, una mejor correspondencia se conseguirá la próxima vez que se lleve a cabo la etapa 140. Esto puede, en un ejemplo, conseguirse consultando el gradiente de la medida de similitud y establecer los nuevos datos de entrada en la dirección de gradiente más alto. Una convergencia de la mejor correspondencia, según lo expuesto anteriormente, es entonces, en un ejemplo, conseguida si la magnitud del gradiente está por debajo de un valor predeterminado. La forma de establecer nuevos datos de entrada puede también comprender otros procedimientos conocidos en la técnica para encontrar la correspondencia óptima, por ejemplo los procedimientos para detectar si un máximo global o local se ha conseguido respecto de la medida de similitud entre las dos imágenes, por ejemplo, para la correlación transversal normalizada.
En la etapa 160 se determina al menos una de las siguientes cantidades, esto es, el ángulo de cabeceo, el ángulo de balanceo, el ángulo de guiñada y la posición tridimensional del vehículo aéreo. En un ejemplo preferente, la al menos una cantidad comprende la posición tridimensional del vehículo aéreo. Para determinar la al menos una cantidad, se utilizan los datos de entrada respecto de cuál de las dos imágenes se corresponden mejor entre sí. En un ejemplo, los datos de entrada comprenden el ángulo de cabeceo, el ángulo de balanceo, el ángulo de guiñada y la posición tridimensional del vehículo aéreo y la al menos una cantidad determinada es entonces la correspondiente al menos una cantidad a partir de los datos de entrada respecto de cuál de las dos imágenes se corresponden mejor entre sí. En un ejemplo, los datos de entrada comprenden informaciones relacionadas con el ángulo de cabeceo, el ángulo de balanceo, el ángulo de guiñada y la posición tridimensional del vehículo aéreo y la al menos una cantidad es entonces determinada utilizando las informaciones relacionadas con la correspondiente al menos una cantidad a partir de los datos de entrada. Estas informaciones son a continuación, en un ejemplo, utilizadas para calcular la al menos correspondiente cantidad.
Los datos de entrada respecto de los cuales las dos imágenes se corresponden mejor entre sí, son considerados como los datos de entrada entre todos los datos de entrada utilizados que se corresponden mejor con los valores reales con respecto al ángulo de cabeceo, el ángulo de balanceo, el ángulo de guiñada y la posición tridimensional del vehículo aéreo. De esta manera, utilizando estos datos de entrada para determinar la al menos una cantidad probablemente proporciona ya la mejor estimación posible del ángulo real del ángulo de cabeceo, del ángulo de balanceo, del ángulo de guiñada y de la posición tridimensional del vehículo aéreo. Sin embargo no todas esas cantidades tienen que ser determinadas. A los fines de la navegación es, en un ejemplo, suficiente únicamente determinar la posición tridimensional del vehículo aéreo y tomar los valores para las demás cantidades a partir de otras fuentes, por ejemplo, una IMU. En otro ejemplo, más o todas las cantidades se determinan a partir del procedimiento de la presente divulgación. En un ejemplo diferente, cuando no se opere en un área de exclusión del GNSS y el vehículo aéreo esté equipado con, por ejemplo, un receptor de GPS, se puede utilizar el procedimiento de determinar el ángulo de cabeceo, el ángulo de balanceo, el ángulo de guiñada del vehículo aéreo. Es evidente que otras combinaciones adicionales de la al menos una cantidad pueden determinarse. Esto podría depender de la circunstancia específica y se puede adaptar a las necesidades específicas en todas las circunstancias.
En un ejemplo, se calcula una incertidumbre para la al menos una cantidad determinada. En un ejemplo, cuando se calcula una correlación cruzada normalizada, la incertidumbre de la al menos una cantidad se basa en el valor de la correlación transversal normalizada. Por ejemplo una correlación transversal normalizada de 1 se corresponde con una perfecta correspondencia entre las dos imágenes. Entonces, la incertidumbre en la al menos una cantidad es básicamente cero. Cuanto más por debajo de 1 esté la correlación transversal normalizada, mayor será la discrepancia entre las dos imágenes y, por tanto, más alta será la incertidumbre en la al menos una cantidad determinada. Si las informaciones georreferenciadas tridimensionales comprenden los valores de incertidumbre, ello puede ser utilizado también para calcular una incertidumbre de la al menos una cantidad determinada. En un ejemplo, la incertidumbre de la al menos una cantidad determinada, se basa en la incertidumbre de las informaciones georreferenciadas tridimensionales.
El procedimiento finaliza después de la etapa 160.
En un ejemplo el procedimiento 100 se utilizan unos algoritmos de fusión de sensor. En un ejemplo, son utilizadas las informaciones relacionadas con la medida de similitud en un algoritmo de fusión de sensor junto con los datos procedentes de la IMU y / o los datos de las mediciones procedentes de otros posibles sensores del vehículo aéreo. En un ejemplo, se utiliza un filtro Kalman para los algoritmos de fusión de sensor. En un ejemplo, se utiliza un filtrado de tiempo. En un ejemplo, el filtrado de tiempo se efectúa en base a un filtro Kalman. En un ejemplo, el filtrado de tiempo se efectúa en base a un filtro de partículas. En un ejemplo, el filtrado de tiempo se efectúa en base a otro filtro de tiempo conocido en la técnica. Utilizando cualquiera de los filtros y / o algoritmos mencionados, se pueden explotar las hasta aquí descritas incertidumbres y / o posibles otras incertidumbres de mediciones para incrementar la precisión y / o reducir la incertidumbre de la al menos una cantidad determinada. En un ejemplo, la elección de nuevos datos de entrada se basan en una salida de al menos uno de los filtros y / o algoritmos antes mencionados. En el caso de que no se obtengan presunciones satisfactorias para un ajuste inicial de los datos de entrada, el procedimiento 100 puede también llevarse a cabo, en paralelo o de manera secuencial, con ajustes de diferentes datos de entrada para obtener una primera idea de cuáles datos de entrada pudieran acercarse a los valores reales del ángulo de cabeceo, del ángulo de balanceo, del ángulo de guiñada y la posición tridimensional del vehículo aéreo.
En un ejemplo preferente, el procedimiento 100 se lleva a cabo una y otra vez para determinar periódicamente la al menos una cantidad a medida que el vehículo aéreo avanza en su desplazamiento.
En un ejemplo, la al menos una cantidad determinada, en la etapa 160, comprende la posición tridimensional determinada del vehículo aéreo y el procedimiento 100 no finaliza después de la etapa 160. Por el contrario, el procedimiento comprende además la etapa 170 de determinación de una posición tridimensional del vehículo aéreo en base a un sistema de navegación global por satélite, GNSS. Esta etapa 170 adicional no se representa en la Fig. 2 y puede efectuarse con independencia de las etapas 110 -160.
El procedimiento 100 comprende entonces una etapa 180 adicional más (no mostrada en la Fig. 2). Esta etapa 180 puede llevarse a cabo después de la etapa 160 y después de que se haya efectuado la etapa 170. En la etapa 180 se determina la posición tridimensional determinada del vehículo aéreo en base a un GNSS es comparada con la posición tridimensional determinada del vehículo aéreo donde se han utilizado los datos de entrada respecto de los cuales las dos imágenes se corresponden mejor. Esta comparación se efectúa de tal manera que se determine si el GNSS está suministrando datos fiables.
En un ejemplo, se concluye que el GNSS está suministrando datos fiables si la diferencia entre la posición tridimensional determinada en la etapa 160 y en la etapa 170 está por debajo de un umbral predeterminado. La diferencia se refiere, en un ejemplo, a un valor absoluto a una referencia tridimensional.
Cuando se determina que el GNSS no está suministrando datos fiables, se puede, en un ejemplo, decidir la desactivación de sistemas que se basan en entradas procedentes de los datos del GNSS, o decidir sustituir los datos del GNSS por otro tipo de datos, por ejemplo los datos relacionados con la al menos una cantidad determinada a partir de la etapa 160.
Después de la etapa 180 el procedimiento 100 finaliza.
En la Fig. 3a se muestra un diagrama de flujo de un procedimiento 200 extendido para la navegación de un vehículo aéreo de acuerdo con la presente invención. El procedimiento se inicia con la etapa 210.
En la etapa 210 se proveen varias imágenes de sensor. Las imágenes de sensor son suministradas a partir de diferentes sensores del vehículo aéreo y se suministran básicamente al mismo tiempo. En un ejemplo preferente, la máxima diferencia entre los momentos de tiempo cuando cualquiera de las imágenes de sensor son tomadas es tan baja que el vehículo aéreo se desplaza, durante ese tiempo, hasta una distancia que es menor que la precisión de resolución de los sensores y / o inferior a la precisión y / o incertidumbre de las informaciones georreferenciadas del entorno. Las imágenes de sensor no necesitan necesariamente ser de la misma parte del entorno. Los sensores del vehículo aéreo que suministran las imágenes de sensor pueden tener un campo diferente de visión, diferentes orientaciones, trabajar en diferentes longitudes de onda, etc. Cada imagen de sensor suministrada es suministrada según lo descrito con respecto de una única imagen de sensor en la etapa 110 de la Fig. 2. Una ventaja de utilización varios sensores del vehículo aéreo es que diferentes sensores pueden cubrir diferentes longitudes de onda. Un sensor que es satisfactorio bajo el estado de la luz solar, podría no serlo durante la noche, y viceversa. Así mismo, diferentes longitudes de onda podrían ser interesantes al mismo tiempo, pero podrían no ser sensores comunes para todas estas longitudes de onda, o un sensor común sería demasiado pesado, demasiado grande, demasiado costoso, o por cualquier otra razón, menos indicado que diferentes sensores para diferentes longitr5udines de onda. Todo ello podría motivar la utilización de varios sensores. Otra razón más podría ser que diferentes sensores ya instalados en el vehículo aéreo con otras finalidades y, de esta manera, pueden de cualquier modo estar disponibles en la presente invención. Después de suministrar varias imágenes de sensor, el procedimiento continúa con la etapa 220.
En la etapa 220 el procedimiento, según lo descrito en la etapa 120 hasta la etapa 160 de la Fig. 2, se lleva a cabo independiente para cada imagen de sensor. Así, el procedimiento puede desarrollarse en paralelo para cada imagen de sensor, en secuencia o en cualquier combinación de estos procedimientos. Debe destacarse también que la etapa 210 de suministro de la imagen de sensor puede llevarse a cabo en cualquier momento antes de que se efectúe la etapa 140 por primera vez. En un ejemplo, la etapa 210 se efectúa antes de la etapa 120. En un ejemplo, la etapa 210 se efectúa antes de la etapa 140. Esto se corresponde con la descripción de la etapa 110. El procedimiento continúa con la etapa 230.
En la etapa 230 se determina al menos una cantidad con la combinación de al menos una cantidad a partir de la etapa 220. En un ejemplo, al menos una de diferentes cantidades ha sido determinada en la etapa 220. Por ejemplo, se determina una posición tridimensional del vehículo aéreo a partir de una imagen de sensor y al menos se determina un ángulo entre el ángulo de cabeceo, el ángulo de balanceo, y el ángulo de guiñada a partir de otra imagen de sensor. Las diferentes cantidades procedentes de las diferentes imágenes de sensor son entonces combinadas en una al menos cantidad total que las comprende.
En otro ejemplo, la misma al menos una cantidad se determina a partir de diferentes imágenes de sensor. En este caso, los valores de la al menos una cantidad son combinados para terminar en una al menos cantidad combinada del vehículo aéreo. En un ejemplo, el proceso de combinación comprende la toma del valor medio de los valores de la al menos una cantidad a partir de diferentes imágenes de sensor. Sin embargo, también puede ser utilizado cualquier otro procedimiento de combinación de valores o cantidades que sea conocido en la técnica. En un ejemplo, la combinación de la al menos una cantidad determinada para cada procedimiento efectuado de manera independiente se basa en la fiabilidad y / o la precisión de los sensores a partir de los cuales se suministran las imágenes de sensor. Un sensor podría, por ejemplo, incorporar una precisión más alta para la imagen de sensor que otro sensor. La imagen de sensor con la precisión más alta podría entonces contribuir más a la determinación del al menos un valor combinado que la imagen de sensor con menos precisión. Un sensor, podría, no funcionar de manera fiable durante determinados momentos del día o durante otras condiciones determinadas (por ejemplo de temperatura, de presión, etc.). Entonces, sería ventajoso suministrar imágenes de sensor a partir de sensores con
más peso y mayor fiabilidad para determinar la al menos una cantidad combinada en comparación con sensores menos fiables. En los casos más extremos, una imagen de sensor podría tener un peso de cero. Esto es, por ejemplo, si el sensor que suministra esa imagen de sensor no tiene fiabilidad en todas las circunstancias determinadas.
Así mismo, es posible combinar las técnicas antes descritas, esto es, combinar los casos al menos una de diferentes calidades se determina a partir de diferentes imágenes de sensor y de que diferentes valores para la misma una calidad sean tomadas a partir de diferentes imágenes de sensor.
El procedimiento finaliza después de la etapa 230.
Lo que se describe en relación con los algoritmos de fusión con el procedimiento 100 se aplica también al procedimiento 200.
La Fig. 4 muestra un esbozo que ilustra un ejemplo acerca de la forma en que se suministra una imagen 430 bidimensional a partir de una base de datos 410 de acuerdo con la presente divulgación. La base de datos 410 comprende informaciones georreferenciadas tridimensionales del entorno, por ejemplo según se describe con referencia a la etapa 130. En un ejemplo, la base de datos 410 está a bordo del vehículo aéreo 450. Ello presenta la ventaja de que el tiempo para que el vehículo aéreo 450 acceda a la base de datos 410 se minimice, lo que puede ser importante a los fines de la navegación. Otra ventaja es que la base de datos 410 es fácilmente disponible para el vehículo aéreo 450 el cual entonces no necesita basarse en la comunicación por radio y / o la comunicación por satélite. Esto hará que el sistema de navegación del vehículo aéreo 450 sea menos vulnerable. En un ejemplo, la base de datos 410 está almacenada en una memoria no volátil a bordo del vehículo aéreo. En otro ejemplo, la base de datos 410 está almacenada por fuera, esto es, no a bordo del vehículo aéreo 450. En un ejemplo, la base de datos 410 está almacenada en un espacio cerrado por el vehículo aéreo. En otro ejemplo, la base de datos 410 está almacenada en una instalación o vehículo en agua o en tierra. La base de datos 410 puede, en principio, estar situada en cualquier parte siempre que exista la posibilidad de que el vehículo aéreo 450 acceda a la base de datos 410. En un ejemplo, esto se consigue mediante un canal de comunicación.
El vehículo aéreo 450 está entonces dispuesto para suministrar imágenes de sensor a partir de al menos un sensor de vehículo aéreo (no mostrado). En la Fig. 4, se supone, por razones de sencillez, que existe únicamente un sensor de vehículo aéreo. Sin embargo, es posible utilizar varios sensores del vehículo aéreo según lo antes descrito. El sensor del vehículo aéreo presenta su campo de visión limitado por los límites 465 y entonces suministrará una imagen 460 de sensor a partir del entorno 470. La imagen 460 de sensor mostrará que parte del entorno 470 que está limitada por las intersecciones del campo de los límites 465 de visión con el entorno 470, esto es, que está limitado por las líneas 460a, 460b, 460c, 460d, de intersección. Esto se indica en la Fig. 4. Se debe, sin embargo, observar que estas líneas 460a, 460, 460c, 460d de intersección, en general, no son líneas rectas sino más bien curvas debido a la forma tridimensional del entorno. La propia imagen del sensor vista por el sensor, sin embargo, sigue siendo rectangular como con cualquier imagen estándar. Estas relaciones son sobradamente conocidas en la técnica y por tanto no necesitan ser descritas aquí con mayor detenimiento.
Al disponer de los datos de entrada que comprenden las informaciones relacionadas con el ángulo de cabeceo, el ángulo de balanceo, el ángulo de guiñada y la posición tridimensional del vehículo aéreo y, de esta forma relacionadas con el ángulo de cabeceo, el ángulo de balanceo, el ángulo de guiñada y la posición tridimensional del sensor vehículo aéreo según lo antes descrito, se puede por tanto suministrar 420 una imagen 430 bidimensional a partir de la base de datos en base a los datos de entrada. De modo preferente, la imagen bidimensional a partir de la base de datos se suministra de manera que sea proyectada sobre el campo de visión del sensor del vehículo aéreo, donde se supone que el vehículo aéreo presenta su ángulo de cabeceo, su ángulo de balanceo, su ángulo de guiñada y la posición tridimensional de acuerdo con los datos de entrada.
La imagen 430 suministrada a partir de la base de datos tendrá entonces las mismas líneas de orientación e intersección que la imagen 460 y las informaciones 440 georreferenciadas tridimensionales del entorno que están comprendidas en la base de datos 410, se relacionarán con el mismo entorno 470 visto por el sensor. Así, la imagen 430 suministrada a partir de la base de datos 410 se corresponderán con la imagen 460 de sensor como se aprecia por el sensor del vehículo aéreo. Esto significa que ambas imágenes tendrán la misma deformación de los objetos debido a la dirección de visualización y a la forma tridimensional del entorno 440, 470. La imagen 430 procedente de la base de datos 410 será por tanto como si hubiera sido tomada por un sensor por el ángulo de cabeceo, el ángulo de balanceo, el ángulo de guiñada y la posición tridimensional de acuerdo con los datos de entrada. Cuando la imagen sea entonces comparada en la etapa 140 de la Fig. 2, se puede determinar hasta qué punto las imágenes se corresponden de modo satisfactorio unas con otras, de acuerdo con lo descrito en relación con la Fig. 2. Cuando las imágenes no se ajustan perfectamente entre sí, esto puede, entre otras cosas, deberse a que los ángulos y / o la posición del vehículo aéreo donde las informaciones relacionadas con ello comprendidas en los datos de entrada, no son correctos. Por ejemplo, la posición tridimensional real del vehículo aéreo podría desviarse en comparación con la posición tridimensional del vehículo aéreo que se supone dispuesta en los datos de entrada. Entonces, especialmente una correlación transversal calculada entre las imágenes, lo que implica el cálculo de la convolución, puede proporcionar una estimación acerca de hasta qué punto sea grande la desviación, de manera que los datos de entrada puedan ser adaptadas en correspondencia cuando los datos de entrada se ajusten 120 al momento
siguiente en la Fig. 2. La nueva presunción de los datos de entrada puede entonces verificarse en el próximo recorrido según lo antes descrito.
En un ejemplo, una o más incertidumbres en la imagen 430, que parten de las incertidumbres de las informaciones georreferencias del entorno almacenadas en el entorno 410, son utilizadas para determinar una incertidumbre de la al menos una calidad determinada según lo descrito en relación con la Fig. 2, especialmente una incertidumbre para la posición tridimensional determinada del vehículo aéreo 450.
En la Fig. 5 se muestra un esbozo esquemático de un sistema 300 de navegación de un vehículo aéreo de acuerdo con la presente invención. El sistema contiene una base de datos 310 que contiene informaciones georreferenciadas dimensionales del entorno. La base de datos 310 se corresponde, en un ejemplo, a la base de datos 410 descrita en relación con la Fig. 4.
El sistema 300 comprende también al menos un sensor 320 del vehículo aéreo. El al menos un sensor 320 del vehículo aéreo está dispuesto para suministrar una imagen de sensor. En una forma de realización, el al menos un sensor 320 comprende varios sensores 320a, 320b, 320c ... En una forma de realización, el al menos un sensor está dispuesto para suministrar varias imágenes de sensor. En una forma de realización, el al menos un sensor 320 comprende un sensor 320a de infrarrojos. En una forma de realización, el al menos un sensor 320 comprende un sensor 320b que puede detectar en la extensión de longitud de onda visible. En una forma de realización, el al menos en un sensor 320 comprende un sensor 320c que recibe láser y / o señales de radar. En una forma de realización, el al menos un sensor 320 comprende un radar de apertura sintética (SAR). En una forma de realización, el al menos un sensor 320 comprende una o más cámaras según lo descrito en relación con la Fig. 2. En un ejemplo, dicha una o más cámaras es al menos una cámara de infrarrojo, una cámara ultravioleta, una cámara mutiespectral o una cámara hiperespectral.
El sistema 300 comprende también una unidad 330 de tratamiento. La unidad de tratamiento está dispuesta para recibir la imagen de sensor. En el caso de que al menos un sensor suministre varias imágenes de sensor, la unidad de tratamiento está dispuesta para recibir estas diversas imágenes de sensor.
La unidad 330 de tratamiento está también dispuesta para establecer unos datos de entrada que comprendan informaciones relacionadas con el ángulo de cabeceo, el ángulo de balanceo, el ángulo de guiñada y una posición tridimensional del vehículo aéreo. En una forma de realización, el sistema 300 comprende un receptor 340 del GNSS. El receptor 340 del GNSS está entonces dispuesto para enviar datos relativos a una posición del vehículo aéreo hacia la unidad 330 de tratamiento. En una forma de realización, el receptor del GNSS está dispuesto para determinar una posición tridimensional del vehículo aéreo en base a un GNSS. En una forma de realización, el sistema 300 comprende una IMU 341. La IMU 341 está entonces dispuesta para enviar datos relativos al ángulo de cabeceo, el ángulo de guiñada y / o el ángulo de balanceo hacia la unidad 330 de tratamiento. La unidad de tratamiento está entonces dispuesta para recibir los datos procedentes de la IMU 341 y / o del receptor 340 del GNSS y para utilizar estos datos para establecer unos valores iniciales con respecto a los datos de entrada según lo antes descrito. Aquí, el término receptor 340 del GNSS no comprende que las informaciones recibidas por el receptor del GNSS sean utilizadas para determinar una posición tridimensional del vehículo aéreo si no está en un área de exclusión del GNSS. Esto puede efectuarse o bien en el receptor 340 del GNSS, o en algún otro elemento, por ejemplo, en la unidad 330 de tratamiento.
La unidad 330 de tratamiento está también dispuesta para suministrar imágenes bidimensionales a partir de la base de datos en base a los datos de entrada. Está también dispuesta para comparar la imagen de sensor con una imagen bidimensional procedente de la base de datos, para decidir cuál de las imágenes bidimensionales se corresponde mejor con la imagen de sensor, y para determinar al menos una de las siguientes cantidades: el ángulo de cabeceo, el ángulo de balanceo, el ángulo de guiñada y la posición tridimensional del vehículo aéreo en base a los datos de entrada para los cuales se obtuvo la mejor correspondencia entre una de las dos imágenes bidimensionales y la imagen de sensor. Estos procesos también se describieron anteriormente, en especial en relación con la Fig. 2.
La unidad 330 de tratamiento está incluso dispuesta también para comunicar dicha al menos una cantidad. En una forma de realización, la al menos una cantidad está, directa o indirectamente, comunicada con un piloto del vehículo aéreo. En una forma de realización, la al menos una cantidad está directa o indirectamente comunicada con un operador del vehículo aéreo.
En una forma de realización, la unidad 330 de tratamiento está dispuesta para determinar una posición tridimensional del vehículo aéreo en base a un sistema de navegación global por satélite, GNSS. Este es un ejemplo basado en los datos relativos a una posición del vehículo aéreo que son enviados a partir del receptor 340 del GNSS. En una forma de realización, esa unidad 330 de tratamiento está dispuesta para comparar la posición tridimensional determinada del vehículo aéreo en base al GNSS con la posición tridimensional determinada del vehículo aéreo donde los datos de entrada para los cuales se utilizaron las dos imágenes que se corresponden mejor entre sí. La unidad 330 de tratamiento está también dispuesta para determinar si el GNSS suministra datos adicionales para esa comparación.
En una forma de realización, el sistema 300 comprende además una unidad 350 de gobierno del vehículo aéreo, estando la unidad de gobierno dispuesta para recibir dicha al menos una cantidad comunicada de la unidad 330 de tratamiento. La unidad de gobierno comprende, en una forma de realización, un piloto automático.
En una forma de realización preferente, todas las partes del sistema 300 están a bordo del vehículo aéreo. Sin embargo, en una forma de realización, partes del sistema podrían también estar en otros lugares. Esto se ha descrito anteriormente.
Algunas partes del sistema podrían situarse en diferentes lugares del vehículo aéreo, mientras otras partes podrían situarse próximas entre sí e incluso integradas entre sí. En una forma de realización, la unidad 330 de tratamiento y la unidad 350 de gobierno están integradas.
En una forma de realización, el sistema 300 comprende además un dispositivo 355 controlado por GNSS. Este dispositivo controlado por GNSS es, en un ejemplo, un arma, por ejemplo, un arma controlada por GPS. La unidad 330 de tratamiento puede por tanto estar dispuesta para enviar datos de entrada al dispositivo controlado por GNSS. Estos datos de entrada pueden comprender informaciones relacionadas con el hecho de si el GNSS está interferido, perturbado o no suministra datos fiables por cualquier otra razón. En un ejemplo, los datos de entrada comprenden dicha al menos una de las siguientes cantidades: el ángulo de cabeceo, el ángulo de balanceo, el ángulo de guiñada, y la posición tridimensional del vehículo aéreo.
En una forma de realización preferente, la al menos una cualidad determinada por la unidad 330 de tratamiento es la posición tridimensional del vehículo aéreo.
En una forma de realización, la unidad 330 de tratamiento está dispuesta para efectuar reiteradamente los procesos de establecimiento de los datos de entrada, la provisión de una imagen bidimensional y la comparación de una imagen bidimensional con la imagen de sensor hasta que al menos se alcance un criterio predeterminado. A continuación, se determina la al menos una cantidad. El proceso de realización de ello se describe con mayor detalle en relación con la Fig. 2.
En una forma de realización, la unidad 330 de tratamiento está también dispuesta para calcular una incertidumbre para la al menos una cantidad determinada en base a una incertidumbre en las informaciones georreferenciadas tridimensionales del entorno. La incertidumbre para la al menos una cantidad puede entonces ser comunicada de la misma manera que en el caso de la al menos una cantidad. El disponer de una incertidumbre para la al menos una cantidad, permite que el receptor (por ejemplo, el piloto, el operador, el sistema de gobierno, etc.) de la al menos una cantidad tome decisiones acerca de la forma de operar el vehículo aéreo en base a esta incertidumbre. Así, determinadas decisiones podrían únicamente tomarse si la incertidumbre está, por ejemplo, por debajo de un determinado valor.
En una forma de realización, cuando el sistema 300 comprende varios sensores 320a, 320b, 320c ... del vehículo aéreo, la unidad 330 de tratamiento está también dispuesta para efectuar independiente para cada imagen de sensor los procesos antes descritos de recepción de las imágenes de sensor, establecimiento de los datos de entrada, provisión de las imágenes bidimensionales, comparación de las imágenes y determinación de al menos una de las siguientes cantidades: ángulo de cabeceo, ángulo de balanceo, ángulo de guiñada y posición tridimensional del vehículo aéreo. La unidad de tratamiento está incluso entonces también dispuesta para determinar al menos una cantidad combinada sobre al menos una cantidad determinada correspondiente para cada imagen de sensor. Esto se describe con mayor detalle en relación con la Fig. 3.
En una forma de realización, la unidad 330 de tratamiento está dispuesta para recibir datos de elementos de entrada adicionales. En una forma de realización, un elemento adicional de entrada es un barómetro 360. En una forma de realización, un elemento adicional de entrada es un aerómetro 361. En una forma de realización, otro elemento de entrada es un elemento 362 de entrada para recibir entradas procedentes de un piloto o de un operador del vehículo aéreo. Los elementos de entrada adicionales, en una forma de realización, son utilizados para recibir informaciones acerca de la presión, el aire, el agua y / o el entorno. Estas informaciones pueden entonces ser utilizadas para mejorar aún más el sistema 300. Por ejemplo, una imagen de sensor procedente de un área de tierra es en general mejor para desarrollar la invención que una imagen de sensor procedente de un área de agua. Esto se debe al hecho de que las variaciones de un área de tierra, tanto en su forma geométrica como en su textura, en general son más pronunciadas que las variaciones en un área de agua. Así, en una forma de realización, cuando existen diversos sensores 320 del vehículo aéreo, los elementos de entrada adicionales pueden ser utilizados para determinar cuáles de los sensores están suministrando imágenes de sensor procedentes de área de tierra y cuáles de los sensores están suministrando imágenes de sensor procedentes de área de agua. La unidad 330 de tratamiento puede entonces, por ejemplo, decidir adaptar la fiabilidad de las imágenes de sensor en la medida correspondiente al determinar la al menos una calidad combinada. En una forma de realización, los elementos de entrada adicionales son utilizados para determinar si el al menos un sensor 320 está únicamente suministrando imágenes de sensor procedentes de áreas de agua o no. El sistema 300 puede entonces, en una forma de realización, decidir no confiar en la al menos una cantidad determinada si todas las imágenes de sensor utilizadas proceden únicamente de áreas de agua. En este caso, el sistema 300 podría decidir únicamente utilizar otras formas
de navegación, por ejemplo, las informaciones procedentes de una IMU 341, hasta que al menos un sensor suministre de nuevo imágenes de sensor procedentes de un área de tierra.
En una forma de realización, el sistema 300 es también utilizado para calibrar uno o, si resulta aplicable más del al menos un sensor 320. De modo preferente, el al menos un sensor 320 es calibrado antes de la partida del vehículo aéreo. Si ello, sin embargo, no es posible, o se requiere una recalibración, esta puede, en una forma de realización, llevarse a cabo por el sistema 300 antes de que el vehículo aéreo entre en un área de exclusión del GNSS. Para llevar esto a cabo, los datos de entrada iniciales se establecen de tal manera que las informaciones relacionadas con la posición tridimensional del vehículo aéreo se correspondan con la posición tridimensional del vehículo aéreo según se determina en base a un receptor 340 del GNSS (y, si resulta aplicable, en base a otros elementos de entrada, por ejemplo, un barómetro 360). Cuando entonces las imágenes son comparadas en la etapa 340 (como se describe en relación con la Fig. 2), se puede determinar una correlación cruzada. Las dos imágenes deben corresponderse perfectamente entre sí, hasta algunas incertidumbres, dado que la posición real es conocida debido al GNSS y ello se utiliza junto con los valores reales de los ángulos en los datos de entrada para suministrar la imagen bidimensional a partir de la base de datos 310. Así, aparte de las incertidumbres, cualquier discrepancia debe partir de sensores no calibrados, especialmente cámaras. Las informaciones acerca de las discrepancias pueden entonces ser utilizadas para calibrar los sensores. La forma de calibrar un sensor en base a las discrepancias entre una imagen de sensor y una imagen "real" (la cual aquí se considera como la imagen suministrada a partir de la base de datos) es conocida en la técnica y no se describe con mayor detalle en la presente memoria.
Claims (14)
1. - Un procedimiento (100) de navegación de un vehículo aéreo, comprendiendo el procedimiento la provisión (110) de una imagen de sensor a partir de un sensor de vehículo aéreo y, de forma reiterada, hasta que al menos se alcance un criterio predeterminado (150), llevando a cabo las etapas siguientes:
- el ajuste (120) de datos de entrada que comprenden informaciones relacionadas con el ángulo de cabeceo, el ángulo de balanceo, el ángulo de guiñada y la posición tridimensional del vehículo aéreo;
- la provisión (130) de una imagen bidimensional a partir de una base de datos sobre la base de los datos de entrada, donde la base de datos comprende un mapa georreferenciado tridimensional del entorno o un modelo georreferenciado tridimensional del entorno,
- la comparación (140) de la imagen de sensor y la imagen bidimensional a partir de la base de datos; y la utilización de los datos de entrada respecto de los cuales las dos imágenes se corresponden mejor entre sí para determinar (160) al menos una de las siguientes cantidades: ángulo de cabeceo, ángulo de balanceo, ángulo de guiñada y posición tridimensional del vehículo aéreo.
2. - El procedimiento de acuerdo con la reivindicación 1, en el que la al menos una cantidad predeterminada comprende la posición tridimensional del vehículo aéreo.
3. - El procedimiento de acuerdo con la reivindicación precedente, que comprende además las etapas de:
- la determinación de una posición tridimensional del vehículo aéreo en base a un sistema de navegación global por satélite, GNSS; y
- la comparación de la posición tridimensional determinada del vehículo aéreo en base al GNSS con la posición tridimensional predeterminada del vehículo aéreo donde los datos de entrada respecto de los cuales se han utilizado las dos imágenes que mejor se corresponden entre sí, para determinar si el GNSS está suministrando datos fiables.
4. - El procedimiento de acuerdo con cualquiera de las reivindicaciones precedentes, en el que la etapa de comparación de la imagen de sensor y de la imagen bidimensional a partir de la base de datos comprende el cálculo de una medida de similitud entre las dos imágenes.
5. - El procedimiento de acuerdo con cualquiera de las reivindicaciones precedentes, en el que la etapa de suministro de una imagen bidimensional a partir de una base de datos basada en los datos de entrada comprende la provisión de la imagen bidimensional a partir de la base de datos de tal manera que sea proyectada sobre el campo de visión del sensor del vehículo aéreo, donde se supone que el vehículo aéreo presenta su ángulo de cabeceo, su ángulo de balanceo, su ángulo de guiñada y la posición tridimensional de acuerdo con los datos de entrada, en el que dicha proyección sobre el campo de visión del sensor del vehículo aéreo se lleva a cabo, de modo preferente, de manera que dicha imagen bidimensional a partir de la base de datos tendrá la misma o al menos básicamente la misma orientación que dicha imagen de sensor.
6. - El procedimiento de acuerdo con cualquiera de las reivindicaciones precedentes, en el que se suministran imágenes de sensor procedentes de diferentes sensores del vehículo aéreo y el procedimiento se lleva a cabo independientemente para la imagen de sensor de cada uno de dichos sensores del vehículo aéreo, tras lo cual, la al menos una cantidad determinada es una combinación de la al menos una cantidad determinada para cada procedimiento llevado a cabo de manera independiente.
7. - El procedimiento de acuerdo con cualquiera de las reivindicaciones precedentes, en el que un ajuste inicial de los datos de entrada comprende informaciones relacionadas con los valores reales supuestos para el vehículo aéreo, especialmente las informaciones relacionadas con los valores reales supuestos respecto del ángulo de cabeceo, el ángulo de balanceo, el ángulo de guiñada y la posición tridimensional del vehículo aéreo.
8. - El procedimiento de acuerdo con cualquiera de las reivindicaciones precedentes, en el que la al menos una cantidad determinada es la al menos una cantidad correspondiente de los datos de entrada respecto de los cuales las dos imágenes mejor se corresponden entre sí.
9. - Un sistema (300) de navegación de un vehículo aéreo (450), comprendiendo el sistema:
- una base de datos (310; 410) que contiene un mapa georreferenciado tridimensional del entorno o un modelo georreferenciado tridimensional del entorno (440),
- al menos un sensor (320) del vehículo aéreo que suministra una imagen (460) de sensor,
- una unidad (330) de tratamiento dispuesta para recibir la imagen (460) de sensor, y de manera reiterada, hasta que se alcance un criterio predeterminado, para ajustar los datos de entrada que comprenden las
informaciones relacionadas con el ángulo de cabeceo, el ángulo de balanceo, el ángulo de guiñada y una posición tridimensional del vehículo aéreo (450), para suministrar (420) imágenes bidimensionales a partir de la base de datos (310) en base a los datos de entada, para comparar la imagen (460) de sensor con una imagen (430) bidimensional a partir de la base de datos (310), para decidir cuáles de las imágenes bidimensionales se corresponden mejor con la imagen (460) de sensor, para determinar al menos una de las siguientes cantidades: ángulo de cabeceo, ángulo de balanceo, ángulo de guiñada y posición tridimensional del vehículo aéreo (450) en base a los datos de entrada respecto de los cuales se obtuvo la mejor correspondencia entre una de las imágenes bidimensionales y la imagen (460) de sensor, y para comunicar dicha al menos una cantidad.
10. - El sistema de acuerdo con la reivindicación 9, que comprende además una unidad (350) de gobierno del vehículo aéreo (450), estando la unidad (350) de gobierno dispuesta para recibir dicha al menos una cantidad comunicada.
11. - El sistema de acuerdo con cualquiera de las reivindicaciones 9 - 10, que comprende varios sensores (320a, 320b, ...) del vehículo aéreo, cada una de las cuales suministra una imagen de sensor, donde la unidad (330) de tratamiento está también dispuesta para llevar a cabo independiente para cada imagen de sensor dichos procesos de recepción de imágenes de sensor, de ajuste de datos de entrada, de provisión de imágenes bidimensionales, de comparación de imágenes y de determinación de al menos una de las siguientes cantidades: ángulo de cabeceo, ángulo de balanceo, ángulo de guiñada y posición tridimensional del vehículo aéreo, y donde la unidad (330) de tratamiento está también dispuesta para determinar al menos una cantidad combinada sobre la al menos una cantidad determinada correspondiente para cada imagen de sensor.
12. - El sistema de acuerdo con cualquiera de las reivindicaciones 9 -11, que comprende además unos medios para determinar una posición tridimensional del vehículo aéreo en base a un sistema global de navegación por satélite, GNSS, y en el que la unidad de tratamiento está dispuesta para determinar al menos la posición tridimensional del vehículo aéreo en base a los datos de entrada respecto de los cuales se obtuvo la mejor correspondencia entre una de las dos imágenes bidimensionales y la imagen de sensor, y en el que la unidad de tratamiento está además dispuesta para comparar la posición tridimensional determinada del vehículo aéreo en base al GNSS con dicha posición tridimensional determinada del vehículo aéreo en base a los datos de entrada respecto de los cuales se obtuvo la mejor correspondencia entre una de las imágenes bidimensionales y la imagen de sensor, y en el que la unidad de tratamiento está dispuesta además para determinar si el GNSS está suministrando datos fiables en base a dicha comparación de las posiciones tridimensionales determinadas.
13. - Programa de ordenador que comprende un código de programa de navegación de un vehículo aéreo, comprendiendo el programa de ordenador la etapa de la provisión de una imagen de sensor a partir de un sensor del vehículo aéreo y, de forma reiterada, hasta que al menos se alcance un criterio predeterminado, llevando a cabo las etapas siguientes:
- el ajuste de los datos de entrada que comprenden las informaciones relacionadas con el ángulo de cabeceo, el ángulo de balanceo, el ángulo de guiñada y la posición tridimensional del vehículo aéreo;
- la provisión de una imagen bidimensional a partir de una base de datos en base a los datos de entrada, donde la base de datos comprende un mapa georreferenciado tridimensional del entorno o un modelo georreferencial tridimensional del entorno,
- la comparación de la imagen de sensor y la imagen bidimensional a partir de la base de datos; y la utilización de los datos de entrada respecto de los cuales las dos imágenes se corresponden mejor entre sí para determinar al menos una de las siguientes cantidades: el ángulo de cabeceo, el ángulo de balanceo, el ángulo de guiñada y la posición tridimensional del vehículo aéreo.
14. - Producto de programa de ordenador que comprende un código de programa almacenado en un medio legible por ordenador para la navegación de un vehículo aéreo, que comprende la etapa del suministro de una imagen de sensor a partir de un sensor del vehículo aéreo, y de manera reiterada, hasta que al menos se alcance un criterio predeterminado, llevando a cabo las etapas de:
- el ajuste de los datos de entrada que comprenden las informaciones relacionadas con el ángulo de cabeceo, el ángulo de balanceo, el ángulo de guiñada y la posición tridimensional del vehículo aéreo;
- la provisión de una imagen bidimensional a partir de una base de datos en base a los datos de entrada, donde la base de datos comprende un mapa georreferenciado tridimensional del entorno o un modelo georreferenciado tridimensional del entorno,
- la comparación de la imagen de sensor y la imagen bidimensional a partir de la base de datos; y
La utilización de los datos de entrada respecto de los cuales las dos imágenes se corresponden mejor entre sí para determinar al menos una de las siguientes cantidades: el ángulo de cabeceo, el ángulo de balanceo, el ángulo de guiñada y la posición tridimensional del vehículo aéreo.
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| PCT/SE2014/050458 WO2015160288A1 (en) | 2014-04-14 | 2014-04-14 | Navigation based on at least one sensor and a 3d map |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| ES2757592T3 true ES2757592T3 (es) | 2020-04-29 |
Family
ID=52875592
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| ES15163511T Active ES2757592T3 (es) | 2014-04-14 | 2015-04-14 | Navegación basada en al menos un sensor y un mapa 3D |
Country Status (6)
| Country | Link |
|---|---|
| US (1) | US9360321B2 (es) |
| EP (1) | EP2933603B1 (es) |
| DK (1) | DK2933603T3 (es) |
| ES (1) | ES2757592T3 (es) |
| PL (1) | PL2933603T3 (es) |
| WO (1) | WO2015160288A1 (es) |
Families Citing this family (8)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US10963749B2 (en) * | 2014-12-12 | 2021-03-30 | Cox Automotive, Inc. | Systems and methods for automatic vehicle imaging |
| CN105843251B (zh) * | 2016-03-28 | 2020-04-07 | 沈阳上博智拓科技有限公司 | 控制飞行器的方法、装置及系统 |
| WO2018034992A1 (en) * | 2016-08-13 | 2018-02-22 | Skymachines, Inc. | Sky machines |
| CN106527137B (zh) * | 2016-11-25 | 2019-08-16 | 天津大学 | 基于观测器的四旋翼无人机容错控制方法 |
| EP3391958B1 (en) | 2017-04-19 | 2020-08-12 | The Procter & Gamble Company | Method of making surface-coated water-absorbing polymer particles in a microfluidic device |
| SE543432C2 (en) * | 2019-06-27 | 2021-02-16 | Vricon Systems Ab | A method and system for navigation of a vehicle |
| IL275198B2 (en) | 2020-06-08 | 2024-07-01 | Elbit Systems Ltd | Systems and methods for landing and terrain flight assistance |
| US11875519B2 (en) * | 2020-08-13 | 2024-01-16 | Medhat Omr | Method and system for positioning using optical sensor and motion sensors |
Family Cites Families (12)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US9121669B1 (en) * | 1994-09-02 | 2015-09-01 | The Boeing Company | System and method for designating a target for a remote aerial vehicle |
| US8055100B2 (en) * | 2004-04-02 | 2011-11-08 | The Boeing Company | Method and system for image registration quality confirmation and improvement |
| US7191056B2 (en) * | 2005-01-04 | 2007-03-13 | The Boeing Company | Precision landmark-aided navigation |
| WO2006105054A2 (en) * | 2005-03-25 | 2006-10-05 | Sarnoff Corporation | Method and system for improving video metadata through the use of frame-to-frame correspondences |
| US8433457B2 (en) * | 2006-01-10 | 2013-04-30 | Harris Corporation | Environmental condition detecting system using geospatial images and associated methods |
| US7528938B2 (en) | 2006-01-10 | 2009-05-05 | Harris Corporation | Geospatial image change detecting system and associated methods |
| US8160758B2 (en) | 2006-05-22 | 2012-04-17 | Honeywell International Inc. | Methods and systems for radar aided aircraft positioning for approaches and landings |
| US8265817B2 (en) | 2008-07-10 | 2012-09-11 | Lockheed Martin Corporation | Inertial measurement with an imaging sensor and a digitized map |
| US20110282580A1 (en) | 2010-05-11 | 2011-11-17 | Honeywell International Inc. | Method of image based navigation for precision guidance and landing |
| EP2390627A1 (en) * | 2010-05-28 | 2011-11-30 | BAE Systems PLC | Simulating a terrain view from an airborne point of view |
| GB201103822D0 (en) * | 2011-03-07 | 2011-04-20 | Isis Innovation | System for providing locality information and associated devices |
| AT511460B1 (de) | 2011-12-02 | 2012-12-15 | Ait Austrian Inst Technology | Verfahren zur bestimmung der position eines luftfahrzeugs |
-
2014
- 2014-04-14 WO PCT/SE2014/050458 patent/WO2015160288A1/en not_active Ceased
- 2014-04-14 US US14/363,261 patent/US9360321B2/en active Active
-
2015
- 2015-04-14 PL PL15163511T patent/PL2933603T3/pl unknown
- 2015-04-14 EP EP15163511.7A patent/EP2933603B1/en active Active
- 2015-04-14 ES ES15163511T patent/ES2757592T3/es active Active
- 2015-04-14 DK DK15163511.7T patent/DK2933603T3/da active
Also Published As
| Publication number | Publication date |
|---|---|
| EP2933603B1 (en) | 2019-10-16 |
| US9360321B2 (en) | 2016-06-07 |
| US20150292888A1 (en) | 2015-10-15 |
| WO2015160288A1 (en) | 2015-10-22 |
| PL2933603T3 (pl) | 2020-05-18 |
| DK2933603T3 (da) | 2019-12-16 |
| EP2933603A1 (en) | 2015-10-21 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| ES2757592T3 (es) | Navegación basada en al menos un sensor y un mapa 3D | |
| US9483842B2 (en) | Navigation based on at least one sensor and a three dimensional map | |
| US20240092485A1 (en) | Method and algorithm for flight, movement, autonomy, in gps, communication, degraded, denied, obstructed non optimal environment | |
| ES2953554T3 (es) | Dron líder | |
| Samad et al. | The potential of Unmanned Aerial Vehicle (UAV) for civilian and mapping application | |
| ES2804898T3 (es) | Captación de corredor | |
| US11372455B2 (en) | Imaging sensor-based position detection | |
| ES2440252T3 (es) | Sistema para localización con precisión de un objetivo en tierra mediante una plataforma de vuelo y método de operación asociado | |
| US9292017B2 (en) | System and method for real-time guidance and mapping of a tunnel boring machine and tunnel | |
| KR102075028B1 (ko) | 무인기 고속비행 중 정밀위치 영상 획득 장치 및 그를 이용한 정밀위치 획득 방법 | |
| US20170023365A1 (en) | System and method for advanced navigation | |
| ES2312971T3 (es) | Procedimiento y sistema de adquisicion pasiva de datos de objetivos. | |
| US20170234129A1 (en) | System and method for real-time guidance and mapping of a tunnel boring machine and tunnel | |
| US8315794B1 (en) | Method and system for GPS-denied navigation of unmanned aerial vehicles | |
| US20110282580A1 (en) | Method of image based navigation for precision guidance and landing | |
| CN107407937B (zh) | 航空器着陆的自动辅助方法 | |
| EP3751233B1 (en) | Multi-aircraft vision and datalink based navigation system and method | |
| US9383210B2 (en) | Image navigation and registration (INR) transfer from exquisite systems to hosted space payloads | |
| WO2024015661A1 (en) | Onboard geolocation for images | |
| Miller et al. | Optical Flow as a navigation means for UAV | |
| US12406586B2 (en) | 3D localization and mapping systems and methods | |
| Stoven-Dubois et al. | Cooperative navigation for an UAV tandem in GNSS denied environments | |
| ELMAS et al. | Multi-sensor Data Fusion for Autonomous Unmanned Aerial Vehicle Navigation in GPS Denied Environments | |
| Evans et al. | Fusion of reference-aided GPS, imagery, and inertial information for airborne geolocation | |
| Cefalu et al. | A mobile multi-sensor platform for building reconstruction integrating terrestrial and autonomous UAV-based close range data acquisition |