ES2568689T3 - Sistema de metrología óptica proyectiva gruesa y fina - Google Patents
Sistema de metrología óptica proyectiva gruesa y fina Download PDFInfo
- Publication number
- ES2568689T3 ES2568689T3 ES12163652.6T ES12163652T ES2568689T3 ES 2568689 T3 ES2568689 T3 ES 2568689T3 ES 12163652 T ES12163652 T ES 12163652T ES 2568689 T3 ES2568689 T3 ES 2568689T3
- Authority
- ES
- Spain
- Prior art keywords
- optical
- light
- image
- distance
- processing unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000003287 optical effect Effects 0.000 title claims abstract description 220
- 230000005693 optoelectronics Effects 0.000 claims abstract description 54
- 238000012545 processing Methods 0.000 claims abstract description 51
- 238000001514 detection method Methods 0.000 claims abstract description 46
- 238000000034 method Methods 0.000 claims abstract description 10
- 230000008569 process Effects 0.000 claims abstract description 3
- 108091006503 SLC26A1 Proteins 0.000 claims description 13
- 101100422538 Escherichia coli sat-2 gene Proteins 0.000 description 21
- 238000006073 displacement reaction Methods 0.000 description 13
- 238000005259 measurement Methods 0.000 description 7
- 230000005855 radiation Effects 0.000 description 4
- 238000000926 separation method Methods 0.000 description 4
- 230000001427 coherent effect Effects 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 230000015572 biosynthetic process Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 230000001419 dependent effect Effects 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 241000269849 Thunnus Species 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 230000000593 degrading effect Effects 0.000 description 1
- 230000005670 electromagnetic radiation Effects 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000003116 impacting effect Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000010287 polarization Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000000284 resting effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S5/00—Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
- G01S5/16—Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using electromagnetic waves other than radio waves
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64G—COSMONAUTICS; VEHICLES OR EQUIPMENT THEREFOR
- B64G1/00—Cosmonautic vehicles
- B64G1/10—Artificial satellites; Systems of such satellites; Interplanetary vehicles
- B64G1/1085—Swarms and constellations
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64G—COSMONAUTICS; VEHICLES OR EQUIPMENT THEREFOR
- B64G1/00—Cosmonautic vehicles
- B64G1/22—Parts of, or equipment specially adapted for fitting in or to, cosmonautic vehicles
- B64G1/24—Guiding or controlling apparatus, e.g. for attitude control
- B64G1/36—Guiding or controlling apparatus, e.g. for attitude control using sensors, e.g. sun-sensors, horizon sensors
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C11/00—Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/24—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for cosmonautical navigation
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S5/00—Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
- G01S5/16—Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using electromagnetic waves other than radio waves
- G01S5/163—Determination of attitude
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/02—Systems using the reflection of electromagnetic waves other than radio waves
- G01S17/06—Systems determining position data of a target
- G01S17/42—Simultaneous measurement of distance and other co-ordinates
Landscapes
- Engineering & Computer Science (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- General Physics & Mathematics (AREA)
- Aviation & Aerospace Engineering (AREA)
- Electromagnetism (AREA)
- Astronomy & Astrophysics (AREA)
- Combustion & Propulsion (AREA)
- Chemical & Material Sciences (AREA)
- Multimedia (AREA)
- Automation & Control Theory (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Optical Communication System (AREA)
- Lenses (AREA)
- Adjustment Of Camera Lenses (AREA)
Abstract
Un sistema de metrología óptica proyectiva que comprende: - un objetivo luminoso (2) formado por un primer número de fuentes de luz (4a-4c) que tienen una disposición espacial preestablecida; - una unidad óptica (6) que comprende un sensor de imagen optoelectrónico (10) que comprende una superficie de detección (A), estando configurada la unidad óptica para recibir una señal luminosa (R1, R2) que procede de dicho objetivo luminoso (2) y para la definir dos trayectorias ópticas diferentes para la señal luminosa hacia dicho sensor de imagen optoelectrónico; y - una unidad de procesamiento electrónico (30) conectada al sensor de imagen optoelectrónico; caracterizado por que las dos trayectorias ópticas están configuradas de modo que la señal luminosa forma, sobre el sensor de imagen optoelectrónico, al menos una imagen (I1; I2) del objetivo luminoso, estando configurada la unidad de procesamiento electrónico para procesar dicha al menos una imagen y para determinar al menos una cantidad que indique la disposición mutua del objetivo luminoso y de la unidad óptica; y en el que las dos trayectorias ópticas, el objetivo luminoso y la superficie de detección están configurados de modo que: - cuando el objetivo luminoso se coloca, respecto a la unidad óptica, a una distancia comprendida en un primer intervalo de distancias ([Dx, dmin]), la señal luminosa forma sobre la superficie de detección, a través de la primera trayectoria óptica de dichos dos trayectorias ópticas, una primera imagen (I1), en base a la que la unidad de procesamiento electrónico es capaz de determinar un número de máximos de intensidad de luz igual a dicho primer número; - cuando el objetivo luminoso se coloca, respecto a la unidad óptica, a una distancia que cae fuera de dicho primer intervalo de distancias ([Dx, dmin]), la señal luminosa no forma alternativamente, a través de dicha primera trayectoria óptica, ninguna imagen sobre la superficie de detección, o si no, forma, a través de dicha primera trayectoria óptica, una imagen en base a la que la unidad de procesamiento electrónico no es capaz de determinar un número de máximos de intensidad de luz igual a dicho primer número; - cuando el objetivo luminoso se coloca, respecto a la unidad óptica, a una distancia comprendida en un segundo intervalo de distancias ([Dmax, dx[), la señal luminosa forma sobre la superficie de detección, a través de la segunda trayectoria óptica de dichas dos trayectorias ópticas, una segunda imagen (I2), en base a la que la unidad de procesamiento electrónico es capaz de determinar un número de máximos de intensidad de luz igual a dicho primer número; y - cuando el objetivo luminoso se coloca, respecto a la unidad óptica, a una distancia que cae fuera de dicho segundo intervalo de distancias ([Dmax, dx[), la señal luminosa no forma alternativamente, a través de dicha segunda trayectoria óptica, ninguna imagen sobre la superficie de detección, o si no, forma, a través de dicha segunda trayectoria óptica, una imagen en base a la que la unidad de procesamiento electrónico no es capaz de determinar un número de máximos de intensidad de luz igual a dicho primer número.
Description
5
10
15
20
25
30
35
40
45
50
55
60
65
DESCRIPCION
Sistema de metrologfa optica proyectiva gruesa y fina
La presente invencion se refiere a un sistema de metrologfa optica de un tipo proyectivo. En particular, la presente invencion contempla un sistema de metrologfa optica proyectiva gruesa y fina.
Como se sabe, hay numerosos sistemas de metrologfa disponibles hoy en dfa, que encuentran su uso, entre otras cosas, en el sector aeroespacial.
En particular, son conocidos los sistemas de metrologfa que tienen la funcion de determinar la orientacion y/o posicion de un satelite. Incluso mas en particular, son conocidos los sistemas de metrologfa que permiten, dados un par de satelites, la determinacion de la posicion mutua y de la orientacion mutua de los dos satelites.
La determinacion de las inclinaciones y posiciones de satelites es de particular importancia en el caso de sistemas de satelites cuyos satelites se disponen en formacion, es decir, en los casos en los que se preve la determinacion de la orientacion y posicion de cada satelite en funcion de la orientacion y posicion de los otros satelites.
En la practica, dados dos satelites, la determinacion de la orientacion mutua y la posicion mutua requiere la determinacion de seis grados de libertad. De hecho, suponiendo un primer sistema de referencia y un segundo sistema de referencia fijos con respecto a un primer satelite y a un segundo satelite, respectivamente, y formados, cada uno, por una tnada respectiva de ejes perpendiculares, la orientacion mutua y la posicion mutua del primer y segundo sistemas de referencia, y por ello del primer y segundo satelites, puede expresarse en terminos de tres desplazamientos (lineales) y tres rotaciones (angulos). En particular, la posicion mutua del primer satelite con respecto al segundo satelite puede expresarse por medio de un conjunto de tres desplazamientos medidos, respectivamente, a lo largo de tres ejes del segundo sistema de referencia. De la misma manera, la orientacion del primer satelite con respecto al segundo satelite puede expresarse por medio de un conjunto de tres angulos, iguales a las rotaciones correspondientes del primer sistema de referencia con respecto al segundo sistema de referencia.
Dicho esto, en general los sistemas de metrologfa optica disponibles hoy en dfa pueden dividirse en los denominados sistemas "gruesos" y los denominados sistemas "finos", de acuerdo con la precision y el campo de aplicacion, viniendo dado este ultimo por el intervalo de distancias que pueden extenderse entre los satelites sin que los niveles de rendimiento se degraden significativamente.
Con mayor detalle, los sistemas de metrologfa fina permiten la determinacion de la posicion mutua de dos satelites con una precision menor de un centimetro, suponiendo que los satelites no se coloquen con una distancia de separacion mayor de aproximadamente cincuenta metros. Algunos sistemas de metrologfa fina permiten incluso la determinacion de la posicion mutua de dos satelites con una precision del orden de una decima de milfmetro, siempre que los satelites no se coloquen a una distancia de separacion mayor de un metro.
En cambio, los sistemas de metrologfa gruesa se caracterizan por una precision no inferior a aproximadamente diez centimetros. Sin embargo, pueden funcionar tambien cuando la distancia entre los satelites es mayor de cincuenta metros, por ejemplo tambien hasta distancias de veinte kilometros.
A modo de ejemplo, los sistemas de metrologfa gruesa comprenden sistemas de metrologfa basados en el uso del sistema de posicionamiento global por satelite (GPS), asf como sistemas de metrologfa basados en el uso de radiaciones de radiofrecuencia, descansando estos ultimos en redes de antenas considerablemente complejos.
En lo que se refiere, en cambio, a los sistemas de metrologfa fina, hay sistemas conocidos en la tecnica de un tipo al menos en parte proyectivo, que preve que, dados dos satelites, uno de ellos este equipado con un objetivo formado por un numero N de fuentes de luz, y el otro este equipado con una unidad optica, que incluye un sensor optoelectronico capaz de adquirir una imagen del objetivo, en base a la que, por medio de un procesamiento posterior, la unidad optica determina por sf misma uno o mas de los grados de libertad anteriormente mencionados.
A modo de ejemplo, la solicitud de patente n.° EP1986018 describe un sistema para la determinacion de la posicion y orientacion de un sistema con seis grados de libertad, y en el que el numero N de fuentes de luz del objetivo es igual a uno. Sin embargo, para permitir la determinacion de todos los seis grados de libertad, el sistema descrito en el documento n.° EP1986018 requiere que la fuente de luz individual este formada por una fuente de luz coherente tal como, por ejemplo, un laser, y requiere ademas que la unidad optica sea capaz de llevar a cabo, ademas del procesamiento de las imagenes del objetivo, mediciones de la potencia efectivamente recibida por el sensor optoelectronico y una medicion angular de la rotacion de la polarizacion del haz de luz emitido por la fuente de luz coherente.
Incluso con mas detalle, con referencia a un primer satelite y a un segundo satelite, y suponiendo que el objetivo este situado sobre el primer satelite, el sistema descrito en el documento n.° EP1986018 preve que la unidad optica a bordo del segundo satelite este equipada con tres detectores optoelectronicos que sean capaces de detectar, cada
5
10
15
20
25
30
35
40
45
50
55
60
65
uno, la potencia asociada con la fraccion de la radiacion electromagnetica emitida por la fuente de luz coherente y que impacta sobre el detector optoelectronico en sf En consecuencia, el sistema descrito en el documento n.° EP1986018 no es un tipo puramente proyectivo.
Son conocidos por otro lado sistemas de metrolog^a que no preven la determinacion de mediciones de potencia, es decir, sistemas de metrologfa de un tipo puramente proyectivo. Un ejemplo de dichos sistemas de metrolog^a se proporciona en el documento n.° US7.561.262, en donde las fuentes de luz estan formadas por reflectores disenados para disponerse sobre el primer satelite, que se iluminan por la radiacion emitida por el segundo satelite. Mas aun hay sistemas conocidos de metrologfa fina de un tipo puramente proyectivo, en los que el objetivo esta formado por un numero particularmente grande de fuentes de luz (por ejemplo, ocho).
Ademas, son conocidos sistemas de vision estereoscopica, tal como por ejemplo el sistema descrito en el documento n.° FR2702056, en el que se proporcionan dos trayectorias opticas diferentes, que se caracterizan por una y la misma longitud focal y se conectan opticamente a una y la misma superficie sensible. En esta forma, para cada objeto formado sobre la superficie sensible hay dos imagenes correspondientes, que definen una imagen tridimensional del objeto.
Hay ademas sistemas disponibles disenados para determinar la forma de la superficie de un objetivo. Por ejemplo, el sistema descrito en el documento n.° US2011/0043808 comprende un dispositivo disenado para irradiar el objetivo, asf como un dispositivo de visualizacion disenado para recibir la radiacion reflejada por el objetivo y para transmitirla hacia una pluralidad de superficies sensibles.
Aunque los sistemas de metrologfa fina se caracterizan por un alto grado de precision, a diferencia de los sistemas de metrologfa gruesa, pueden funcionar de una forma optima solamente si las distancias entre los satelites son limitadas, como se ha mencionado previamente. En consecuencia, se siente la necesidad de disponer de un sistema de metrologfa capaz de operar tanto en el caso en que la distancia entre el objetivo y la unidad optica esta limitada como en el caso en que la distancia entre el objetivo y la unidad optica es grande. En conexion con esto, el sistema de medicion y seguimiento descrito en el documento n.° US2008/0111985 comprende dos trayectorias opticas, que comparten una y la misma entrada optica, pero finalizan sobre dos superficies fotosensibles diferentes y tienen diferentes longitudes focales. En esta forma, el sistema de medicion y seguimiento extiende el alcance de las distancias entre el objetivo y la unidad optica dentro de las que el sistema en sf se caracteriza por una alta precision.
En la practica, dado que cada imagen esta formada por una pluralidad de puntos de imagen correspondientes, el sistema de medicion y seguimiento descrito en el documento n.° US2008/0111985 descansa en dos superficies fotosensibles diferentes para adquirir las dos imagenes correctamente, es decir, para asociar cada punto de imagen a la imagen respectiva, permitiendo asf un procesamiento correcto de las imagenes en sf De esta forma, no es necesario usar algoritmos de procesamiento o hardware adicional disenado para determinar cual de los puntos de imagen pertenecera a una primera imagen y cual a una segunda imagen. Sin embargo, se hace en efecto necesario el uso de dos superficies fotosensibles.
La intencion de la presente invencion es proporcionar un sistema de metrologfa optica proyectiva que resolvera al menos en parte los inconvenientes de la tecnica conocida.
De acuerdo con la invencion, se proporciona un sistema de metrologfa optica proyectiva tal como se define en las reivindicaciones adjuntas.
Para una mejor comprension de la invencion, se describen ahora realizaciones de la misma, puramente a modo de ejemplo no limitativo y con referencia a los dibujos adjuntos, en los que:
- las Figuras 1 y 9 muestran diagramas de bloque de sistemas de satelite;
- la Figura 2 es una ilustracion esquematica de un objetivo luminoso;
- la Figura 3 muestra un diagrama de bloques de una unidad optica de acuerdo con la presente invencion;
- las Figuras 4 y 6 muestran diagramas de bloque de un sistema de metrologfa optica que usa la unidad optica mostrada en la Figura 3;
- las Figuras 5 y 7 son vistas frontales cualitativas de una superficie de deteccion de un sensor optoelectronico de la unidad optica mostrada en la Figura 3; y
- la Figura 8 muestra cualitativamente la formacion de imagenes sobre la superficie de deteccion del sensor optoelectronico de la unidad optica mostrada en la Figura 3.
La Figura 1 muestra un sistema de metrologfa optica de un tipo proyectivo, de aqrn en adelante denominado por brevedad como "sistema de metrologfa 1". El sistema de metrologfa 1 se describe ademas en lo que sigue con referencia particular a una aplicacion de tipo satelite, incluso aunque puede encontrar uso en diferentes esferas de aplicacion, tal como se menciona en lo que sigue.
En detalle, el sistema de metrologfa 1 comprende un objetivo 2 disenado para estar restringido a un primer satelite sat1 y una unidad optica 6 disenada para estar restringida a un segundo satelite sat2.
5
10
15
20
25
30
35
40
45
50
55
60
65
Tal como se muestra con mayor detalle en la Figura 2, el objetivo 2 comprende una primera fuente de luz 4a, una segunda fuente de luz 4b, y una tercera fuente de luz 4c, formadas cada una, por ejemplo, por un diodo emisor de luz (LED) correspondiente. La primera, segunda, y tercera fuentes de luz 4a-4c se disponen de forma coplanaria y en los vertices de un triangulo hipotetico, por ejemplo un triangulo isosceles o equilatero. En particular, en la hipotesis de fuentes de luz casi puntuales, suponiendo un primer sistema de referencia xi, yi, zi fijo con respecto al primer satelite satl y formado por tres ejes xi, yi, zi ortogonales entre s^ y suponiendo ademas que el eje zi es perpendicular al plano en el que se disponen la primera, segunda, y tercera fuentes de luz 4a-4c, y que la segunda y tercera fuentes de luz 4b-4c se disponen a lo largo del eje xi, es posible expresar los puntos del espacio en los que la primera, segunda y tercera fuentes de luz 4a-4c estan localizadas, respectivamente, como [0, Yo, 0], [-Xo, 0, 0], y [Xo, 0, 0].
Tal como se muestra en la Figura 3, la unidad optica 6 comprende un sensor optoelectronico i0, una lente de entrada i2 disenada para recibir los rayos opticos generados por el objetivo 2, un primer divisor del haz optico i4 y un segundo divisor del haz optico i6, un primer elemento reflectante i8 y un segundo elemento reflectante 20, y una primera lente intermedia 22 y una segunda lente intermedia 24. Puramente a modo de ejemplo, la lente de entrada i2 y la primera y segunda lentes intermedias 22, 24 pueden ser concavas.
La unidad optica 6 comprende adicionalmente una unidad de procesamiento electronico 30, que se conecta electricamente al sensor optoelectronico i0.
Con mayor detalle, la lente de entrada i2, el primer divisor del haz optico i4, la primera lente intermedia 22, el segundo divisor del haz optico i6, y el sensor optoelectronico i0 se disponen en sucesion y opticamente alineados. En otras palabras, el primer divisor del haz optico i4 se dispone entre la lente de entrada i2 y la primera lente intermedia 22, que a su vez se dispone entre el primer y segundo divisores del haz optico i4, i6. Finalmente, el segundo divisor del haz optico i6 se dispone entre la primera lente intermedia 22 y el sensor optoelectronico i0.
Los ejes opticos de la lente de entrada i2 y de la primera lente intermedia 22 son aproximadamente coincidentes y pasan sustancialmente a traves del centro del sensor optoelectronico i0. A modo de ejemplo, en la Figura 3 los ejes opticos (coincidentes) de la lente de entrada i2 y de la primera lente intermedia 22 se designan por OA; por simplicidad, en lo que sigue, seran denominados como el "sistema de ejes OA".
Por simplicidad de la descripcion, y sin perdida ninguna de generalidad, en lo que sigue se supone que la lente de entrada i2 y la primera y segunda lentes intermedias 22, 24 son delgadas. Dicho esto, la lente de entrada i2, el primer divisor del haz optico i4, la primera lente intermedia 22 y el segundo divisor del haz optico i6 forman un primer circuito optico, que se denominara en el presente documento a continuacion como "primer tren optico OTi".
Desde un punto de vista optico, el primer tren optico OTi tiene un primer plano principal posterior Pi y una primera longitud focal efectiva posterior fi, denominados en el presente documento a continuacion por brevedad respectivamente como el "primer plano principal Pi" y la "primera longitud focal fi". Puramente a modo de ejemplo, en la Figura 3 el primer plano principal Pi se dispone entre el primer divisor del haz optico i4 y la primera lente intermedia 22.
La posicion del primer plano principal Pi y de la primera longitud focal fi se pueden determinar en una forma conocida en sf misma y dependiente de la longitud focal de la lente de entrada i2, la longitud focal de la primera lente intermedia 22, y la distancia entre ellas.
En lo que se refiere, en cambio, a la segunda lente intermedia 24, se dispone entre el primer y segundo elementos reflectantes i8, 20, de tal manera que la lente de entrada i2, el primer divisor del haz optico i4, el primer elemento reflectante i8, la segunda lente intermedia 24, el segundo elemento reflectante 20, y el segundo divisor del haz optico i6 forman un segundo circuito optico, que se denominara en el presente documento a continuacion como el "segundo tren optico OT2".
Desde un punto de vista optico, el primer tren optico OT2 tiene un segundo plano principal posterior P2 y una segunda longitud focal efectiva posterior f2, denominados en el presente documento a continuacion por brevedad respectivamente como el "segundo plano principal P2" y la "segunda longitud focal f2". Puramente a modo de ejemplo, en la Figura 3 el segundo plano principal P2 se dispone entre el primer divisor del haz optico i4 y el primer elemento reflectante i8.
La posicion del segundo plano principal P2 y de la segunda longitud focal f2 se pueden determinar en una forma conocida en sf misma y dependiente de la longitud focal de la lente de entrada i2, la longitud focal de la segunda lente intermedia 24, y la distancia entre ellas.
En detalle, la segunda longitud focal f2 es mayor que la primera longitud focal fi. En conexion con esto, para obtener f2 > fi, es suficiente que la segunda lente intermedia 24 tenga una longitud focal mayor que la longitud focal de la primera lente intermedia 22.
5
10
15
20
25
30
35
40
45
50
55
60
65
Operativamente, si los rayos opticos generados por el objetivo 2 y recibidos por la lente de entrada 12 se denominan como "rayos opticos globales", una primera fraccion de los rayos opticos globales se enfoca en el primer tren optico OT1 sobre el sensor optoelectronico 10, a lo largo del eje del sistema OA, es decir, despues de atravesar el primer divisor del haz optico 14, la primera lente intermedia 22, y el segundo divisor del haz optico 16. La primera fraccion de los rayos opticos globales, que se denominara en el presente documento a continuacion como "primer haz optico", se muestra en la Figura 4 en una forma puramente cualitativa, en la que se designa por R1. En la practica, el primer haz optico R1 comprende los rayos opticos que atraviesan, ademas de la lente de entrada 12 y la primera lente intermedia 22, tambien el primer y segundo divisores del haz optico 14, 16, sin ser reflejados por ellos.
El primer tren optico OT1 define por ello una primera trayectoria optica, dispuesto entre la lente de entrada 12 y el sensor optoelectronico 10 y que tiene una primera longitud h, entendida como la distancia que los rayos opticos del primer haz optico R1 anteriormente mencionado cubren para alcanzar, partiendo desde la lente de entrada 12, el sensor optoelectronico 10.
En lo que se refiere, en cambio, al segundo tren optico OT2, el primer elemento reflectante 18 se dispone de modo que reciba una segunda fraccion de los rayos opticos globales, que comprende, en el caso considerado, la parte de los rayos opticos globales que, despues de atravesar la lente de entrada 12, son reflejados por el primer divisor del haz optico 14. La segunda fraccion de los rayos opticos globales, que se denominara en el presente documento a continuacion como el "segundo haz optico", se muestra en la Figura 4 en una forma puramente cualitativa, en la que se designa por R2. En la practica, el primer divisor del haz optico 14 funciona de modo que separa el primer y el segundo haces opticos R1, R2.
El primer elemento reflectante 18, la segunda lente intermedia 24, y el segundo elemento reflectante 20 se disponen ademas de tal manera que el segundo haz optico R2 es reflejado por el primer elemento reflectante 18 en la direccion de la segunda lente intermedia 24. Despues de atravesar la segunda lente intermedia 24, el segundo haz optico R2 es recibido por el segundo elemento reflectante 20, que lo refleja en la direccion del segundo divisor del haz optico 16. Finalmente, el segundo divisor del haz optico 16 refleja el segundo haz optico R2 en la direccion del sensor optoelectronico 10, una vez mas a lo largo del sistema OA. En la practica, el segundo divisor del haz optico 16 funciona de modo que recombina el primer y el segundo haces opticos R1, R2.
Operativamente, el segundo tren optico OT2 es capaz de dirigir al segundo haz optico R2 hacia el sensor optoelectronico 10. El segundo tren optico OT2 define por ello una segunda trayectoria optica, dispuesta entre la lente de entrada 12 y el sensor optoelectronico 10 y que tiene una segunda longitud h, mayor que la primera longitud h y entendida como la distancia que cubren los rayos opticos del segundo haz optico R2 anteriormente mencionado para alcanzar, partiendo desde la lente de entrada 12, el sensor optoelectronico 10.
La segunda trayectoria optica no atraviesa la primera lente intermedia 22, y ademas comparte con la primera trayectoria optica un unico punto de entrada, definido por la lente de entrada 12, y un unico punto final, definido por el sensor optoelectronico 10.
Una vez mas con referencia la Figura 3, el primer y segundo planos principales P1, P2 se situan separados del primer sensor optoelectronico 10, respectivamente, en una primera distancia d1 y una segunda distancia d2, medidas a lo largo de la primera y segunda trayectorias opticas, respectivamente. En otras palabras, despreciando la orientacion de los rayos opticos con respecto al eje del sistema OA, el primer haz optico R1 se propaga, para alcanzar el sensor optoelectronico 10 partiendo desde el primer plano principal P1, a lo largo de una distancia igual a d-i. De la misma manera, el segundo haz optico R2 se propaga, para alcanzar el sensor optoelectronico 10 partiendo desde el segundo plano principal P2, a lo largo de una distancia igual a d2.
Como se muestra en la Figura 5, el sensor optoelectronico 10 puede formarse, por ejemplo, mediante un dispositivo de acoplamiento de cargas (CCD), y tiene una superficie de deteccion A que tiene, por ejemplo, una forma cuadrada. La superficie de deteccion A esta formada por una matriz de M elementos de imagen generalmente conocidos como pfxeles 11 y se dispone, como se ha mencionado previamente, en una direccion perpendicular al eje del sistema Oa, es decir, en una direccion perpendicular a los ejes opticos de la lente de entrada 12 y de la primera lente intermedia 22. Ademas, el centro geometrico de la superficie de deteccion A se dispone preferiblemente a lo largo del eje del sistema OA. En la practica, el sensor optoelectronico 10 es un denominado sensor de imagen.
Dicho esto, preferiblemente la primera y segunda distancias d1, d2 anteriormente mencionadas son sustancialmente iguales, respectivamente, a la primera y segunda longitudes focales f1 y f2. En consecuencia, dada una fuente de luz hipotetica dispuesta a una distancia infinita del segundo satelite sat2, el primer y segundo haces opticos R1, R2 correspondientes se enfocan sustancialmente en un unico punto de la superficie de deteccion A del sensor optoelectronico 10.
En lo que se refiere, en cambio, al objetivo 2, situado inevitablemente a una distancia no infinita desde el segundo satelite sat2, se forman en el sensor optoelectronico 10 una primera y una segunda imagen del objetivo 2.
5
10
15
20
25
30
35
40
45
50
55
60
65
Con mayor detalle, tal como se muestra cualitativamente una vez mas en la Figura 4, la primera y segunda longitudes focales f y f2 son tales que cuando el primer satelite satl, y por ello el objetivo 2, estan a una distancia Di (con Di >> f2) desde el segundo satelite sat2, el primer haz optico Ri incide efectivamente en la superficie de deteccion A del sensor optoelectronico 10, coincidiendo alK en la determinacion de una primera distribucion de M intensidades de luz, tal como se detectan por los M pfxeles 11 del sensor optoelectronico 10.
En la practica, tal como se muestra en la Figura 5, el primer haz optico R1 forma sobre la superficie de deteccion A del sensor optoelectronico 10 una primera imagen I1 del objetivo 2, formada por un primer punto de imagen 4a', un segundo punto de imagen 4b', y un tercer punto de imagen 4c' correspondientes, respectivamente, a la primera, segunda, y tercera fuentes de luz 4a-4c.
Tambien el segundo haz optico R2 incide sobre la superficie de deteccion A del sensor optoelectronico 10 y coincide, en este caso, para formar la primera distribucion de M intensidades de luz. En particular, el segundo haz optico R2 forma sobre la superficie de deteccion A del sensor optoelectronico 10 una segunda imagen I2 del objetivo 2, formada por un cuarto punto de imagen 4a", un quinto punto de imagen 4b" y un sexto punto de imagen 4c", correspondientes, respectivamente, a la primera, segunda, y tercera fuentes de luz 4a-4c. Se debena tomar nota que, por simplicidad de exposicion, en la Figura 5 se supone que cada punto de imagen excita un unico pixel, incluso aunque tipicamente cada punto de imagen excite un numero de pfxeles mayor de uno.
En base a la primera distribucion de M intensidades de luz, la unidad de procesamiento electronico 30 es capaz de determinar un primer pixel, un segundo pixel, y un tercer pixel designados por 11a, 11b, y 11c, respectivamente, que corresponden al cuarto, quinto, y sexto puntos de imagen 4a"-4c", respectivamente.
Por ejemplo, la unidad de procesamiento electronico 30 puede identificar el primer, segundo, y tercer pfxeles 11a- 11c por medio de una busqueda de los maximos relativos entre las M intensidades de luz de la primera distribucion de M intensidades de luz. En este caso, en una forma conocida por sf misma, el primer, segundo, y tercer pfxeles 11a-11c se caracteriza por que, considerando cualquiera de ellos, la intensidad de luz detectada de ese modo es mayor que las intensidades de luz detectadas por los pfxeles que lo rodean.
En otras palabras, el cuarto, quinto, y sexto puntos de imagen 4a"-4c" pueden identificarse electronicamente como distintos entre sf, y en particular correspondientes a tres pfxeles diferentes. Esto significa que la segunda imagen I2 es clara; concretamente, puede procesarse electronicamente por la unidad de procesamiento electronico 30 de tal manera que identifique, en una forma conocida por sf misma, un numero de maximos relativos de intensidades de luz igual al numero de fuentes de luz presentes en el objetivo 2 (en el caso considerado, tres), correspondientes dichos maximos relativos de intensidad de luz al cuarto, quinto, y sexto puntos de imagen 4a"-4c".
En cambio, el primer, segundo, y tercer puntos de imagen 4a'-4c' excitan solamente un pixel, en el caso considerado un cuarto pixel designado por 11d. En consecuencia, no pueden identificarse electronicamente como distintos entre sf En otras palabras, la primera imagen I1 del objetivo 2 no es clara.
En la practica, el hecho de que una imagen generica formada sobre la superficie de deteccion A del sensor optoelectronico 10 sea clara depende, en una forma conocida por sf misma, de las dimensiones del objetivo 2, la distancia del objetivo 2 desde el segundo satelite sat2, la longitud focal del tren optico correspondiente que lo ha generado, asf como el area de la superficie de deteccion A del sensor optoelectronico 10. En conexion con esto, en lo que sigue, se supondra, sin que esto implique ninguna perdida de generalidad, que la superficie de deteccion A tiene una forma cuadrada de lado Q, y que cada pixel 11 tiene una forma cuadrada de lado q.
Mas aun, estrictamente hablando, el hecho de que una imagen generica sea clara o lo contrario depende de las tecnicas de procesamiento (conocidas) adoptadas por la unidad de procesamiento electronico 30 para procesar la distribucion de M intensidades de luz detectadas por los M pfxeles 11. De hecho, incluso aunque es posible, como se ha descrito anteriormente, que la unidad de procesamiento electronico 30 determine los maximos relativos de la intensidad de luz directamente en base a las intensidades de luz detectadas por los pfxeles 11, es posible ademas que la determinacion de los maximos relativos se lleve a cabo por medio del denominado metodo centroide, o metodos similares. En particular, el metodo centroide, descrito por ejemplo en "Error analysis of CCD-based point source centroid computation under the background light", por Xiaoyu Ma, Changhui Rao y Hanqing Zheng, OPTICS EXPRESS Vol. 17, n.° 10 y en "Improved Iteration Centroid Algorithm Based on Linear CCD Lightspot Location", Shengjin Tang, Zhaofa Zhou, Xiaosong Guo, Yongchao Xiao, The Ninth International Conference on Electronic Measurement & Instruments, ICEMI 2009, concibe la interpolacion de las intensidades de luz detectadas por los pfxeles 11, en sf mismas discretizadas en el espacio, para determinar curvas de interpolacion continuas en el espacio (por ejemplo, curvas gaussianas), en base a las cuales se determinan los maximos relativos.
Debena tomarse nota que, en el caso de que la unidad de procesamiento electronico 30 determine los maximos relativos de la intensidad de luz meramente en base a las intensidades de luz detectadas por los pfxeles 11, sin operaciones de interpolacion, una imagen generica es clara si la unidad de procesamiento electronico 30 es capaz de identificar, para cada punto de imagen de la imagen generica, un pixel correspondiente que presente un maximo relativo de intensidad de luz. Si ocurre esto, la unidad de procesamiento electronico 30 asociara los puntos de
5
10
15
20
25
30
35
40
45
50
55
60
65
imagen de la imagen generica a las coordenadas de los p^xeles correspondientes. Por ejemplo, en el caso del cuarto, quinto y sexto puntos de imagen 4a"-4c", se asocian, respectivamente, a las coordenadas (descritas en el presente documento a continuacion) del primer, segundo, y tercer pfxeles 11a-11c. En consecuencia, la maxima discretizacion que es posible conseguir en la determinacion de la posicion, dentro de la superficie de deteccion A, de posibles puntos de imagen es igual al lado q de un unico pixel.
En cambio, mediante la adopcion de tecnicas de interpolacion conocidas, tal como por ejemplo el metodo centroide, es posible obtener una discretizacion espacial menor que q, es decir, es posible asociar a la imagen puntos de coordenadas que tengan una discretizacion menor que q. De hecho, para que una imagen sea clara es suficiente que la unidad de procesamiento electronico 30 sea capaz de identificar, en base a las M intensidades de luz detectadas por los pfxeles 11 y en una forma conocida por sf misma, un numero de maximos relativos de intensidad de luz igual al numero de fuentes de luz presentes en el objetivo 2, independientemente de si, en base a las intensidades de luz detectadas por los pfxeles y a la busqueda solo de los maximos relativos entre dichas intensidades de luz, es posible identificar un numero de pfxeles que corresponden al numero de fuentes de luz presentes en el objetivo. Por ejemplo, la identificacion de un numero de pfxeles que corresponden al numero de fuentes de luz presentes en el objetivo 2, puede impedirse por el hecho de que dicha busqueda suministre un numero de maximos relativos menor o mayor que el numero de fuentes de luz.
Por simplicidad de descripcion, en lo que sigue se supondra, excepto donde se especifique lo contrario, que la unidad de procesamiento electronica 30 determina los maximos relativos de intensidad de luz meramente en base a la busqueda de los maximos relativos entre las intensidades de luz detectadas por los pfxeles 11, sin operaciones de interpolacion, y por ello que el cuarto, quinto, y sexto puntos de imagen 4a"-4c" estan asociados, respectivamente, a las coordenadas del primer, segundo, y tercer pfxeles 11a-11c.
Una vez mas con referencia a la primera y segunda imagenes I1 e I2 basadas en la Figura 5, la unidad de procesamiento electronico 30 filtra electronicamente, en una forma conocida por sf misma, los pfxeles correspondientes a la primera imagen I1, en el caso considerado el cuarto pixel 11d. En la practica, la unidad de procesamiento electronico 30 no considera el cuarto pixel 11d para las operaciones de procesamiento descritas en el presente documento a continuacion. Estas operaciones de filtrado pueden llevarse a cabo antes o despues de la identificacion del primer, segundo, y tercer pfxeles 11a-11c. En otras palabras, la unidad de procesamiento electronico 30 selecciona la segunda imagen I2.
A continuacion, la unidad de procesamiento electronico 30 calcula la posicion mutua del primer y segundo satelites sat1 y sat2 en base a la segunda imagen I2, y en particular, en base a las coordenadas del primer, segundo, y tercer pfxeles 11a-11c.
En conexion con esto, suponiendo un segundo sistema de referencia x2, y2, z2 formado por tres ejes x2, y2, z2 (Figura 5) ortogonales entre sf, fijos con respecto al segundo satelite sat2 y de modo que la superficie de deteccion A del sensor optoelectronico 10 repose en el plano definido por los ejes x2 e y2, las coordenadas de cada uno del primer, segundo, y tercer pfxeles 11a-11c pueden expresarse como tnadas, respectivamente, del tipo [X2a, y2a,0], [X2b, y2b, 0] y [X2c, y2c, 0].
Dicho esto, en una forma conocida por sf misma, la unidad de procesamiento electronico 30 determina por medio de algoritmos conocidos, y en base a la forma (conocida) del objetivo 2 y de las tnadas [X2a, y2a, 0], [X2b, y2b, 0], [X2c, y2c, 0], una tnada de desplazamientos mutuos [Ax, Ay, Az] entre el primer y segundo satelites sat1 y sat2. Puramente a modo de ejemplo, para determinar la tnada de desplazamientos [Ax, Ay, Az], la unidad de procesamiento electronico 30 puede usar algoritmos conocidos en sf mismos en el campo de la metrologfa proyectiva. En conexion con esto, se debena tomar nota que, en general, de acuerdo con el numero de fuentes de luz y de acuerdo con el algoritmo usado, la unidad de procesamiento electronico 30 es capaz de determinar solo algunos de entre los desplazamientos de la tnada de desplazamientos [Ax, Ay, Az], o tambien puede ser capaz de determinar grados adicionales de libertad. Por ejemplo, en el caso de que el numero de fuentes de luz del objetivo 2 sea en efecto igual a tres, es posible determinar tambien una rotacion del objetivo 2 con respecto al eje z-i, contemplando esta ultima informacion la orientacion mutua del primer y segundo satelites sat1 y sat2. Alternativamente, y una vez mas a modo de ejemplo, en el caso de que el numero de fuentes de luz sea igual a dos, es posible determinar los desplazamientos Ax, Ay, en ausencia de rotaciones del objetivo 2 alrededor de los ejes del sistema de referencia x1, y1, z1.
Tal como se ha ilustrado en la Figura 6, la primera y segunda longitudes focales f y f2 son ademas tales que, cuando el primer y segundo satelites sat1, sat2 estan a una distancia D2 (con D2 < D1), el segundo haz optico R2 no incide efectivamente sobre el sensor optoelectronico 10, sino que en su lugar se dirige al exterior de la superficie de deteccion A, mientras que justamente el primer haz optico R1 incide sobre la superficie de deteccion, formando aqm una segunda distribucion de M intensidades de luz, tal como se detecta por los M pfxeles 11 del sensor optoelectronico 10.
En la practica, tal como se muestra en la Figura 7, el segundo haz optico R2 formana una imagen correspondiente solo en el caso de que, en lugar de la superficie de deteccion A del sensor optoelectronico 10, hubiese una
5
10
15
20
25
30
35
40
45
50
55
60
65
superficie de dimensiones mayores que la superficie de deteccion A. En este caso, se formanan tres puntos de imagen correspondientes, designados en la Figura 7 por 4ai, 4bi y 4ci.
En cambio, el primer haz optico Ri continua formando sobre la superficie de deteccion A del sensor optoelectronico 10 la primera imagen Ii del objetivo 2, que es clara. De hecho, la primera imagen Ii se forma mediante un septimo punto de imagen 4a"', un octavo punto de imagen 4b"' y un noveno punto de imagen 4c"', que se situan a una distancia en un grado tal que permite a la unidad de procesamiento electronico 30 identificar un quinto pixel 11e, un sexto pixel 11f y un septimo pixel 11g, a traves de la busqueda de los maximos relativos entre las M intensidades de luz detectadas por los pfxeles 11.
En una forma similar a la que se ha explicado previamente, la unidad de procesamiento electronico 30 es capaz asf de determinar, en base a las tnadas [X3a, y3a, 0], [X3b, y3b, 0], y [X3c, y3c, 0] que indican las coordenadas del quinto, sexto y septimo pfxeles 11e-11g, una nueva tnada de desplazamientos mutuos [Ax, Ay, Az] entre el primer y el segundo satelites sat1 y sat2. En lo que se refiere a la posibilidad de determinacion, por la unidad de procesamiento electronico 30, de solo algunos de los desplazamientos de la tnada de desplazamientos [Ax, Ay, Az], o incluso cantidades adicionales, son aplicables las consideraciones anteriormente realizadas. En lo que sigue se supone, por simplicidad, que la unidad de procesamiento electronico 30 determinara la tnada completa de desplazamientos [Ax, Ay, Az].
En la practica, gracias a la presencia del primer y segundo trenes opticos OT1 y OT2, que tienen diferentes longitudes focales, la unidad de procesamiento electronico 30 es capaz de determinar los desplazamientos mutuos entre el primer y segundo satelites sat1 y sat2 tanto a la distancia D1 como a la distancia D2, que pueden ser muy diferentes entre sb Por ejemplo, la distancia D1 puede ser de 2 km, mientras que la distancia D2 puede ser de 20 m. En consecuencia, el sistema de metrologfa 1 puede funcionar en un amplio intervalo distancias entre el primer y segundo satelites sat1 y sat2. Ademas, el sistema de metrologfa 1 se puede dimensionar en funcion de un intervalo deseado de distancias entre el primer y segundo satelites sat1 y sat2 tras el previo conocimiento de las dimensiones del objetivo.
En detalle, para permitir que el sistema de metrologfa 1 funcione para distancias comprendidas entre una distancia maxima Dmax y una distancia minima Dmin, es posible determinar la primera y segunda longitudes focales fi, f2 tal como se describe en el presente documento a continuacion. En conexion con esto, se supone que, dada cualquier distancia entre el primer y segundo satelites sat1 y sat2, el primer y segundo trenes opticos OT1 y OT2 produce, en un plano hipotetico de extension infinita y que contiene la superficie de deteccion, dos imagenes diferentes del objetivo 2. En particular, la imagen producida por el segundo tren optico OT2 tiene dimensiones mayores que la producida por el primer tren optico OT1 debido a que la segunda longitud focal f2 es mayor que la primera longitud focal f1 y de ah el segundo tren optico OT2 se caracteriza, en comparacion con el primer tren optico OT1, por una ampliacion mayor.
Dicho esto, es posible determinar la segunda longitud focal f2 de modo que, cuando el objetivo 2 esta a la maxima distancia Dmax de la unidad optica 6, la imagen correspondiente suministrada por el segundo tren optico OT2 sea clara. Suponiendo, por simplicidad de calculo, que el objetivo esta formado solamente por dos fuentes de luz colocadas con una distancia de separacion O, dicha condicion se cumple si la imagen suministrada por el segundo tren optico OT2 ocupa al menos dos pfxeles en el sensor optoelectronico 10. Para esta finalidad, podemos imponer f2 = (Dmax Hq)/O, en la que Hq es igual a 2 q (siendo q la longitud del lado de un pixel).
De la misma manera, es posible determinar la primera longitud focal f1 de modo que, cuando el objetivo 2 esta a la minima distancia Dmin de la unidad optica 6, la imagen correspondiente suministrada por el primer tren optico OT1, ademas de ser clara, esta contenida exactamente dentro de la superficie de deteccion A. Suponiendo una vez mas, por simplicidad de calculo, que el objetivo esta formado solamente por dos fuentes de luz colocadas con una distancia de separacion O, podemos imponer f1 = (DminQ)/0, en la que Q es la longitud del lado de la superficie A. por ejemplo, suponiendo Dmin = 20 m y Q = 12,79 mm, y suponiendo que el objetivo subtiende a una distancia Dmin un angulo de ±4°, al que corresponde 0 = 2,797 m, tenemos f1 = 91,45 mm.
Se debena tomar nota que, estrictamente hablando, la distancia maxima Dmax es la distancia entre el objetivo 2 y el segundo plano principal P2, mientras que la distancia minima Dmin es la distancia entre el objetivo 2 y el primer plano principal P1. Por simplicidad de descripcion, sin embargo, se hace referencia generica a la distancia entre el objetivo 2 y la unidad optica 6.
Como se muestra cualitativamente en la Figura 8, la primera y segunda distancias focales f1 y f2, el objetivo 2, y la superficie de deteccion A son ademas tales que, designando por Dx la maxima distancia entre el primer y el segundo satelites sat1 y sat2 de modo que la primera imagen I1 sea clara, a esta distancia Dx se encuentra ademas que el segundo haz optico R2 se proyecta inmediatamente fuera de la superficie de deteccion A. En otras palabras, a la distancia Dx, se descubre que el segundo haz optico R2 forma, en un plano hipotetico que contiene las superficies de deteccion A, una imagen externa a esta superficie de deteccion A, cuyos puntos de imagen son tangenciales a los bordes de la superficie de deteccion A. Aun en otras palabras, los rayos opticos del segundo haz optico R2 son externamente tangenciales a la superficie de deteccion A.
5
10
15
20
25
30
35
40
45
50
55
60
65
En esta forma, a cualquier distancia, sobre la superficie de deteccion A se forma como maximo solo una imagen clara del objetivo 2, es decir, se forma solo una imagen que pueda ser procesada electronicamente por la unidad de procesamiento electronico 30 de modo que identifique los maximos correspondientes de intensidad y, por ello, sea capaz de la determinacion de la tnada de desplazamientos [Ax, Ay, Az]. De hecho, como se muestra cualitativamente en la Figura 8, si la distancia entre el primer y segundo satelites satl y sat2 esta comprendida entre Dmax y Dx, sobre la superficie de deteccion A la unica imagen clara es la segunda imagen I2, formada por el segundo haz optico R2. En cambio, si la distancia entre el primer y segundo satelites satl y sat2 esta comprendida entre Dx y Dmin, la unica imagen clara es la primera imagen I1, formada por el primer haz optico R1. En otras palabras, si [Dmax, dx[ es el intervalo de distancias de modo que la segunda imagen I2 sea clara, y si [Dx, dmin] es el intervalo de distancias de modo que la primera imagen Ii sea clara, los intervalos [Dmax, dx[ y [Dx, dmin] son contiguos; se puede ademas tomar nota que el intervalo [Dmax, dx[ se expresa matematicamente de modo que se destaca el hecho de que es un intervalo abierto a la derecha. Son posibles en cualquier caso realizaciones en las que el intervalo [Dmax, dx] esta cerrado y el intervalo ]Dx, dmin] esta abierto a la izquierda, asf como realizaciones en las que el intervalo esta separado.
En esta forma, las operaciones que la unidad de procesamiento electronico 30 realiza para identificar los maximos relativos de intensidad de luz y para determinar las coordenadas correspondientes, en base a las que calcula la tnada de desplazamientos [Ax, Ay, Az], se simplifican, dado que no es necesario realizar la seleccion de una unica imagen. De hecho, si esto no fuera asf, es decir, si la primera y segunda longitudes focales fi y f2, el objetivo 2, y la superficie de deteccion A fueran tales que existieran distancias entre el primer y segundo satelites satl y sat2 de modo que, sobre la superficie de deteccion A, se formaran simultaneamente dos imagenes claras del objetivo 2, la unidad de procesamiento electronico 30 tendna que seleccionar cada vez una unica imagen sobre la que llevar a cabo posteriormente las operaciones para la determinacion de la tnada de desplazamientos [Ax, Ay, Az]. Para esta finalidad, la unidad de procesamiento electronico 30 tendna que determinar que puntos de imagen pertenecen a la primera imagen Ii y cuales a la segunda imagen I2.
Son posibles por otro lado realizaciones adicionales, en las que la unidad optica 6 esta provista con trenes opticos adicionales, que tienen longitudes focales diferentes de la primera y segunda longitudes focales fi y f2 para incrementar adicionalmente la amplitud del intervalo de distancias en el que se puede usar el sistema de metrologfa 1.
Como se muestra en la Figura 9, el presente sistema de metrologfa puede usarse de ese modo con un sistema de satelites 40, incluyendo el primer y segundo satelites satl, sat2, y en donde el segundo satelite sat2 aloja un sistema para el control de la orientacion y/o posicion 42, electronicamente conectado a la unidad de procesamiento electronico 30. El sistema de control de la orientacion y/o posicion 42 puede recibir por ello las tnadas de desplazamientos [Ax, Ay, Az] y/o grados adicionales de libertad que, con el tiempo, se determinan por la unidad de procesamiento electronico 30 mediante la iteracion de las operaciones descritas previamente. El sistema de control de orientacion y/o posicion 42 puede funcionar de ese modo, en una forma conocida por sf misma, en base a las tnadas de desplazamientos [Ax, Ay, Az] y/o de grados adicionales de libertad proporcionados por la unidad de procesamiento electronico 30.
Las ventajas que el presente sistema proyectivo de metrologfa optico permite surgen claramente de la descripcion precedente. Adicionalmente, el presente sistema de metrologfa optica proyectiva permite la determinacion de la posicion mutua entre dos satelites en un intervalo particularmente amplio de distancias, que se extiende desde distancias del orden de unas pocas decenas de metros hasta distancias del orden de varios kilometros. Dichas ventajas se obtienen sin el uso de partes moviles o de la composicion de diferentes unidades opticas que tengan diferentes longitudes focales, cada una con un sensor optoelectronico respectivo. De hecho, la unidad optica 6 tiene un unico sensor optoelectronico, con evidentes ventajas en terminos de reduccion de costes y de complejidad de construccion.
Mas aun, dado que tanto la primera trayectoria optica como la segunda trayectoria optica comienzan en uno y el mismo punto, es decir, en una posicion correspondiente a la lente de entrada 12, no se crean fenomenos de vision estereoscopica.
Finalmente, es evidente que se pueden realizar modificaciones y variaciones al sistema de metrologfa 1 descrito en el presente documento, sin por ello apartarse del alcance de la presente invencion tal como se reivindica.
La lente de entrada 12 y la primera y segunda lentes intermedias pueden ser de un tipo diferente al que se ha descrito. Mas aun, en lugar de la primera y segunda lentes intermedias 22, 24 pueden estar presentes unidades opticas correspondientes formadas por numerosas lentes, lo que permite la mejora, en una forma conocida por sf misma, de la calidad de las imagenes, dado que estaran menos sometidas a fenomenos tales como la aberracion cromatica. De la misma manera, la lente de entrada 12 puede sustituirse por una unidad optica correspondiente de mayor complejidad, o incluso puede sustituirse por una lente de entrada. En este ultimo caso, el primer y segundo planos principales P1, P2 caen, respectivamente, dentro de la primera y segunda lentes intermedias 22, 24, y ademas la primera y segunda longitudes focales fi, f2 coinciden con las longitudes focales de la primera y segunda lentes intermedias 22, 24. De la misma manera, el primer y segundo divisores del haz optico 14, 16 pueden formarse
mediante prismas correspondientes, o incluso pueden ser de cualquier tipo conocido.
Ademas, las fuentes de luz pueden ser diferentes de las que se han descrito. Por ejemplo, las fuentes de luz pueden ser pasivas, comprendiendo cada una un espejo, por ejemplo del denominado tipo de "cubo de esquina". En este 5 caso, la unidad optica 6 comprende adicionalmente un iluminador (no mostrado) disenado para iluminar el objetivo de tal manera que los espejos que forman las fuentes de luz reflejen la radiacion hacia la unidad optica 6 en sl
Finalmente, tal como se ha mencionado previamente, la unidad optica 6 y el sistema de metrologfa 1 pueden hallar aplicacion en sectores distintos del sector aeroespacial. Por ejemplo, el objetivo 2 puede montarse sobre un primer 10 objeto, mientras que la unidad optica 6 puede montarse sobre un segundo objeto, estando mecanicamente acoplados el primer y el segundo objetos de tal manera que el sistema de metrologfa permite la determinacion del posicionamiento mutuo del primer y segundo objetos. Por ejemplo, dichos primer y segundo objeto pueden ser dos elementos diferentes de un telescopio, mecanicamente conectados juntos.
Claims (9)
- 5101520253035404550556065REIVINDICACIONES1. Un sistema de metrolog^a optica proyectiva que comprende:- un objetivo luminoso (2) formado por un primer numero de fuentes de luz (4a-4c) que tienen una disposicion espacial preestablecida;- una unidad optica (6) que comprende un sensor de imagen optoelectronico (10) que comprende una superficie de deteccion (A), estando configurada la unidad optica para recibir una senal luminosa (Ri, R2) que procede de dicho objetivo luminoso (2) y para la definir dos trayectorias opticas diferentes para la senal luminosa hacia dicho sensor de imagen optoelectronico; y- una unidad de procesamiento electronico (30) conectada al sensor de imagen optoelectronico;caracterizado por que las dos trayectorias opticas estan configuradas de modo que la senal luminosa forma, sobre el sensor de imagen optoelectronico, al menos una imagen (Ii; I2) del objetivo luminoso, estando configurada la unidad de procesamiento electronico para procesar dicha al menos una imagen y para determinar al menos una cantidad que indique la disposicion mutua del objetivo luminoso y de la unidad optica; y en el que las dos trayectorias opticas, el objetivo luminoso y la superficie de deteccion estan configurados de modo que:- cuando el objetivo luminoso se coloca, respecto a la unidad optica, a una distancia comprendida en un primer intervalo de distancias ([Dx, dmin]), la senal luminosa forma sobre la superficie de deteccion, a traves de la primera trayectoria optica de dichos dos trayectorias opticas, una primera imagen (Ii), en base a la que la unidad de procesamiento electronico es capaz de determinar un numero de maximos de intensidad de luz igual a dicho primer numero;- cuando el objetivo luminoso se coloca, respecto a la unidad optica, a una distancia que cae fuera de dicho primer intervalo de distancias ([Dx, dmin]), la senal luminosa no forma alternativamente, a traves de dicha primera trayectoria optica, ninguna imagen sobre la superficie de deteccion, o si no, forma, a traves de dicha primera trayectoria optica, una imagen en base a la que la unidad de procesamiento electronico no es capaz de determinar un numero de maximos de intensidad de luz igual a dicho primer numero;- cuando el objetivo luminoso se coloca, respecto a la unidad optica, a una distancia comprendida en un segundo intervalo de distancias ([Dmax, dx[), la senal luminosa forma sobre la superficie de deteccion, a traves de la segunda trayectoria optica de dichas dos trayectorias opticas, una segunda imagen (I2), en base a la que la unidad de procesamiento electronico es capaz de determinar un numero de maximos de intensidad de luz igual a dicho primer numero; y- cuando el objetivo luminoso se coloca, respecto a la unidad optica, a una distancia que cae fuera de dicho segundo intervalo de distancias ([Dmax, dx[), la senal luminosa no forma alternativamente, a traves de dicha segunda trayectoria optica, ninguna imagen sobre la superficie de deteccion, o si no, forma, a traves de dicha segunda trayectoria optica, una imagen en base a la que la unidad de procesamiento electronico no es capaz de determinar un numero de maximos de intensidad de luz igual a dicho primer numero.
- 2. El sistema de metrologfa optica proyectiva de acuerdo con la reivindicacion 1, en el que la unidad de procesamiento electronico esta configurada ademas para determinar, para cada maximo de intensidad de luz determinado, las coordenadas correspondientes que identifican la posicion del maximo de intensidad de luz en un sistema de referencia (x2, y2, z2) fijo con respecto a la superficie de deteccion (A), estando configurada ademas la unidad de procesamiento electronico para determinar dicha al menos una cantidad en base a las coordenadas determinadas.
- 3. El sistema de metrologfa optica proyectiva de acuerdo con la reivindicacion 2, en el que el objetivo luminoso (2), la superficie de deteccion (A), y las dos trayectorias opticas son tales que el primer y segundo intervalos de distancias ([Dx, dmin], [Dmax, dx[) son contiguos, estando uno de entre dichos primer y segundo intervalos de distancias abierto en un extremo.
- 4. El sistema de metrologfa optica proyectiva de acuerdo con la reivindicacion 2 o la reivindicacion 3, que comprende ademas un primer circuito optico (OT1) y un segundo circuito optico (OT2), teniendo el primer circuito optico un primer plano principal posterior (Pi) y una primera longitud focal efectiva posterior (fi), y definiendo dicha primera trayectoria optica, teniendo el segundo circuito optico un segundo plano principal posterior (P2) y una segunda longitud focal efectiva posterior (f2), y definiendo dicha segunda trayectoria optica; y en el que el primer y segundo planos principales posteriores estan separados del sensor de imagen optoelectronica (i0), respectivamente, por una primera distancia (di) y una segunda distancia (d2) medidas, respectivamente, a lo largo de la primera y segunda trayectorias opticas, siendo la primera y segunda distancias, respectivamente, funcion de la primera y segunda longitudes focales efectivas posteriores (fi, f2).
- 5. El sistema de metrologfa optica proyectiva de acuerdo con la reivindicacion 4, en el que la primera y segunda distancias (di, d2) son sustancialmente iguales, respectivamente, a la primera y segunda longitudes focales efectivas posteriores (fi, f2).51015202530
- 6. El sistema de metrolog^a optica proyectiva de acuerdo con la reivindicacion 4 o la reivindicacion 5, en el que dicha unidad optica (6) comprende adicionalmente un elemento optico de recepcion (12) configurado para la recepcion de la senal luminosa (Ri, R2) que procede del objetivo luminoso (2); y en el que dicha primera y segunda trayectorias opticas se extienden hacia el sensor de imagen optoelectronica (10) partiendo desde el elemento optico de recepcion.
- 7. El sistema de metrologfa optica proyectiva de acuerdo con la reivindicacion 6, en el que el primer y segundo circuitos opticos (OT1, OT2) estan configurados ademas de modo que generan, a partir de la senal luminosa recibida por el elemento optico de recepcion (12), un primer haz optico (Ri), y un segundo haz optico (R2), y dirigen hacia el sensor de imagen optoelectronico (10) dichos primer y segundo haces opticos, respectivamente, a lo largo de la primera y segunda trayectorias opticas, de tal manera que se forman, respectivamente, la primera y la segunda imagenes (I1, I2) por el primer y el segundo haces opticos; y en el que el primer y segundo circuitos opticos estan configurados ademas de modo que el primer y segundo haces opticos incidiran sobre el sensor de imagen optoelectronico en una unica direccion de incidencia (OA).
- 8. El sistema de metrologfa optica proyectiva de acuerdo con la reivindicacion 7, en el que el primer circuito optico (OT1) comprende el elemento optico de recepcion (12) y un primer divisor del haz optico (14) y un segundo divisor del haz optico (16), comprendiendo el segundo circuito optico (OT2) el elemento optico de recepcion, el primer y segundo divisores del haz optico, y un primer elemento reflectante (18) y un segundo elemento reflectante (20); en el que el primer divisor del haz optico esta configurado de modo que reparte la senal luminosa recibida por el elemento optico de recepcion en el primer y segundo haces opticos (R1, R2), estando configurados ademas el primer y segundo divisores del haz optico para dirigir el primer y segundo haces opticos, respectivamente, hacia el segundo divisor del haz optico y al primer elemento reflectante; y en el que el primer y segundo elementos reflectantes estan configurados para recibir el segundo haz optico y dirigir el segundo haz optico hacia el segundo divisor del haz optico, que esta configurado para dirigir tanto el primer haz optico como el segundo haz optico hacia el sensor de imagen optoelectronico (10), en la direccion de incidencia (OA).
- 9. Un sistema de satelites que comprende un primer satelite (sat1) y un segundo satelite (sat1) y un sistema de metrologfa optica proyectiva (1) de acuerdo con una cualquiera de las reivindicaciones 2 a 8, en el que el objetivo luminoso (2) y la unidad optica (6) estan restringidos, respectivamente, al primer y segundo satelites; y que comprende ademas un sistema de control de orientacion y/o posicion (42) restringido al segundo satelite y configurado para la recepcion de dicha al menos una cantidad determinada por la unidad de procesamiento electronico (30).
Applications Claiming Priority (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| ITTO20110323 | 2011-04-08 | ||
| IT000323A ITTO20110323A1 (it) | 2011-04-08 | 2011-04-08 | Sistema metrologico ottico proiettivo grossolano e di precisione |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| ES2568689T3 true ES2568689T3 (es) | 2016-05-03 |
Family
ID=44554047
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| ES12163652.6T Active ES2568689T3 (es) | 2011-04-08 | 2012-04-10 | Sistema de metrología óptica proyectiva gruesa y fina |
Country Status (5)
| Country | Link |
|---|---|
| US (1) | US8724104B2 (es) |
| EP (1) | EP2508428B1 (es) |
| ES (1) | ES2568689T3 (es) |
| IT (1) | ITTO20110323A1 (es) |
| PL (1) | PL2508428T3 (es) |
Families Citing this family (9)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| ITTO20110325A1 (it) * | 2011-04-08 | 2012-10-09 | Thales Alenia Space Italia S P A C On Unico Socio | Sistema metrologico ottico proiettivo per la determinazione di assetto e posizione |
| US9261625B2 (en) * | 2011-11-10 | 2016-02-16 | California Institute Of Technology | Ultra high resolution gravity gradiometery technique |
| US20160146600A1 (en) * | 2013-11-22 | 2016-05-26 | Shervin Taghavi Larigani | Novel technique of displacement and rotation measurement |
| US9696408B2 (en) * | 2014-02-04 | 2017-07-04 | University Of Florida Research Foundation, Inc. | Robust integrated precision high-speed satellite attitude determination and control system (ADCS) |
| US10295651B2 (en) * | 2016-09-21 | 2019-05-21 | Pinhas Ben-Tzvi | Linear optical sensor arrays (LOSA) tracking system for active marker based 3D motion tracking |
| JP6740182B2 (ja) * | 2017-06-28 | 2020-08-12 | 三菱重工業株式会社 | 飛行体 |
| US10949992B2 (en) * | 2018-04-12 | 2021-03-16 | Francis Bretaudeau | Localization system with a cooperative optronic beacon |
| CN110514286B (zh) * | 2019-07-22 | 2021-10-01 | 北京空间机电研究所 | 一种遥感卫星相机光轴微振动测量方法 |
| IT202000017488A1 (it) * | 2020-07-17 | 2022-01-17 | Thales Alenia Space Italia Spa Con Unico Socio | Unita' ottica per un sistema metrologico ottico proiettivo per la determinazione di grandezze relative a assetto e/o posizione e la comunicazione di dati |
Family Cites Families (12)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US4834531A (en) * | 1985-10-31 | 1989-05-30 | Energy Optics, Incorporated | Dead reckoning optoelectronic intelligent docking system |
| FR2702056A1 (fr) * | 1993-02-23 | 1994-09-02 | Centre Nat Rech Scient | Appareil et objectif de prise de vues en stéréovision axiale. |
| JP3784136B2 (ja) * | 1997-06-02 | 2006-06-07 | 株式会社ルネサステクノロジ | 投影露光装置および投影露光方法 |
| US6870975B1 (en) * | 2001-11-14 | 2005-03-22 | Fiber Optic Systems Technology, Inc. | Fiber optic sensor usable over wide range of gage lengths |
| GB0204603D0 (en) * | 2002-02-27 | 2002-04-10 | Univ Sussex The | Pattern recognition system |
| KR100716882B1 (ko) * | 2005-01-07 | 2007-05-09 | 주식회사 현대오토넷 | 이동통신시스템을 이용한 위치정보 공유 시스템 및 방법 |
| EP2008120B1 (en) * | 2006-04-20 | 2010-12-08 | Faro Technologies Inc. | Camera based six degree-of-freedom target measuring and target tracking device |
| FR2902894B1 (fr) * | 2006-06-27 | 2010-06-04 | Cit Alcatel | Systeme de metrologie lateral et longitudinal |
| TWI370894B (en) * | 2007-02-26 | 2012-08-21 | Corning Inc | Method for measuring distortion |
| EP1986018B1 (en) | 2007-04-27 | 2014-11-19 | Thales Alenia Space Italia S.p.A. | Position and orientation determination |
| ES2441070T3 (es) * | 2008-08-07 | 2014-01-31 | Thales Alenia Space Italia S.P.A. | Dispositivo de blindaje para aparatos ópticos y/o electrónicos, y vehículo espacial que comprende dicho dispositivo |
| JP2011039005A (ja) * | 2009-08-18 | 2011-02-24 | Topcon Corp | 測定装置 |
-
2011
- 2011-04-08 IT IT000323A patent/ITTO20110323A1/it unknown
-
2012
- 2012-04-05 US US13/440,691 patent/US8724104B2/en active Active
- 2012-04-10 PL PL12163652.6T patent/PL2508428T3/pl unknown
- 2012-04-10 ES ES12163652.6T patent/ES2568689T3/es active Active
- 2012-04-10 EP EP12163652.6A patent/EP2508428B1/en active Active
Also Published As
| Publication number | Publication date |
|---|---|
| EP2508428A1 (en) | 2012-10-10 |
| US8724104B2 (en) | 2014-05-13 |
| ITTO20110323A1 (it) | 2012-10-09 |
| EP2508428A8 (en) | 2013-01-02 |
| US20120261513A1 (en) | 2012-10-18 |
| EP2508428B1 (en) | 2016-02-10 |
| PL2508428T3 (pl) | 2016-10-31 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| ES2568689T3 (es) | Sistema de metrología óptica proyectiva gruesa y fina | |
| JP5140430B2 (ja) | 方位指示器の方位測定方法及びその使用ならびに測定システム | |
| US10126426B2 (en) | Multi-clad fiber-based light detection and ranging sensor | |
| US6411371B1 (en) | Device for optical distance measurement | |
| US7999924B2 (en) | Range binoculars | |
| US9482756B2 (en) | Tracker unit and method in a tracker unit | |
| US8810806B2 (en) | Optical system for measuring orientation and position without image formation with point source and mask | |
| KR20130106408A (ko) | 장치, 광학 어셈블리, 물체의 검사 또는 측정 방법, 및 구조체를 제조하는 방법 | |
| ES2555270T3 (es) | Sistema de metrología óptica proyectiva para determinar actitud y posición | |
| JP2015222423A (ja) | 撮像装置およびそれを用いた測距装置 | |
| CN108931778A (zh) | 一种共轴测距望远镜及其测距方法 | |
| RU85226U1 (ru) | Углоизмерительный прибор | |
| US6822732B2 (en) | Surveying instrument having an auto-collimating function and a distance measuring function | |
| RU2399871C1 (ru) | Углоизмерительный звездный прибор | |
| US8598559B2 (en) | Systems and methods for beam splitting for imaging | |
| RU2443988C2 (ru) | Способ выверки параллельности визирных осей мультиспектральных комплексов | |
| US20140362386A1 (en) | Optical system for measurement of orientation and position comprising a point source, central mask, photosensitive matrix sensor and corner cube | |
| JP7403328B2 (ja) | 測量装置 | |
| CN209606724U (zh) | 一种4f系统精确调节装置 | |
| RU2774270C2 (ru) | Защита моностатического или квазимоностатического лазерного дальномера | |
| WO2024195540A1 (ja) | 測量装置 | |
| CN121752871A (zh) | 确定全站仪的内部校准基准 | |
| JP2006177846A (ja) | レンズ偏芯量測定方法と装置 |