ITTO20110325A1 - Sistema metrologico ottico proiettivo per la determinazione di assetto e posizione - Google Patents

Sistema metrologico ottico proiettivo per la determinazione di assetto e posizione Download PDF

Info

Publication number
ITTO20110325A1
ITTO20110325A1 IT000325A ITTO20110325A ITTO20110325A1 IT TO20110325 A1 ITTO20110325 A1 IT TO20110325A1 IT 000325 A IT000325 A IT 000325A IT TO20110325 A ITTO20110325 A IT TO20110325A IT TO20110325 A1 ITTO20110325 A1 IT TO20110325A1
Authority
IT
Italy
Prior art keywords
optical
constellation
light
optoelectronic
optical beam
Prior art date
Application number
IT000325A
Other languages
English (en)
Inventor
Fulvio Bresciani
Fabio Musso
Original Assignee
Thales Alenia Space Italia S P A C On Unico Socio
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Thales Alenia Space Italia S P A C On Unico Socio filed Critical Thales Alenia Space Italia S P A C On Unico Socio
Priority to IT000325A priority Critical patent/ITTO20110325A1/it
Priority to US13/440,734 priority patent/US8625108B2/en
Priority to EP12163536.1A priority patent/EP2508427B1/en
Priority to ES12163536.1T priority patent/ES2555270T3/es
Priority to PL12163536T priority patent/PL2508427T3/pl
Publication of ITTO20110325A1 publication Critical patent/ITTO20110325A1/it

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/16Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using electromagnetic waves other than radio waves
    • G01S5/163Determination of attitude
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64GCOSMONAUTICS; VEHICLES OR EQUIPMENT THEREFOR
    • B64G1/00Cosmonautic vehicles
    • B64G1/10Artificial satellites; Systems of such satellites; Interplanetary vehicles
    • B64G1/1085Swarms and constellations
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64GCOSMONAUTICS; VEHICLES OR EQUIPMENT THEREFOR
    • B64G1/00Cosmonautic vehicles
    • B64G1/22Parts of, or equipment specially adapted for fitting in or to, cosmonautic vehicles
    • B64G1/24Guiding or controlling apparatus, e.g. for attitude control
    • B64G1/36Guiding or controlling apparatus, e.g. for attitude control using sensors, e.g. sun-sensors, horizon sensors
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • General Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Astronomy & Astrophysics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Optical Communication System (AREA)

Description

DESCRIZIONE
del brevetto per invenzione industriale dal titolo:
“SISTEMA METROLOGICO OTTICO PROIETTIVO PER LA DETERMINAZIONE DI ASSETTO E POSIZIONE”
La presente invenzione è relativa ad un sistema metrologico ottico di tipo proiettivo. In particolare, la presente invenzione è relativa ad un sistema metrologico ottico proiettivo (“projective optical metrology system”) per la determinazione di assetto e posizione.
Come è noto, sono oggi disponibili numerosi sistemi di metrologia, i quali trovano impiego, tra l’altro, in ambito aerospaziale.
In particolare, in ambito aerospaziale, sono noti sistemi di metrologia aventi la funzione di determinare l’assetto (“attitude”) e/o la posizione di un satellite. Ancora più in particolare, sono noti sistemi di metrologia che consentono, data una coppia di satelliti, di determinare la posizione reciproca e l’assetto reciproco tra i due satelliti.
La determinazione degli assetti e delle posizioni dei satelliti è di particolare importanza nel caso di sistemi satellitari i cui satelliti sono in formazione, cioè nei casi in cui è prevista la determinazione dell’assetto e della posizione di ciascun satellite in funzione dell’assetto e della posizione degli altri satelliti.
In pratica, la determinazione, dati due satelliti, dell’assetto reciproco e della posizione reciproca richiede la determinazione di sei gradi di libertà. Infatti, assumendo un primo ed un secondo sistema di riferimento solidali, rispettivamente, ad un primo ed un secondo satellite e formati, ciascuno, da una terna di assi perpendicolari, l’assetto reciproco e la posizione reciproca tra il primo ed il secondo sistema di riferimento, e dunque tra il primo ed il secondo satellite, sono esprimibili in termini di tre spostamenti (lineari) e tre rotazioni (angoli). In particolare, la posizione reciproca del primo satellite rispetto al secondo satellite può essere espressa mediante una terna di tre spostamenti misurati, rispettivamente, lungo i tre assi del secondo sistema di riferimento; similmente, l’assetto reciproco del primo satellite rispetto al secondo satellite può essere espresso mediante una terna di tre angoli, pari a corrispondenti rotazioni del primo sistema di riferimento rispetto al secondo sistema di riferimento.
Ciò premesso, in generale i sistemi metrologici ottici oggi disponibili possono essere suddivisi in sistemi cosiddetti grossolani (“coarse”) ed in sistemi cosiddetti di precisione (“fine”), a seconda dell’accuratezza e del campo di applicazione, quest’ultimo essendo dato dall’intervallo di distanze che possono intercorrere tra i satelliti senza che le prestazioni si degradino significativamente.
Più in dettaglio, i sistemi metrologici di precisione consentono di determinare la posizione reciproca di due satelliti con un’accuratezza inferiore al centimetro, a patto che i satelliti non distino più di una cinquantina di metri. Addirittura, alcuni sistemi metrologici di precisione consentono di determinare la posizione reciproca di due satelliti con un’accuratezza dell’ordine del decimo di millimetro, a patto che i satelliti non distino più di un metro.
Al contrario, i sistemi metrologici grossolani si caratterizzano per un’accuratezza non inferiore alla decina di centimetri, tuttavia possono operare anche quando la distanza tra i satelliti è superiore ai cinquanta metri, ad esempio anche fino a distanze di venti chilometri.
A titolo esemplificativo, i sistemi metrologici grossolani comprendono sistemi di metrologia basati sull’impiego del sistema di localizzazione globale via satellite (“Global Positioning System”, GPS), nonché sistemi di metrologia basati sull’impiego di radiazione a radiofrequenza, questi ultimi avvalendosi di reti di antenne di notevole complessità.
Per quanto concerne, invece, i sistemi metrologici di precisione, sono noti sistemi di tipo almeno in parte proiettivo, i quali prevedono che, dati due satelliti, uno di essi sia equipaggiato con una costellazione (“target”) formata da un numero N di sorgenti luminose, e che l’altro satellite sia equipaggiato con un’unità ottica, la quale include un sensore optoelettronico in grado di acquisire un’immagine della costellazione, sulla cui base, mediante post-elaborazione, l’unità ottica stessa determina uno o più dei summenzionati gradi di libertà.
A titolo esemplificativo, la domanda di brevetto EP1986018 descrive un sistema per la determinazione della posizione e dell’assetto di un sistema a sei gradi di libertà, ed in cui il numero N di sorgenti luminose della costellazione è pari a uno. Tuttavia, per consentire la determinazione di tutti e sei i gradi di libertà, il sistema descritto in EP1986018 richiede che l’unica sorgente luminosa sia formata da una sorgente di luce coerente quale, ad esempio, un laser, ed inoltre richiede che l’unità ottica sia in grado di effettuare, oltre all’elaborazione delle immagini della costellazione, misure della potenza effettivamente ricevuta dal sensore optoelettronico e una misura angolare di rotazione della polarizzazione del fascio luminoso emesso dalla sorgente di luce coerente.
Ancora più in dettaglio, facendo riferimento ad un primo ed un secondo satellite, ed assumendo che la costellazione sia disposta sul primo satellite, il sistema descritto in EP1986018 prevede che l’unità ottica a bordo del secondo satellite disponga di tre rilevatori optoelettronici in grado di elaborare immagini e di rilevare, ciascuno, la potenza associata alla frazione di radiazione elettromagnetica emessa dalla sorgente di luce coerente ed effettivamente incidente sul rilevatore optoelettronico stesso. Pertanto, il sistema descritto in EP1986018 non è di tipo puramente proiettivo.
Sono peraltro noti anche sistemi metrologici di precisione che non prevedono la determinazione di misure di potenza, cioè sistemi metrologici di tipo puramente proiettivo; rispetto a quanto descritto in EP1986018, tali sistemi di tipo proiettivo richiedono l’impiego di costellazioni formate da un numero elevato di sorgenti luminose. Un esempio di tali sistemi metrologici è fornito in US7,561,262, in cui le sorgenti luminose sono formate da riflettori destinati ad essere disposti sul primo satellite, i quali vengono illuminati da radiazione emessa dal secondo satellite. Sono inoltre noti sistemi metrologici di precisione di tipo puramente proiettivo ed in cui la costellazione è formata da un numero particolarmente elevato (ad esempio, otto) di sorgenti luminose.
L’impiego di costellazioni formate da un elevato numero di sorgenti luminose comporta una maggiore complessità costruttiva, ed inoltre comporta un incremento dei consumi elettrici, sia nel caso in cui le sorgenti luminose siano otticamente attive, cioè emettano segnali luminosi, sia nel caso in cui siano passive, cioè siano formate, ad esempio, da riflettori. Infatti, in quest’ultimo caso è necessario irradiare il satellite ospitante la costellazione con un fronte d’onda elettromagnetica particolarmente ampio, al fine di illuminare tutti i riflettori, con conseguente dispendio di potenza elettromagnetica.
Scopo della presente invenzione è fornire un sistema metrologico ottico proiettivo che risolva almeno in parte gli inconvenienti dell’arte nota.
Secondo l'invenzione, viene fornito un sistema metrologico ottico proiettivo come definito nella rivendicazione 1.
Per una migliore comprensione dell’invenzione, ne vengono ora descritte forme di realizzazione, a puro titolo di esempio non limitativo e con riferimento ai disegni allegati, nei quali:
- le figure 1, 4 e 8 mostrano schemi a blocchi di sistemi satellitari includenti il presente sistema metrologico;
- la figura 2 mostra in forma schematica una costellazione luminosa;
- le figure 3 e 7 e mostrano schemi a blocchi di unità ottiche secondo la presente invenzione;
- la figura 5 mostra qualitativamente una vista frontale di una superficie di rilevazione di un sensore optoelettronico del sistema metrologico mostrato nelle figure 1, 4 e 8; e
- la figura 6 mostra uno schema ottico relativo alla formazione di una immagine.
La figura 1 mostra un sistema metrologico ottico di tipo proiettivo, al quale in seguito ci si riferisce per brevità come al sistema metrologico 1. Inoltre, nel seguito si descrive il sistema metrologico 1 con particolare riferimento ad un’applicazione di tipo satellitare, sebbene esso possa trovare impiego in differenti ambiti di applicazione, come accennato successivamente.
In dettaglio, il sistema metrologico 1 comprende una costellazione 2 atta ad essere vincolata ad un primo satellite sat1 ed una unità ottica 6 atta ad essere vincolata ad un secondo satellite sat2.
Come mostrato in maggior dettaglio in figura 2, la costellazione 2 comprende una prima, una seconda ed una terza sorgente luminosa 4a-4c, ciascuna formata, ad esempio, da un corrispondente diodo ad emissione luminosa (“Light Emitting Diode”, LED). La prima, la seconda e la terza sorgente luminosa 4a-4c sono disposte complanari ed ai vertici di un ipotetico triangolo, ad esempio isoscele o equilatero. In particolare, nell’ipotesi di sorgenti luminose puntiformi, assumendo un primo sistema riferimento x1,y1,z1solidale al primo satellite sat1 e formato da tre assi x1, y1, z1ortogonali tra loro, ed assumendo inoltre che l’asse z1sia perpendicolare al piano in cui giacciono la prima, la seconda e la terza sorgente luminosa 4a-4c, e che la prima e la seconda sorgente luminosa 4a-4b giacciano lungo l’asse x1, è possibile esprimere i punti dello spazio in cui si trovano la prima, la seconda e la terza sorgente luminosa 4a-4c rispettivamente come [X0,0,0], [-X0,0,0] e [0,Y0,0].
Come mostrato in figura 3, l’unità ottica 6 comprende un sensore optoelettronico 10, un diaframma 12 atto a ricevere i raggi ottici generati dalla costellazione 2, un primo ed un secondo divisore di fascio ottico (“optical beam splitter”) 14, 16, un primo ed un secondo elemento riflettente 18, 20 ed una prima ed una seconda lente intermedia 22, 24. A titolo puramente esemplificativo, la prima e la seconda lente intermedia 22, 24 possono essere concave.
L’unità ottica 6 comprende inoltre un’unità elettronica di elaborazione 30, la quale è elettricamente collegata al sensore optoelettronico 10.
In maggior dettaglio, il diaframma 12, il primo divisore di fascio ottico 14, la prima lente intermedia 22, il secondo divisore di fascio ottico 16 ed il sensore optoelettronico 10 sono disposti in successione ed otticamente allineati. In altre parole, il primo divisore di fascio ottico 14 risulta interposto tra il diaframma 12 e la prima lente intermedia 22, la quale a sua volta risulta interposta tra il primo ed il secondo divisore di fascio ottico 14, 16; infine, il secondo divisore di fascio ottico 16 è interposto tra la prima lente intermedia 22 ed il sensore optoelettronico 10.
In maggior dettaglio, gli assi ottici del diaframma 12 e della prima lente intermedia 22 sono all’incirca coincidenti ed incidono sostanzialmente al centro del sensore optoelettronico 10. A titolo esemplificativo, in figura 3 gli assi ottici (coincidenti) della lente di ingresso 12 e della prima lente intermedia 22 sono indicati con OA; per semplicità nel seguito ci si riferisce ad essi come all’asse di sistema OA.
In pratica, il diaframma 12, il primo divisore di fascio ottico 14, la prima lente intermedia 22 ed il secondo divisore di fascio ottico 16 formano un primo circuito ottico, al quale ci si riferisce in seguito come al primo treno ottico OT1.
Per quanto concerne, invece, la seconda lente intermedia 24, essa è interposta tra il primo ed il secondo elemento riflettente 18, 20, in maniera tale per cui il diaframma 12, il primo divisore di fascio ottico 14, il primo elemento riflettente 18, la seconda lente intermedia 24, il secondo elemento riflettente 20 ed il secondo divisore di fascio ottico 16 formano un secondo circuito ottico, al quale ci si riferisce in seguito come al secondo treno ottico OT2.
Operativamente, riferendosi ai raggi ottici generati dalla costellazione 2 e ricevuti dal diaframma 12 come ai raggi ottici complessivi, una prima frazione dei raggi ottici complessivi viene focalizzata dal primo treno ottico OT1 sul sensore optoelettronico 10, lungo l’asse di sistema OA, cioè dopo aver attraversato il primo divisore di fascio ottico 14, la prima lente intermedia 22 ed il secondo divisore di fascio ottico 16. La prima frazione dei raggi ottici complessivi, alla quale ci si riferisce in seguito come al primo fascio ottico, è mostrata in figura 4 in modo puramente qualitativo, dove è indicata con R1. In pratica, il primo fascio ottico R1comprende i raggi ottici che attraversano, oltre alla lente di ingresso 12 ed alla prima lente intermedia 22, anche il primo ed il secondo divisore di fascio ottico 14, 16, senza essere riflessi da questi ultimi.
Il primo treno ottico OT1 definisce dunque un primo cammino ottico, interposto tra il diaframma 12 ed il sensore optoelettronico 10 ed avente una prima lunghezza l1, intesa come la distanza che il primo fascio ottico R1percorre per raggiungere, a partire dal diaframma 12, il sensore optoelettronico 10.
Per quanto concerne, invece, il secondo treno ottico OT2, il primo elemento riflettente 18 è disposto in modo da ricevere una seconda frazione di raggi ottici complessivi, comprendente nella fattispecie la porzione di raggi ottici complessivi che, dopo aver attraversato il diaframma 12, vengono riflessi dal primo divisore di fascio ottico 14. La seconda frazione di raggi ottici complessivi, alla quale ci si riferisce in seguito come al secondo fascio ottico, è mostrata in figura 4 in modo puramente qualitativo, dove è indicata con R2. In pratica, il primo divisore di fascio ottico 14 opera in modo da separare il primo ed il secondo fascio ottico R1, R2.
Il primo elemento riflettente 18, la seconda lente intermedia 24 ed il secondo elemento riflettente 20 sono inoltre disposti in maniera tale per cui il secondo fascio ottico R2è riflesso dal primo elemento riflettente 18 in direzione della seconda lente intermedia 24. Dopo aver attraversato la seconda lente intermedia 24, il secondo fascio ottico R2è ricevuto dal secondo elemento riflettente 20, il quale lo riflette in direzione del secondo divisore di fascio ottico 16. Infine, il secondo divisore di fascio ottico 16 riflette il secondo fascio ottico R2in direzione del sensore optoelettronico 10, ancora lungo l’asse di sistema OA. In pratica, il secondo divisore di fascio ottico 16 opera in modo da ricombinare il primo ed il secondo fascio ottico R1, R2.
Operativamente, il secondo treno ottico OT2 è in grado di dirigere il secondo fascio ottico R2in direzione del sensore optoelettronico 10. Il secondo treno ottico OT2 definisce dunque un secondo cammino ottico, interposto tra il diaframma 12 ed il sensore optoelettronico 10 ed avente una seconda lunghezza l2, maggiore della prima lunghezza l1ed intesa come la distanza che i raggi ottici del summenzionato secondo fascio ottico R2percorrono per raggiungere, a partire dal diaframma 12, il sensore optoelettronico 10.
Il secondo cammino ottico non attraversa la prima lente intermedia 22, ed inoltre condivide con il primo cammino ottico un medesimo punto di ingresso, definito dal diaframma 12, ed un medesimo punto terminale, definito dal sensore optoelettronico 10.
In maggior dettaglio, ciascuna lente tra la prima e la seconda lente intermedia 22, 24 presenta una rispettiva coppia di piani principali, anche noti come piano principale anteriore e piano principale posteriore, i quali, nel caso in cui la lente sia sottile, collassano in un singolo piano principale. Pertanto, assumendo che la prima e la seconda lente intermedia 22, 24 siano effettivamente sottili, esse presentano, rispettivamente, un primo ed un secondo piano principale P1, P2, i quali passano rispettivamente per i centri ottici della prima e della seconda lente intermedia 22, 24. Inoltre, la prima e la seconda lente intermedia 22, 24 hanno, rispettivamente, una prima ed una seconda lunghezza focale f1, f2, la seconda lunghezza focale f2essendo maggiore della prima lunghezza focale f1.
Ancora in maggior dettaglio, assumendo per semplicità che il primo divisore di fascio ottico 14 abbia dimensioni trascurabili, il primo ed il secondo piano principale P1, P2, e quindi anche la prima e la seconda lente intermedia 22, 24, distano dal primo divisore di fascio ottico 14, rispettivamente, una prima distanza d1ed una seconda distanza d2, misurate rispettivamente lungo il primo ed il secondo cammino ottico. In altre parole, trascurando l’inclinazione dei raggi ottici rispetto all’asse di sistema OA, il primo fascio ottico R1si propaga, per raggiungere il primo piano principale P1a partire dal primo divisore di fascio ottico 14, lungo una distanza pari a d1; similmente, il secondo fascio ottico R2si propaga, per raggiungere il secondo piano principale P2a partire dal primo divisore di fascio ottico 14, lungo una distanza pari a d2.
In pratica, da un punto di vista ottico, il primo ed il secondo piano principale P1, P2distano dalla costellazione 2, rispettivamente, una distanza dp1=Dsat+d1e dp2=Dsat+d2, in cui Dsatè la distanza tra la costellazione 2 ed il primo divisore di fascio ottico 14. Pertanto, da un punto di vista ottico, il primo ed il secondo piano principale P1, P2sono diversamente distanti dalla costellazione 2. Equivalentemente, il primo ed il secondo piano principale P1, P2sono diversamente distanti dal diaframma 12, dal momento che essi sono differentemente distanti dal primo divisore di fascio ottico 14, e il primo ed il secondo cammino ottico, tra il diaframma 12 ed il primo divisore di fascio ottico 14, sono coincidenti. In particolare, indicando dcla distanza tra il diaframma 12 ed il primo divisore di fascio ottico 14, il primo ed il secondo piano principale P1, P2distano dal diaframma 12, rispettivamente, dc+d1e dc+d2. Si noti che d1e d2possono anche assumere valori negativi, qualora il primo e/o il secondo piano principale P1, P2si trovino tra il diaframma 12 ed il primo divisore di fascio ottico 14.
Inoltre, il primo ed il secondo piano principale P1, P2, e quindi la prima e la seconda lente intermedia 22, 24, distano dal sensore optoelettronico 10, rispettivamente, una terza ed una quarta distanza d3, d4, misurate rispettivamente lungo il primo ed il secondo cammino ottico. In altre parole, trascurando l’inclinazione dei raggi ottici rispetto all’asse di sistema OA, il primo fascio ottico R1si propaga, per raggiungere il sensore optoelettronico 10 a partire dal primo piano principale P1, lungo una distanza pari a d3; similmente, il secondo fascio ottico R2si propaga, per raggiungere il sensore optoelettronico 10 a partire dal secondo piano principale P2, lungo una distanza pari a d4.
In maggior dettaglio, come mostrato in figura 5, il sensore ottico 10 può essere formato, ad esempio, da un dispositivo ad accoppiamento di carica (“Coupling Charge Device”, CCD), e presenta una superficie di rilevazione A di forma, ad esempio, quadrata; le summenzionate terza e quarta distanza d3e d4esprimono appunto le distanze del primo e del secondo piano principale P1, P2dalla superficie di rilevazione A.
La superficie di rilevazione A è formata da una matrice di M elementi di immagine generalmente noti come pixel 11 ed è disposta, come precedentemente accennato, perpendicolarmente rispetto all’asse di sistema OA, cioè perpendicolarmente agli assi ottici del diaframma 12 e della prima lente intermedia 22; inoltre, il centro geometrico della superficie di rilevazione A giace preferibilmente lungo l’asse di sistema OA. In pratica, il sensore optoelettronico 10 è un sensore cosiddetto di immagine.
Nuovamente con riferimento alla terza ed alla quarta distanza d3, d4, preferibilmente esse sono sostanzialmente pari, rispettivamente, alla prima ed alla seconda lunghezza focale f1e f2. Pertanto, data un’ipotetica sorgente luminosa infinitamente distante dal secondo satellite sat2, i corrispondenti primo e secondo fascio ottico R1, R2sono focalizzati sostanzialmente in un unico punto della superficie di rilevazione A del sensore ottico 10.
Per quanto concerne, invece, la costellazione 2, posta inevitabilmente ad una distanza non infinita dal secondo satellite sat2, in corrispondenza del sensore ottico 10 si formano una prima e di una seconda immagine della costellazione 2 stessa.
In maggior dettaglio, come mostrato qualitativamente in figura 4, la prima e la seconda lunghezza focale f1e f2sono tali per cui, quando il primo satellite sat1, e quindi la costellazione 2, si trovano alla distanza Dsatdal secondo satellite sat2, o meglio dal primo divisore di fascio ottico 14, sia il primo che il secondo fascio ottico R1, R2incidono effettivamente sulla superficie di rilevazione A del sensore ottico 10, ivi concorrendo a determinare una prima distribuzione di M intensità luminose, come rilevate dagli M pixel 11 del sensore ottico 10.
In particolare, come mostrato in figura 5, il primo fascio ottico R1forma sulla superficie di rilevazione A del sensore ottico 10 una prima immagine I1della costellazione 2, formata da un primo, un secondo ed un terzo punto immagine 4a’-4c’, rispettivamente corrispondenti alla prima, alla seconda ed alla terza sorgente luminosa 4a-4c. Inoltre, anche il secondo fascio ottico R2incide sulla superficie di rilevazione A del sensore ottico 10 e concorre, dunque, a formare la prima distribuzione di M intensità luminose. In particolare, la seconda frazione R2di raggi ottici complessivi forma sulla superficie di rilevazione A del sensore ottico 10 una seconda immagine I2della costellazione 2, formata da un quarto, un quinto ed un sesto punto immagine 4a”-4c”, rispettivamente corrispondenti alla prima, alla seconda ed alla terza sorgente luminosa 4a-4c. Si noti che, per semplicità di visualizzazione, in figura 5 si è assunto che ciascun punto immagine ecciti un solo pixel, sebbene tipicamente ciascun punto immagine ecciti un numero di pixel superiore ad uno.
Sulla base della prima distribuzione di M intensità luminose, l’unità elettronica di elaborazione 30 è in grado di determinare un primo, secondo ed un terzo pixel, rispettivamente indicati con 11a-11c, i quali corrispondono, rispettivamente, al primo, al secondo ed al terzo punto immagine 4a’-4c’. Inoltre, l’unità elettronica di elaborazione 30 è in grado di determinare un quarto, un quinto ed un sesto pixel, rispettivamente indicati con 11d-11f, i quali corrispondono, rispettivamente, al quarto, al quinto ed al sesto punto immagine 4a”-4c”.
Ad esempio, l’unità elettronica di elaborazione 30 può identificare il primo, il secondo, il terzo, il quarto, il quinto ed il sesto pixel 11a-11f mediante ricerca dei massimi relativi tra le M intensità luminose della prima distribuzione di M intensità luminose. In tal caso, in modo di per sé noto, il primo, il secondo, il terzo, il quarto, il quinto ed il sesto pixel 11a-11f si caratterizzano per il fatto che, considerato uno qualsiasi di essi, l’intensità luminosa da esso rilevata è maggiore delle intensità luminose rilevate dai pixel ad esso circostanti.
In altre parole, il primo, il secondo, il terzo, il quarto, il quinto ed il sesto punto immagine 4a’-4c’, 4a”4c” sono identificabili elettronicamente come distinti tra loro, ed in particolare come corrispondenti a sei pixel differenti. Ciò significa che sia la prima che la seconda immagine I1, I2sono nitide, cioè ciascuna di esse può essere elaborata elettronicamente dall’unità elettronica di elaborazione 30 in maniera tale da identificare, in modo di per sé noto, un numero di massimi relativi di intensità luminosa pari al numero di sorgenti luminose presenti nella costellazione 2 (nella fattispecie, tre).
Al contrario, se, ipoteticamente, il primo, il secondo ed il terzo punto immagine 4a’-4c’ eccitassero tutti un medesimo pixel, essi non sarebbero identificabili elettronicamente come distinti tra loro, dunque la prima immagine I1della costellazione 2 non sarebbe nitida.
In pratica, il fatto che una generica immagine formata sulla superficie di rilevazione A del sensore ottico 10 sia nitida dipende, in modo di per sé noto, dalle dimensioni della costellazione 2, dalla distanza della costellazione 2 dal secondo satellite sat2, dalla lunghezza focale del corrispondente treno ottico che l’ha generata, nonché dall’area della superficie di rilevazione A del sensore ottico 10. A tal proposito, nel seguito si assume, senza perdita di generalità, che la superficie di rilevazione A abbia forma quadrata di lato Q, e che ciascun pixel 11 abbia forma quadrata di lato q.
Inoltre, a stretto rigore, il fatto che una generica immagina sia nitida o meno dipende dalle tecniche di elaborazione (note) adottate dall’unità elettronica di elaborazione 30 per elaborare la distribuzione di M intensità luminose rilevate dagli M pixel 11. Infatti, sebbene sia possibile, come precedentemente descritto, che l’unità elettronica di elaborazione 30 determini i massimi relativi di intensità luminosa direttamente sulla base delle intensità luminose fornite dai pixel 11, è altresì possibile che la determinazione dei massimi relativi sia effettuata mediante il cosiddetto metodo del centroide, o similari. In particolare, il metodo del centroide, descritto ad esempio in “Error analysis of CCD-based point source centroid computation under the background light”, di Xiaoyu Ma, Changhui Rao e Hanqing Zheng, OPTICS EXPRESS Vol. 17, No. 10 ed in “Improved Iteration Centroid Algorithm Based on Linear CCD Light-spot Location”, Shengjin Tang, Zhaofa Zhou, Xiaosong Guo, Yongchao Xiao, The Ninth International Conference on Electronic Measurement & Instruments, ICEMI 2009, prevede di interpolare le intensità luminose rilevate dai pixel 11, di per sé discretizzate nello spazio, al fine di determinare curve interpolanti (ad esempio, gaussiane) spazio-continue, sulla cui base si determinano i massimi relativi.
Si noti che, nel caso in cui l’unità elettronica di elaborazione 30 determini i massimi relativi di intensità luminosa meramente sulla base delle intensità luminose rilevate dai pixel 11, senza operazioni di interpolazione, una generica immagine è nitida se l’unità elettronica di elaborazione 30 è in grado di identificare, per ciascun punto immagine della generica immagine, un corrispondente pixel, il quale esibisce un massimo relativo di intensità luminosa. Se così avviene, l’unità elettronica di elaborazione 30 associa i punti immagine alle coordinate dei corrispondenti pixel. Ad esempio, nel caso del primo, del secondo, del terzo, del quarto, del quinto e del sesto punto immagine 4a’-4c’ e 4a”-4c”, essi sono rispettivamente associati alle coordinate (descritte in seguito) del primo, del secondo, del terzo, del quarto, del quinto e del sesto pixel 11a-11f. Pertanto, la massima discretizzazione che è possibile ottenere nella determinazione della posizione, all’interno della superficie di rilevazione A, di eventuali punti immagine è pari al lato q di un singolo pixel.
Viceversa, adottando tecniche note di interpolazione, quale ad esempio il metodo del centroide, è possibile ottenere una discretizzazione spaziale inferiore a q, cioè è possibile associare ai punti immagine coordinate con discretizzazione inferiore q. Infatti, perché un’immagine sia nitida è sufficiente che l’unità elettronica di elaborazione 30 sia in grado di identificare, sulla base delle M intensità luminose rilevate dai pixel 11 ed in modo di per sé noto, un numero di massimi relativi di intensità luminosa pari al numero di sorgenti luminose presenti nella costellazione 2, indipendentemente dal fatto che, sulla base delle intensità luminose rilevate dai pixel e della sola ricerca dei massimi relativi tra tali intensità luminose, non sia possibile identificare un numero di pixel corrispondente al numero di sorgenti luminose presenti nella costellazione 2. Ad esempio, l’identificazione di un numero di pixel corrispondente al numero di sorgenti luminose presenti nella costellazione 2 può essere impedita dal fatto che tale ricerca fornisce un numero di massimi relativi inferiore o superiore al numero di sorgenti luminose.
Per semplicità di descrizione, nel seguito si assume, salvo laddove specificato diversamente, che l’unità elettronica di elaborazione 30 determini i massimi relativi di intensità luminosa meramente sulla base delle ricerca dei massimi relativi tra le intensità luminose fornite dai pixel 11, senza operazioni di interpolazione, e dunque che il primo, il secondo, il terzo, il quarto, il quinto ed il sesto punto immagine 4a’-4c’ e 4a”-4c” siano associati rispettivamente alle coordinate del primo, del secondo, del terzo, del quarto, del quinto e del sesto pixel 11a-11f
Nuovamente con riferimento alla prima ed alla seconda immagine I1e I2mostrate in figura 5, assumendo un secondo sistema di riferimento x2,y2,z2formato da tre assi x2, y2, z2ortogonali tra loro, solidale al secondo satellite sat2 e tale per cui la superficie di rilevazione A del sensore ottico 10 giace nel piano definito dagli assi x2e y2, le coordinate di ciascuno tra il primo, il secondo ed il terzo pixel 11a-11c sono esprimibili come terne rispettivamente del tipo [X1P,Y1P,0], [X2P,Y2P,0] e [X3P,Y3P,0]. Similmente, le coordinate di ciascuno tra il quarto, il quinto ed il sesto pixel 11e-11f sono esprimibili come terne rispettivamente del tipo [X’1P,Y’1P,0], [X’2P,Y’2P,0] e [X’3P,Y’3P,0].
Successivamente, sulla base delle terne di coordinate associate al primo, al secondo, al terzo, al quarto, al quinto ed al sesto punto immagine 4a’-4c’, 4a”-4c”, e sulla base della forma della costellazione 2, cioè sulla base delle terne di coordinate della prima, della seconda e della terza sorgente luminosa 4a-4c, l’unità elettronica di elaborazione 30 determina sei grandezze relative all’assetto ed alla posizione reciproci tra il primo ed il secondo satellite sat1, sat2. In particolare, l’unità elettronica di elaborazione 30 determina gli angoli θ, β, γ, una distanza D e gli spostamenti Δx, Δy, i quali si riferiscono a rotazioni o traslazioni che consentono di ottenere, a partire dalle sei terne di coordinate associate al primo, al secondo, al terzo, al quarto, al quinto ed al sesto pixel 11a-11f, le coordinate della prima, della seconda e della terza sorgente luminosa 4a-4c.
In maggior dettaglio, gli angoli θ, β, γ si riferiscono, rispettivamente, a rotazioni attorno agli assi x1, y1e z1, mentre gli spostamenti Δx, Δy si riferiscono a traslazioni lungo gli assi x1, y1. La distanza D, invece, è la distanza tra la costellazione 2 ed il primo divisore di fascio ottico 14, cioè, in prima approssimazione, la distanza tra il primo ed il secondo satellite sat1, sat2.
Operativamente, l’unità elettronica di elaborazione 30 si avvale delle cosiddette coordinate omogenee, di per sé note dall’ambito della geometria proiettiva. In particolare, l’unità elettronica di elaborazione 30 impiega un sistema di riferimento tridimensionale in coordinate omogenee, di tipo destrorso, cioè in cui le rotazioni positive sono le rotazioni in senso antiorario. Pertanto, traslazioni e rotazioni possono essere espresse, in modo di per sé noto, in termini di corrispondenti matrici quattro per quattro. Con riferimento ai summenzionati angoli θ, β, γ, le corrispondenti rotazioni possono dunque essere espresse come:
é cosg sin g 0 0 ù
ê sing cos g 0 0ú
Rz( g ) =ê - ú (1) ê 0 0 1 0ú
ê ú
ë 0 0 0 1 û
é1 0 0 0 ù
ê0 cosJ sin J 0ú
Rx( J ) =ê ú (2)
ê0 -sinJ cos J 0ú
ê ú
ë0 0 0 1 û
écosb 0 -sin b 0 ù
ê 0 1 0 0ú
Ry( b ) =ê ú (3)
êsinb 0 cos b 0ú
ê
ë 0 0 0 1 ú
û
mentre una generica traslazione, formata da una generica terna di spostamenti del tipo [Sx, Sy, Sz], può essere espressa come:
é1 0 0 0 ù
ê0 1 0 0ú
Txyz(Sx,Sy , Sz ) =ê ú (4)
ê0 0 1 0ú
ê
ëSx Sy Sz 1 ú
û
Dato un generico corpo rigido il cui baricentro ha inizialmente coordinate cartesiane [X01,Y01,Z01], e sottoposto a rotazioni e/o traslazioni, è quindi possibile determinare matematicamente una nuova terna di coordinate cartesiane [X11,Y11,Z11], corrispondente alla posizione assunta dal baricentro del corpo rigido in seguito alle rotazioni e/o traslazioni. A tal fine, è possibile applicare alle coordinate omogenee [X01,Y01,Z01,1], corrispondenti alla posizione iniziale del corpo rigido, le summenzionate matrici di rotazione e/o traslazione, nel medesimo ordine con cui effettivamente avvengono le rotazioni e/o traslazioni. Si ha infatti:
[X11,Y11,Z11,1]=[X01,Y01,Z01,1]*Rx(θ)*Ry(β)*Rz(γ)*Txyz(Δx,Δy,Δz)
(5)
In altre parole, l’equazione che lega le coordinate omogenee finali assunte dal baricentro del corpo rigido alle coordinate omogenee iniziali assunte dal baricentro del corpo rigido è:
[X11,Y11,Z11,1]=[X01,Y01,Z01,1]*M(θ,β,γ,Δx,Δy,Δz) (6)
in cui la matrice M definisce matematicamente una qualsiasi rototraslazione cui è soggetto il corpo rigido ed ha forma:
é cosgcosb singcosb -sin b 0 ù êsinJsinbcosg -singcosJ singsinbsinJ cosgcosJ sinJcos b 0ú M =ê ú(7) êcosJsinbcosg -singsinJ singsinbcosJ -cosgsinJ cosJcos b 0ú ê x y z ú
ë D D D 1 û
E’ inoltre noto che, come mostrato schematicamente in figura 6, data una generica lente sottile con lunghezza focale f, se un oggetto puntiforme avente coordinate cartesiane [X01,Y01,Z01] è disposto anteriormente alla lente sottile e ad una distanza Dsda essa, esso genera, in un ipotetico piano disposto posteriormente rispetto alla lente sottile e ad una distanza dsall’incirca pari alla lunghezza focale f, un corrispondente punto immagine avente coordinate approssimativamente pari a X01P=X01*f/Dse Y01P=Y01*f/Ds. Tale fenomeno fisico è espresso dalla ben nota equazione di proiezione ottica:
P'æ<fX>ö
(X<01>fY
01 ,Y01) =P' çç,<01>
<P P>÷<÷>(8)
è Ds D s ø
Sostituendo l’equazione di proiezione ottica (8) nell’equazione (6), si ottiene la seguente equazione:
é cosgcosb singcosb -sin b 0 ù é ù f êsinJsinbcosg-singcosJ singsinbsinJ cosgcosJ sinJcos b 0ú êX11<P>,Y11,<f>
<P>,0ú= [X01, Y01,0, 1 ]ê ú ë Dsû D s êcosJsinbcosg-singsinJ singsinbcosJ -cosgsinJ cosJcos b 0ú ê x y z 1 ú ë D D D û
(9)
la quale mette in relazione le coordinate [X01,Y01,Z01] del baricentro del corpo rigido prima della rototraslazione con le coordinate [X11P,Y11P,Z11P] del punto immagine relativo allo stesso baricentro, dopo che il corpo rigido ha subito una rototraslazione. Più in particolare le coordinate [X01,Y01,0] sono relative ad un sistema di riferimento tale
per cui si ha Z01=0, mentre le coordinate [X11P,Y11P,0] sono
relative ad un sistema di riferimento tale per cui si ha
Z11P=0.
Ciò premesso, con riferimento ai sistemi di
riferimento x1,y1,z1e x2,y2,z2, assumendo che l’angolo θ sia
nullo ed applicando l’equazione (9) con riferimento alla
prima sorgente luminosa 4a ed al primo punto immagine 4a’,
si ottiene:
écosgcosb singcosb -sin b 0 ù
é<f>ù f ê -sing cos g 0 0ú
ê<X P>,<Y P>,0, 1
ú= 1 [ X0,0,0, 1 ]ê (10)
1 1 ú
ë D d 1û D d 1 êsinbcosgsingsinbcosb0ú
ê x y z 1 ú
ë D D D û
Similmente, assumendo ancora che l’angolo θ sia nullo,
ed applicando l’equazione (9) con riferimento alla seconda
sorgente luminosa 4b ed al secondo punto immagine 4b’, si
ottiene:
écosgcosb singcosb -sin b 0 ù
é ê -sing cos g 0 0ú
<f>ù f
[ ]ê ú(11)
ê<X P>,<Y P>,0, 1
ú= 1
2 2 - X0,0,0, 1
ë D d 1û D d 1 êsinbcosgsingsinbcosb0ú
ê Dx Dy z 1 ú
ë D û
Esplicitando le forme matriciali e sottraendo membro a
membro l’equazione (11) dall’equazione (10), si ottiene la
coppia di equazioni:
ì 2 f
ïX1<P>-X2<P>=D X 12<p>= 1 X 0cosg cos b
ïD d 1
í (12)
ï 2 f
Y ing cos b
ï1P-Y2P=D Y 12 p = 1 X 0s
î D d 1
Operando sulla coppia prima sorgente luminosa 4aquarto punto immagine 4a” e sulla coppia seconda sorgente luminosa 4b-quinto punto immagine 4b” in modo analogo a quanto rispettivamente descritto con riferimento alla coppia prima sorgente luminosa 4a-primo punto immagine 4a’ ed alla coppia seconda sorgente luminosa 4b-secondo punto immagine 4b’, si ottiene la coppia di equazioni:
ì
ïX' -X'
2P=D X' 2 f
12 p =2
1P X g b
ïD d 0cos cos
2
í (13)
ï ' - ' =D ' 2 f
Y =2Y1P Y2P 12 p X 0sing cos b
ï î D d 2
In pratica, le coppie di equazioni (12) e (13) sono ottenute sulla base, rispettivamente, della prima e della seconda immagine I1e I2della costellazione 2, come fornite, rispettivamente, dal primo e dal secondo treno ottico OT1 e OT2, i quali hanno focali differenti e pari, rispettivamente, alla prima ed alla seconda lunghezza focale f1, f2della prima e della seconda lente intermedia 22, 24. Inoltre, la prima e la seconda lente intermedia 22, 24 distano, otticamente, distanze differenti dalla costellazione 2.
Sulla base delle due coppie di equazioni (12) e (13), è quindi possibile ottenere:
æ D Y ö
g = arctan P
çç 12
X÷÷
è D 12 P ø
f1d 2DX '
12 P - f2d1D X
D = 12 P (14)
f1DX12 P - f 2 D X '
12 P
æ ö
ç ÷
ç DX ( d
b =arcos 12 P D 1 ) ÷
ç ÷
ç æ æ D<Y>2f X cosça tan 12 P ö ö ÷
ç 1 0ç çç
è è è D X÷÷÷÷
12 P ÷
ø ø ø
Una volta noti gli angoli γ, β e la distanza D, gli spostamenti Δx, Δy possono essere determinati sulla base della seguente coppia di equazioni:
f
Dx=D X 1
12 p - X cosg cos b
D d 0
1 (15) f
Dy=D Y 1
12 p - X 0 sing cos b
D d 1
Infine, l’angolo θ può essere determinato applicando l’equazione (9) con riferimento alla terza sorgente luminosa 4c ed al terzo punto immagine 4c’, nonché sulla base degli angoli γ, β e degli spostamenti Δx, Δy appena determinati. In particolare, applicando l’equazione (9) con riferimento alla terza sorgente luminosa 4c ed al terzo punto immagine 4c’ si ottiene:
é cosgcosb singcosb -sin b 0 ù é f 1 ù f êsinJsinbcosg singcosJ singsinbsinJ cosgcosJ sinJcos b 0ú ê<X>3<P>,<Y>3<P>,0,ú= 1 [0, Y0,0, 1 ]ê - ú ë D d 1û D d 1 êcosJsinbcosg+singsinJsingsinbcosJ-cosgsinJcosJcosb0ú ê x y z 1 ú ë D D D û
(16)
Esplicitando l’equazione (16), si ottiene:
ì f1 Y 0 æDx ö
ïX3 P =
ïççsinJsinbcosg-sing cos J
D d1 Y÷÷
è 0 ø
í (17) ï f1 Y 0 æDy ö
Yï 3 P = sinJsinbsing+cosg cos J
D dçç÷÷
î 1è Y 0 ø
Il sistema trigonometrico (17) può essere trasformato in una coppia di equazioni parametriche imponendo le condizioni
ì<m>= sin J
í (18) î n = sin b
e raccogliendo a termine noto sulla base di quanto segue:
<a>1 = cot g
(19) a 2 = tan g
P ( D ) 1 0
<=>
D d 1 (20)
e
X 3 P D x
b 1= -P ( D )sing Y 0 sin g
(21) Y 3 P D y
b 2= -P ( D )cosg Y 0 cos g
in maniera tale per cui il sistema trigonometrico (17)
diventa:
2
ïì (amn-b )2
1 1<=>1<->m
n-b 2<2>
1m 1<b>
<)>=<(>-a2mn+b 2<)>Þm = 1<b>2 í2 2Þ<(>a (22) ïî(-a2mn+b 2 ) = 1 - m n(a1+ a2 )
L’angolo θ è dunque pari a:
Jæ b b ö
= arcsin 1 2
çç<÷>(23) è sin(b)(a1 a 2)÷ø
Riassumendo, si ha dunque che:
ì æ X 3P D x Y
3 P D y
ï ö
ç ÷
ï = arcsinçP ( D )sing Y 0sing P ( D )cosg Y 0 cos g
J ÷
ï ç sin (b )(cot ang tan g ) ÷
ï ç ÷
ï è ø
ï æ ö
ï ç ÷
ï ç DX ( d 1 ) ÷
ï b = ar cosç 12 P D
÷
ï ç æ æ D Y ö
ï 2f X cosç ö
a tan 12 P ÷
ç 1 0çç
ïç
è è è D X ø÷÷÷
ø÷12 P ÷
ø
í
ï æ D Y ö
ï g = arctan 12 P
çç÷÷
ï è D X 12 P ø
ï f1d 2DX '
12 P-f2d1D X
ï D = 12 P
ï f1DX12 P-f 2 D X '
12 P
ï
ï f
Dx=D X 12 p - 1 X 0cosg cos b
ï D - f 1
ï
ï f (24) ïDy=D Y 12 p - 1 X 0sing cos b
î D - f 1
In pratica, il sistema metrologico 1, di tipo bifocale, consente di determinare in modo analitico e non ambiguo tutti e sei i gradi di libertà che caratterizzano la posizione e l’assetto della costellazione 2 rispetto all’unità ottica 6. Ciò è dovuto al fatto di disporre di due differenti immagini della costellazione 2, ottenute mediante due sistemi ottici (nella fattispecie, il primo ed il secondo treno ottico OT1 e OT2) che condividono un medesimo punto di ingresso dei raggi ottici, hanno piani principali che distano distanze differenti dalla costellazione e hanno lunghezze focali differenti. In tal modo, sulla superficie di rilevazione A si formano due differenti immagini della costellazione 2.
In generale, al fine di consentire la formazione nitida della prima e della seconda immagine I1, I2quando la costellazione 2 dista una distanza di progetto Dprogdell’unità ottica 6, è possibile determinare la prima e la seconda lunghezza focale f1, f2come descritto qui di seguito.
A tal proposito, si premette che, data una qualsiasi distanza tra il primo ed il secondo satellite sat1 e sat2, il primo ed il secondo treno ottico OT1 e OT2 producono, in un ipotetico piano infinitamente esteso e contenente la superficie di rilevazione A, due immagini differenti della costellazione 2. In particolare, l’immagine prodotta dal secondo treno ottico OT2 ha dimensioni maggiori rispetto a quella prodotta dal primo treno ottico OT1, perché la seconda lunghezza focale f2è maggiore della prima lunghezza focale f1, e dunque il secondo treno ottico OT2 si caratterizza nei confronti del primo treno ottico OT1 per un maggior ingrandimento.
Ciò premesso, è possibile determinare la prima e la seconda lunghezza focale f1, f2sulla base della costellazione 2 e della superficie di rilevazione A, in modo che, quando la costellazione 2 si trova alla distanza di progetto Dprog, la prima e la seconda immagine I1, I2sono contenute all’interno della superficie di rilevazione A e sono nitide. A tal proposito si osserva che, data per semplicità di calcolo una costellazione semplificata (non mostrata) formata da due sole sorgenti luminose distanti tra loro una distanza O, la corrispondente prima immagine è sicuramente nitida se essa occupa almeno due pixel del sensore ottico 11. A tal fine, è possibile imporre f1=(Dprog·Hq)/O, in cui Hqè pari a 2*q (essendo q la lunghezza del lato di un pixel). Essendo nitida la prima immagine, anche la corrispondente seconda immagine sarà nitida, in quanto ottenuta con un treno ottico avente maggior ingrandimento; tuttavia, la seconda focale f2deve essere tale per cui la seconda immagine è contenuta interamente all’interno della superficie di rilevazione A. A tal fine, è possibile imporre f2<(Dprog·Q)/O, in cui Q è appunto la lunghezza del lato della superficie di rilevazione A.
Come mostrato in figura 7, è altresì possibile una forma di realizzazione in cui l’unità ottica 6 comprende un primo ed un secondo gruppo ottico 42 e 44, ciascuno dei quali formato da più lenti. A titolo puramente esemplificativo, nella forma di realizzazione mostrata in figura 7 il primo gruppo ottico 42 comprende, oltre alla prima lente intermedia 22, una terza ed una quarta lente intermedia 42a-42b, tra le quali è interposta la prima lente intermedia 22. Similmente, il secondo gruppo ottico 44 comprende, oltre alla seconda lente intermedia 24, una quinta ed un sesta lente intermedia 44a, 44b, tra le quali è interposta la seconda lente intermedia 24. Nel caso in cui vi siano il primo ed il secondo gruppo ottico 42, 44, come peraltro nel caso in cui la prima e la seconda lente intermedia 22, 24 non siano sottili, il primo ed il secondo treno ottico OT1 e OT2 presentano ciascuno una rispettiva coppia di piani principali. In tal caso, come mostrato qualitativamente in figura 7, il primo gruppo ottico 42 definisce, oltre al primo piano principale, qui indicato con P42a, un terzo piano principale P42b. Analogamente, il secondo gruppo ottico 44 definisce, oltre al secondo piano principale, qui indicato con P44a, un quarto piano principale P44b. Inoltre, come mostrato ancora in figura 7, il primo ed il secondo piano principale P42a, P44anon passano necessariamente per i centri ottici della prima e della seconda lente intermedia 22, 24.
A titolo puramente esemplificativo, nella forma di realizzazione mostrata in figura 7 il primo piano principale P42asi trova tra il primo divisore di fascio ottico 14 e la terza lente intermedia 42a, mentre il secondo piano principale P44asi trova tra il primo elemento riflettente 18 e la quinta lente intermedia 44a. Inoltre, il terzo piano principale P42bsi trova tra la quarta lente intermedia 42b ed il secondo divisore di fascio ottico 16, mentre il quarto piano principale P44bsi trova tra la sesta lente intermedia 44b ed il secondo elemento riflettente 20. In pratica, il primo ed il terzo piano principale P42a, P42bformano, rispettivamente, il piano principale anteriore ed il piano principale posteriore del primo gruppo ottico 42, mentre il secondo ed il quarto piano principale P44a, P44bformano, rispettivamente, il piano principale anteriore ed il piano principale posteriore del secondo gruppo ottico 44.
In modo di per sé noto, ciascuno tra il primo ed il secondo gruppo ottico 42, 44 presenta inoltre una cosiddetta lunghezza focale effettiva anteriore ed una lunghezza focale effettiva posteriore.
Riferendosi alle lunghezze focali effettive posteriori del primo e del secondo gruppo ottico 42, 44 rispettivamente come alla prima ed alla seconda focale equivalente fe1, fe2, ed indicando con d3e d4le distanze del terzo e del quarto piano principale P42b, P44bdal sensore optoelettronico 10, queste ultime possono essere all’incirca pari, rispettivamente, alla prima ed alla seconda focale equivalente fe1, fe2.
In maggior dettaglio, è ancora possibile indicare con d1e d2le distanze del primo e del secondo piano principale P42a, P44adal primo divisore di fascio ottico 14. Inoltre, la prima e la terza distanza d1, d3sono ancora misurate lungo il primo cammino ottico, mentre la seconda e la quarta distanza d2e d4sono ancora misurate lungo il secondo cammino ottico. Tutto ciò premesso, nel caso della forma di realizzazione mostrata in figura 7, le equazioni (10-24) si modificano di conseguenza, mediante sostituzione della prima e della seconda lunghezza focale f1, f2con, rispettivamente, la prima e la seconda focale equivalente fe1, fe2, senza alcun decadimento delle prestazioni dell’unità ottica 6. Inoltre, la presenza del primo e del secondo gruppo ottico 42, 44 consente di migliorare l’immunità dell’unità ottica 6 a fenomeni ottici quali, ad esempio, l’aberrazione.
Sono inoltre possibili forme di realizzazione in cui il sensore optoelettronico 10 comprende una superficie di rilevazione addizionale, ad esempio uguale alla superficie di rilevazione A, ed in cui il secondo cammino ottico termina su tale superficie di rilevazione addizionale, anziché sulla superficie di rilevazione A. In tal caso, la seconda immagine I2della costellazione 2 si forma sulla superficie di rilevazione addizionale.
Sono inoltre possibili forme di realizzazione ancora differenti, in cui la costellazione ha un numero Nsdi sorgenti luminose, con Nsdiverso da tre, ed in cui l’unità ottica 6 dispone di ulteriori treni ottici, in maniera tale per cui essa è atta a formare, sulla superficie di rilevazione A, un numero NIdi immagini, dove NIè il numero totale di treni ottici presenti nell’unità ottica 6. Ad esempio, può darsi che sia Ns=2 e NI=3. Infatti, aumentando il numero di immagini, è possibile ridurre il numero di sorgenti luminose della costellazione, senza rinunciare a determinare alcuna delle summenzionate grandezze. E’ altresì possibile che l’unità elettronica di elaborazione 30 determini grandezze differenti rispetto agli angoli θ, β, γ, alla distanza D ed agli spostamenti Δx, Δy, come ad esempio grandezze riferite a sistemi di riferimento non cartesiani, ovvero un sottoinsieme di tali grandezze.
Inoltre, come mostrato in figura 8, il presente sistema metrologico può essere impiegato all’interno di un sistema satellitare 60 includente il primo ed il secondo satellite sat1, sat2, ed in cui il secondo satellite sat2 ospita un sistema di controllo di assetto e posizione 62, elettronicamente accoppiato all’unità elettronica di elaborazione 30. Il sistema di controllo di assetto e posizione 62 riceve quindi le grandezze che, nel tempo, vengono determinate dall’unità elettronica di elaborazione 30, iterando le operazioni precedentemente descritte. Il sistema di controllo di assetto e posizione 62 può dunque operare, in modo di per sé noto, sulla base delle grandezze fornite dall’unità elettronica di elaborazione 30.
I vantaggi che il presente sistema metrologico 1 consente di ottenere emergono chiaramente dalla descrizione precedente. In particolare, esso consente di determinare in modo analitico e non ambiguo tutti e sei i gradi di libertà che caratterizzano la posizione e l’assetto della costellazione 2 rispetto all’unità ottica 6, impiegando una costellazione avente un numero limitato di sorgenti luminose. Inoltre, dal momento che sia il primo che il secondo cammino ottico iniziano in un medesimo punto, ossia in corrispondenza del diaframma 12, non si creano fenomeni di visione stereoscopica.
Risulta infine evidente che al sistema metrologico 1 descritto possono essere apportate modifiche e varianti, senza uscire dall’ambito della presente invenzione.
Ad esempio, in luogo del diaframma 12 può essere presente una lente di ingresso. Inoltre, la prima e la seconda lente intermedia 22, 24 possono essere di tipo differente da quanto descritto.
Il primo ed il secondo divisore di fascio ottico 14, 16 possono essere formati da corrispondenti prismi, oppure possono essere di qualsiasi tipo noto.
Ancora, le sorgenti luminose della costellazione possono essere disposte ai vertici di un triangolo scaleno e/o possono essere differenti rispetto a quanto descritto. Ad esempio, le sorgenti luminose possono essere passive, comprendendo ciascuna uno specchio, ad esempio del tipo cosiddetto “angolo di cubo” (“corner cube”). In tal caso, l’unità ottica 6 comprende inoltre un illuminatore atto ad illuminare la costellazione, in maniera tale per cui gli specchi che formano le sorgenti luminose riflettono radiazione verso l’unità ottica 6 stessa.
Infine, il sistema metrologico 1 può, come precedentemente accennato, trovare impieghi in ambiti differenti dal settore aerospaziale. Ad esempio, la costellazione 2 può essere montata su un primo oggetto, mentre l’unità ottica 6 può essere montata su un secondo oggetto, il primo ed il secondo oggetto essendo meccanicamente accoppiati, in maniera tale per cui il sistema metrologico consente di determinare il posizionamento reciproco tra il primo ed il secondo oggetto. Ad esempio, tali primo e secondo oggetto possono essere due differenti elementi di un telescopio, meccanicamente collegati.

Claims (10)

  1. RIVENDICAZIONI 1. Sistema metrologico ottico proiettivo (1) comprendente: - una costellazione luminosa (2) comprendente una pluralità di sorgenti luminose (4a-4c) aventi una predeterminata disposizione spaziale; - un sensore optoelettronico di immagine (10); - un’unità ottica (6) configurata per ricevere un segnale luminoso (R1,R2) proveniente dalla costellazione luminosa e per definire due differenti cammini ottici per il segnale luminoso verso il sensore optoelettronico di immagine, i due cammini ottici essendo tali da causare la simultanea formazione sul sensore optoelettronico di immagine di almeno due immagini (I1,I2) della costellazione luminosa; e - un’unità elettronica di elaborazione (30) accoppiata al sensore optoelettronico di immagine e configurata per determinare una pluralità di differenti grandezze indicative della posizione e dell’assetto della costellazione luminosa rispetto all’unità ottica, sulla base delle due immagini. 2. Sistema metrologico secondo la rivendicazione 1, in cui l’unità ottica (6) comprende inoltre un elemento ottico ricevente (12) configurato per ricevere il segnale luminoso (R1,R2) proveniente dalla costellazione luminosa (2); ed in cui entrambi i due cammini ottici si estendono verso il sensore optoelettronico di immagine (10) a partire dall’elemento ottico ricevente. 3. Sistema metrologico secondo la rivendicazione 2, comprendente inoltre: - un primo circuito ottico (OT1) avente un primo piano principale anteriore (P1;P42a), un primo piano principale posteriore (P1;P42b) ed una prima lunghezza focale effettiva posteriore (f1;fe1), e definente un primo cammino ottico di detti due cammini ottici; - un secondo circuito ottico (OT2) avente un secondo piano principale anteriore (P2;P44a), un secondo piano principale posteriore (P2;P44b) ed una seconda lunghezza focale effettiva posteriore (f2;fe2), e definente un secondo cammino ottico di detti due cammini ottici; e in cui il primo ed il secondo piano principale anteriore distano dall’elemento ottico ricevente (12) rispettivamente una prima ed una seconda distanza (dc+d1,dc+d2) tra loro differenti e misurate rispettivamente lungo il primo ed il secondo cammino ottico; ed in cui il primo ed il secondo piano principale posteriore distano dal sensore optoelettronico di immagine (10) rispettivamente una terza ed una quarta distanza (d3,d4), dette terza e quarta distanza essendo misurate rispettivamente lungo il primo ed il secondo cammino ottico ed essendo rispettivamente funzione della prima e della seconda lunghezza focale effettiva posteriore (f1,f2;fe1,fe2). 4. Sistema metrologico secondo la rivendicazione 3, in cui la terza e la quarta distanza (d3,d4) sono sostanzialmente pari, rispettivamente, alla prima ed alla seconda lunghezza focale effettiva posteriore (f1,f2;fe1,fe2). 5. Sistema metrologico secondo la rivendicazione 3 o 4, in cui il primo ed il secondo circuito ottico (OT1,OT2) sono inoltre configurati in modo da generare, a partire dal segnale luminoso ricevuto dall’elemento ottico ricevente (12), un primo ed un secondo fascio ottico (R1,R2), ed indirizzare verso il sensore optoelettronico di immagine (10) detti primo e secondo fascio ottico, rispettivamente lungo il primo ed il secondo cammino ottico, il primo ed il secondo circuito ottico essendo inoltre configurati in modo che il primo ed il secondo fascio ottico incidano sul sensore optoelettronico di immagine lungo una medesima direzione di incidenza (OA). 6. Sistema metrologico secondo la rivendicazione 5, in cui il primo circuito ottico (OT1) comprende l’elemento ottico ricevente (12) ed un primo ed un secondo divisore di fascio ottico (14,16), il secondo circuito ottico (OT2) comprendendo l’elemento ottico ricevente, il primo ed il secondo divisore di fascio ottico, ed un primo ed un secondo elemento riflettente (18,20); e in cui il primo divisore di fascio ottico è configurato in modo da suddividere il segnale luminoso ricevuto dall’elemento ottico ricevente nel primo e nel secondo fascio ottico (R1,R2), il primo divisore di fascio ottico essendo inoltre configurato per indirizzare il primo ed il secondo fascio ottico, rispettivamente, verso il secondo divisore di fascio ottico ed il primo elemento riflettente; e in cui il primo ed il secondo elemento riflettente sono configurati per ricevere il secondo fascio ottico e indirizzare il secondo fascio ottico verso il secondo divisore di fascio ottico, il quale è configurato per indirizzare sia il primo che il secondo fascio ottico verso il sensore optoelettronico di immagine (10), lungo la direzione di incidenza (OA). 7. Sistema metrologico secondo una qualsiasi delle rivendicazioni da 3 a 6, in cui il sensore optoelettronico (10) comprende una superficie di rilevazione (A), ed in cui la costellazione luminosa (2), la superficie di rilevazione e la prima e la seconda lunghezza focale effettiva posteriore (f1,f2;fe1,fe2) sono tali per cui, quando la costellazione luminosa dista una prima distanza (Dprog) dall’unità ottica (6), entrambe le due immagini (I1,I2) sono contenute all’interno della superficie di rilevazione e sono tali per cui l’unità di elettronica di elaborazione (30) è in grado di determinare, per ciascuna di dette due immagini, un numero di massimi di intensità luminosa pari al numero di sorgenti luminose della costellazione luminosa. 8. Sistema metrologico secondo la rivendicazione 7, in cui l’unità elettronica di elaborazione (30) è configurata per determinare, per ciascun massimo di intensità luminosa determinato, corrispondenti coordinate che identificano la posizione del massimo di intensità luminosa in un sistema di riferimento (x2,y2,z2) solidale alla superficie di rilevazione (A), l’unità elettronica di elaborazione essendo inoltre configurata per determinare detta pluralità di differenti grandezze sulla base delle coordinate determinate. 9. Sistema metrologico secondo una qualsiasi delle rivendicazioni precedenti, in cui la costellazione luminosa (2) comprende tre sorgenti luminose (4a-4c), ed in cui l’unità elettronica di elaborazione (30) è configurata per determinare sei differenti grandezze indicative della posizione e dell’assetto della costellazione luminosa rispetto all’unità ottica (6). 10. Sistema satellitare comprendente un primo ed un secondo satellite (sat1,sat1) ed un sistema metrologico (1) secondo una qualsiasi delle rivendicazioni precedenti, in cui la costellazione luminosa (2) e l’unità ottica (6) sono vincolate rispettivamente al primo ed al secondo satellite; e comprendente inoltre un sistema di controllo di assetto e posizione (62) vincolato al secondo satellite e configurato per ricevere dall’unità elettronica di elaborazione (30) detta pluralità di differenti grandezze. PROJECTIVE OPTICAL METROLOGY SYSTEM FOR DETERMINING ATTITUDE AND POSITION 1. A projective optical metrology system (1) comprising : - a light target (2) comprising a plurality of light sources (4a-4c) having a predetermined arrangement in space; - an image optoelectronic sensor (10); - an optical unit (6) configured to receive a light signal (RI,R2) coming from the light target and to define two different optical paths for the light signal towards the image optoelectronic sensor, the two optical paths being such as to induce the simultaneous formation on the image optoelectronic sensor of at least two images (Ii,l2) of the light target; and - an optoelectronic processing unit (30) coupled to the image optoelectronic sensor and configured to determine a plurality of different quantities indicative of the position and attitude of the light target with respect to the optical unit, on the basis of two images.
  2. 2. The metrology system according to claim 1, wherein the optical unit (6) further comprises a receiving optical element (12) configured to receive the light signal (RI,R2) coming from the light target (2); and wherein both the optical paths extend towards the image optoelectronic sensor (10) from the receiving optical element.
  3. 3. The metrology system according to claim 2, further comprising : - a first optical circuit (OT1) having a first main front plane (Pi;P42a)/a first main back plane (Pi;P42b) and a first effective back focal length (fi;fei), and defining a first optical path of said two optical paths; - a second optical circuit (OT2) having a second main front plane (P2;P44a), a second main back plane (P2;P44b) and a second effective back focal length (f2;fe2)/and defining a second optical path of said two optical paths; and wherein the first and second main front planes are spaced from the receiving optical element (12) respectively by a first and a second distance (dc+di,dc+d2) which differ from one another and are measured respectively along the first and second optical paths; and wherein the first and second main back planes are spaced from the image optoelectronic sensor (10) respectively by a third and a fourth distance (d3,d4), said third and fourth distances being respectively measured along the first and second optical paths and being respectively a function of the first and second effective back focal lengths (f1,f2;fe1,fe2)■
  4. 4. The metrology system according to claim 3, wherein the third and fourth distances (d3,d4) are substantially equal respectively to the first and second effective back focal lengths (fi,f2;fei,fe2)·
  5. 5. The metrology system according to claim 3 or 4, wherein the first and second optical circuits (0T1, 0T2) are also configured so as to generate, from the light signal received from the receiving optical element (12), a first and a second optical beam (RI,R2), and direct said first and second optical beams towards the image optoelectronic sensor (10), respectively along the first and second optical paths, the first and second optical circuits also being configured so that the first and second optical beams impinge on the image optoelectronic sensor along the same incidence direction (OA).
  6. 6. The metrology system according to claim 5, wherein the first optical circuit (OT1) comprises the receiving optical element (12) and a first and a second optical beam splitter (14, 16), the second optical circuit (OT2) comprising the receiving optical element, the first and second optical beam splitters, and a first and a second reflecting element (18,20); and wherein the first optical beam splitter is configured so as to subdivide the light signal received from the receiving optical element into the first and second optical beams (RI,R2), the first optical beam splitter also being configured to direct the first and second optical beams, respectively, towards the second optical beam splitter and the first reflecting element; and wherein the first and second reflecting elements are configured to receive the second optical beam and direct the second optical beam towards the second optical beam splitter, which is configured to direct both the first and second optical beams towards the image optoelectronic sensor (10), along the incidence direction (OA).
  7. 7. The metrology system according to any of claims 3 to 6, wherein the optoelectronic sensor (10) comprises a detection surface (A), and wherein the light target (2), the detection surface and the first and second effective back focal lengths (fi,f2;fei,fe2) are such that, when the light target is spaced by a first distance (Dprog)from the optical unit (6), both of the two images (Ii,l2) are contained in the detection surface and are such that the electronic processing unit (30) can determine, for each of said two images, a number of light intensity maximums equivalent to the number of light sources of the light target.
  8. 8. The metrology system according to claim 7, wherein the electronic processing unit (30) is configured to determine, for each of the determined light intensity maximums, corresponding coordinates that identify the position of the light intensity maximum in a reference system {x2rJ2rz2)integral with the detection surface (A), the electronic processing unit also being configured to determine said plurality of different quantities on the basis of the determined coordinates.
  9. 9. The metrology system according to any of the preceding claims, wherein the light target (2) comprises three light sources (4a-4c), and wherein the electronic processing unit (30) is configured to determine six different quantities indicative of the position and attitude of the light target with respect to the optical unit (6).
  10. 10. A satellite system comprising a first and a second satellite (satl, sat2) and a metrology system (1) according to any of the preceding claims, wherein the light target (2) and the optical unit (6) are respectively constrained to the first and second satellites; and further comprising an attitude and position control system (62) constrained to the second satellite and configured to receive said plurality of different quantities from the electronic processing unit (30).
IT000325A 2011-04-08 2011-04-08 Sistema metrologico ottico proiettivo per la determinazione di assetto e posizione ITTO20110325A1 (it)

Priority Applications (5)

Application Number Priority Date Filing Date Title
IT000325A ITTO20110325A1 (it) 2011-04-08 2011-04-08 Sistema metrologico ottico proiettivo per la determinazione di assetto e posizione
US13/440,734 US8625108B2 (en) 2011-04-08 2012-04-05 Protective optical metrology system for determining attitude and position
EP12163536.1A EP2508427B1 (en) 2011-04-08 2012-04-10 Projective optical metrology system for determining attitude and position
ES12163536.1T ES2555270T3 (es) 2011-04-08 2012-04-10 Sistema de metrología óptica proyectiva para determinar actitud y posición
PL12163536T PL2508427T3 (pl) 2011-04-08 2012-04-10 Optyczny układ pomiarowy z rzutowaniem do określania orientacji i położenia

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
IT000325A ITTO20110325A1 (it) 2011-04-08 2011-04-08 Sistema metrologico ottico proiettivo per la determinazione di assetto e posizione

Publications (1)

Publication Number Publication Date
ITTO20110325A1 true ITTO20110325A1 (it) 2012-10-09

Family

ID=44554203

Family Applications (1)

Application Number Title Priority Date Filing Date
IT000325A ITTO20110325A1 (it) 2011-04-08 2011-04-08 Sistema metrologico ottico proiettivo per la determinazione di assetto e posizione

Country Status (5)

Country Link
US (1) US8625108B2 (it)
EP (1) EP2508427B1 (it)
ES (1) ES2555270T3 (it)
IT (1) ITTO20110325A1 (it)
PL (1) PL2508427T3 (it)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9261625B2 (en) * 2011-11-10 2016-02-16 California Institute Of Technology Ultra high resolution gravity gradiometery technique
US20160146600A1 (en) * 2013-11-22 2016-05-26 Shervin Taghavi Larigani Novel technique of displacement and rotation measurement
US10295651B2 (en) * 2016-09-21 2019-05-21 Pinhas Ben-Tzvi Linear optical sensor arrays (LOSA) tracking system for active marker based 3D motion tracking
US10949992B2 (en) * 2018-04-12 2021-03-16 Francis Bretaudeau Localization system with a cooperative optronic beacon
CN114879355B (zh) * 2021-02-05 2024-09-20 中国科学院苏州纳米技术与纳米仿生研究所 一种望远镜结构及其制作方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4834531A (en) * 1985-10-31 1989-05-30 Energy Optics, Incorporated Dead reckoning optoelectronic intelligent docking system
FR2702056A1 (fr) * 1993-02-23 1994-09-02 Centre Nat Rech Scient Appareil et objectif de prise de vues en stéréovision axiale.
US20050213096A1 (en) * 2002-02-27 2005-09-29 Aristodimos Kouris Pattern recognition system
US20080111985A1 (en) * 2006-04-20 2008-05-15 Faro Technologies, Inc. Camera based six degree-of-freedom target measuring and target tracking device
US20110043808A1 (en) * 2009-08-18 2011-02-24 Hisashi Isozaki Measuring apparatus

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2902894B1 (fr) 2006-06-27 2010-06-04 Cit Alcatel Systeme de metrologie lateral et longitudinal
EP1986018B1 (en) 2007-04-27 2014-11-19 Thales Alenia Space Italia S.p.A. Position and orientation determination
ITTO20110323A1 (it) * 2011-04-08 2012-10-09 Thales Alenia Space Italia S P A C On Unico Socio Sistema metrologico ottico proiettivo grossolano e di precisione

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4834531A (en) * 1985-10-31 1989-05-30 Energy Optics, Incorporated Dead reckoning optoelectronic intelligent docking system
FR2702056A1 (fr) * 1993-02-23 1994-09-02 Centre Nat Rech Scient Appareil et objectif de prise de vues en stéréovision axiale.
US20050213096A1 (en) * 2002-02-27 2005-09-29 Aristodimos Kouris Pattern recognition system
US20080111985A1 (en) * 2006-04-20 2008-05-15 Faro Technologies, Inc. Camera based six degree-of-freedom target measuring and target tracking device
US20110043808A1 (en) * 2009-08-18 2011-02-24 Hisashi Isozaki Measuring apparatus

Also Published As

Publication number Publication date
EP2508427B1 (en) 2015-09-09
US8625108B2 (en) 2014-01-07
EP2508427A8 (en) 2013-01-02
US20120257194A1 (en) 2012-10-11
ES2555270T3 (es) 2015-12-30
EP2508427A1 (en) 2012-10-10
PL2508427T3 (pl) 2016-04-29

Similar Documents

Publication Publication Date Title
KR102288574B1 (ko) 깊이 정보 결정을 위한 다중 이미터 조명
ITTO20110323A1 (it) Sistema metrologico ottico proiettivo grossolano e di precisione
US9696140B2 (en) Laser tracker with position-sensitive detectors for searching for a target
US10126415B2 (en) Probe that cooperates with a laser tracker to measure six degrees of freedom
EP2918967B1 (en) Method for monitoring linear dimensions of three-dimensional objects
US20090152440A1 (en) Extended range focus detection apparatus
WO2003021184A1 (en) Rapid in-situ mastering of an aspheric fizeau
US20140063491A1 (en) Boresight error monitor for laser radar integrated optical assembly
WO2013144649A1 (en) Coordinate measurement system and method
ITTO20110325A1 (it) Sistema metrologico ottico proiettivo per la determinazione di assetto e posizione
US20150192411A1 (en) Two axis interferometer tracking device and method
KR102158026B1 (ko) 캘리브레이션 장치 및 카메라 시스템
CN120031963A (zh) 单目相机与激光测距仪三维融合测量及靶标中心提取方法
JP2013050352A (ja) ステレオカメラの取り付け調整方法及びステレオカメラ
CN109596064B (zh) 双目共焦立体视觉扫描振镜位置误差矫正装置和方法
JPH09133873A (ja) 固体物体の向きを決定するための光学装置
Xu et al. Calibration method of laser plane equation for vision measurement adopting objective function of uniform horizontal height of feature points
Langmann Wide area 2D/3D imaging: development, analysis and applications
RU2461797C1 (ru) Устройство для измерения изгиба артиллерийского ствола
CN107356234B (zh) 一种基于光栅的空间姿态无源测头
KR101796223B1 (ko) 굴절률 분포 측정 시스템 및 이를 이용한 굴절률 분포 측정 방법
CN118168504A (zh) 用于光学卫星的夹角监测系统和方法
Fischer et al. Model-based deflectometric measurement of transparent objects
CN115727824B (zh) 协同观测载荷群共基准测量系统及测量方法
Petz et al. Three-dimensional shape measurement of aspheric refractive optics by pattern transmission photogrammetry