DE69123739T2 - Bildgenerator - Google Patents
BildgeneratorInfo
- Publication number
- DE69123739T2 DE69123739T2 DE69123739T DE69123739T DE69123739T2 DE 69123739 T2 DE69123739 T2 DE 69123739T2 DE 69123739 T DE69123739 T DE 69123739T DE 69123739 T DE69123739 T DE 69123739T DE 69123739 T2 DE69123739 T2 DE 69123739T2
- Authority
- DE
- Germany
- Prior art keywords
- light source
- polygon
- point
- calculated
- viewpoint
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—Three-dimensional [3D] image rendering
- G06T15/50—Lighting effects
- G06T15/506—Illumination models
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B9/00—Simulators for teaching or training purposes
- G09B9/02—Simulators for teaching or training purposes for teaching control of vehicles or other craft
- G09B9/08—Simulators for teaching or training purposes for teaching control of vehicles or other craft for teaching control of aircraft, e.g. Link trainer
- G09B9/30—Simulation of view from aircraft
- G09B9/301—Simulation of view from aircraft by computer-processed or -generated image
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Educational Administration (AREA)
- Business, Economics & Management (AREA)
- Aviation & Aerospace Engineering (AREA)
- Educational Technology (AREA)
- Computer Hardware Design (AREA)
- Computer Graphics (AREA)
- Processing Or Creating Images (AREA)
- Image Generation (AREA)
- Image Processing (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
Description
- Die vorliegende Erfindung betrifft einen Bilderzeuger und insbesondere einen Rechner-Bilderzeuger, der zum Erzeugen von Informationen in Echtzeit geeignet ist, von denen ein Bild abgeleitet werden kann, um es beispielsweise in einem Flugsimulator zu zeigen.
- Echtzeit-Bilderzeuger für Flugsimulatoren werden dazu verwendet, Bilder zu simulieren, die Piloten/innen präsentiert werden, die sich in einem nachgebildeten Cockpit eines Luftfahrzeugs befinden. Der/die geplante Betrachter/in des vom System erzeugten Bildes, das heißt der/die Simulator'Pilot/in', schaut durch ein imaginäres Fenster nach draußen in eine dreidimensionale (3-D)-Welt, die durch Informationen definiert ist, die als geometrische und andere kennzeichnende Attributdaten in einer Hauptdatenbank gespeichert sind. Eine vom Blickpunkt durch das Fenster gezogene Linie schneidet einen Punkt in der 3-D-Welt. Die Farbe und die Stärke dieses Punktes muß am Schnittpunkt der Linie mit dem Fenster auf das Fenster 'gemalt' werden.
- Das gezeigte Bild setzt sich aus einer Reihe von Bildelementen (Pixeln) zusammen, die jeweils eine gleichförmige Farbe und Stärke aufweisen, wobei die Farbe und die Stärke jedes Pixels eine Funktion der Lage des Blickpunktes relativ zur 3-D-Welt ist, die durch die gespeicherten Daten repräsentiert wird. Bei einer Echtzeitanzeige, in der hunderttausende von Pixeln ausreichend schnell aktualisiert werden müssen, um ein Springen des Bildes zu vermeiden, ist zur Aufrechterhaltung der Bild- Wiedergabetreue das Ausführen vieler Millionen Rechenschritte pro Sekunde erforderlich.
- Ansprechend auf die Bedienung der Flugsteuerungen des simulierten Luftfahrzeugs ändert sich die Lage des Blickpunktes relativ zur Datenbank mit der Zeit. Der Simulator erzeugt zu jedem Zeitpunkt eine Ausgabe, die die Blickpunktposition in Welt-Raum-Koordinaten, das heißt im Koordinatensystem der Datenbank, und die Blickrichtung anzeigt, das heißt einen Vektor, der vom Blickpunkt des/der Piloten/in durch den Mittelpunkt des Sichtfensters gezogen wird. Die Datenbank speichert Daten, die die Position und die Orientierung einer großen Zahl von Merkmalen kennzeichnen, die eventuell einen Beitrag zum Endbild leisten. Der Bilderzeuger berechnet, welches der Merkmale beim gegebenen Blickpunkt sichtbar ist, die Lage der Begrenzungen der Merkmale relativ zum Sichtfenster und die Attribute, wie zum Beispiel Farbe und Stärke, der sichtbaren Merkmale. Die Verdeckung eines Merkmals durch ein anderes muß berücksichtigt werden, und bei Systemen hoher Qualität muß ferner die Wirkung eines durchscheinenden Merkmals, das ein anderes verdeckt, berücksichtigt werden.
- Der Inhalt der Datenbank wird dazu verwendet, die Farbund Stärkeinformationen für jedes Pixel des Bildes abzuleiten, das auf einem Bildschirm gezeigt werden soll, der sich vor dem/r Simulatorpiloten/in befindet. Der Mittelpunkt jedes Pixels liegt auf einer eindeutigen vorgegebenen imaginären Blicklinie, die sich vom Blickpunkt zum Bildschirm erstreckt und sich in Gedanken durch den Bildschirm bis auf die Oberfläche des in der Datenbank definierten Modells erstreckt. Das bedeutet, daß das Welt-Raum-Koordinatensystem der Datenbank unter Verwendung der Blickpunkt-Koordinaten in ein Koordinatensystem transformiert werden muß, dessen Ursprung der Blickpunkt ist, das heißt in ein Blickpunkt-Raum- Koordinatensystem, und die Informationen müssen dann vom Blickpunkt-Raum in ein Bildschirm-Raum-Koordinatensystem transformiert werden. Das Bildschirm-Raum-Koordinatensystem ist zweidimensional, und sein Ursprung liegt in der Mitte des Anzeigebildschirms. Diese Transformationen machen es möglich, diejenigen Oberflächenbereiche der modellierten Merkmale zu bestimmen, die die Farbe und die Stärke jedes Pixels (dessen Bildschirm-Raum-Koordinaten bekannt sind) bestimmen. Wenn die Merkmale, die einen Beitrag zu einem bestimmten Pixel leisten, identifiziert sind, können die Farbe, die Stärke und andere Attribute dieser Merkmale aus der Datenbank erhalten werden, und es können geeignete Berechnungen vorgenommen werden, um die endgültig gezeigte Farbe und Stärke des Pixels zu bestimmen.
- Wenn ein Bild hoher Qualität erzielt werden soll, dann müssen die endgültige Farbe und Stärke des Pixels auf einer Anzal von Stichproben der beitragenden Merkmale beruhen, die an Stichprobenpunkten genommen werden, die über jedes Pixel verteilt sind. Für jedes Merkmal, das einen Beitrag zu einem Bild leistet, muß festgestellt werden, ob dieses Merkmal jeden Punkt im Bildschirm-Raum überlappt, der einem Stichprobenpunkt entspricht.
- Bei den meisten bekannten Rechner-Bilderzeuger-Systemen ist das Welt-Raum-Modell als eine Reihe polygonaler Merkmale definiert. Bei einigen Systemen können ferner Lichtpunktmerkmale dargestellt werden. Bei polygonalen Merkmalen wird jedes Polygon in der Datenbank durch die Welt- Raum-Koordinaten zumindest seiner Scheitelpunkte beschrieben, und diese geometrischen Attribute müssen in Bildschirm-Raum- Koordinaten transformiert werden, um der Lage und der Ausrichtung des Blickpunktes Rechnung zu tragen. Das bedeutet eine anfängliche Transformation vom Welt-Raum in den Blickpunkt-Raum, gefolgt von einer Transformation vom Blickpunkt-Raum in den Bildschirm-Raum. Die Transformationen sind rechnerisch aufwendige Vorgänge, ermöglichen aber die Darstellung realistischer Bilder. Ein Lichtpunktmerkmal kann beispielsweise in der Datenbank durch eine Position (die Koordinaten des Lichtpunktmittelpunktes) im Welt-Raum beschrieben werden. Die Position wird in den Bildschirm-Raum transformiert, und das Merkmal kann dann auf einem kreisformigen Bereich des Bildschirms dargestellt werden, dessen Mittelpunkt die transformierte Position ist und dessen Radius eine Funktion der Entfernung ist, d.h. der Distanz vom Blickpunkt.
- Es sind Rechner-Bilderzeuger-Systeme bekannt, die die visuellen Effekte von Landelichtern simulieren können. Das US- Patent Nr. 4.511.337 beschreibt zum Beispiel ein System, das dazu in der Lage ist, die Beleuchtung des Bodens zu simulieren, die aus Licht resultiert, das von einem Luftfahrzeug getragen wird, einschließlich Änderungen der Lage, der Form und der Größe der beleuchteten Fläche mit Änderungen der Höhe und der Fluglage des Luftfahrzeugs. Dieses bekannte System zeigt im wesentlichen einen Kegelschnitt und kann akzeptable Ergebnisse erzielen, wenn es die Beleuchtung einer ebenen Bodenoberfläche, wie zum Beispiel einer Startbzw. Landebahn, simuliert. Wie auch bei anderen Ansätzen zur Simulierung von Landelichtern kann dieses bekannte System jedoch keine akzeptablen Ergebnisse erzielen, wenn die Landelichter etwas anderes als die Bodenebene beleuchten sollen. Wenn sich beispielsweise ein Luftfahrzeug einem Terminalgebäude nähert, dann folgt die 'beleuchtete Fläche' nicht den Wänden des Gebäudes, sondern 'beleuchtet' die Bodenebene im Gebäude. Auf diese Weise gehen auffällige visuelle Signale verloren, bzw. es erscheinen krasse Fehler in der simulierten Szenerie.
- Ein anderes Problem, das mit der Simulierung von Luftfahrzeugslichtern und von Lichtern anderer Fahrzeuge verbunden ist, ist das der Nebelbeleuchtung. Bei einigen Rechner-Bilderzeuger-Systemen ist es möglich, die Nebeleffekte zu simulieren, die in einer Verschlechterung der Sichtbarkeit durch den Nebel betrachteter Merkmale des Modells bestehen, indem die Farbe und die Stärke des Merkmals gemäß der Farbe und der Dichte des Nebels und der Entfernung zwischen dem/der Beobachter/in und dem Merkmal moduliert werden. Im Fall von Fahrzeuglichtern resultiert jedoch eine großer Teil der sichtbaren Effekte der Lichter aus einer Streuung von Licht zurück an den/die Beobachter/in im Fahrzeug.
- Es ist eine Aufgabe der vorliegenden Erfindung, die oben skizzierten Probleme zu umgehen bzw. zu mildern.
- Gemäß der vorliegenden Erfindung ist ein Verfahren zum Simulieren der Beleuchtungseffekte einer an einem Fahrzeug angebrachten Lichtquelle auf ein Modell in einem Bild vorgesehen, das auf einem Bildschirm gezeigt wird, wobei das Bild das Erscheinungsbild des Modells, das in einer Datenbank in Welt-Raum-Koordinaten definiert ist, von einer Blickpunktposition im Welt-Raum aus darstellen soll, wobei das Modell mit Bezug auf eine Mehrzahl von Merkmalen definiert ist, die jeweils vorgegebene Attribute aufweisen, und wobei die auf einem Fahrzeug angebrachte Lichtquelle mit Bezug auf einen Ursprung und eine Richtung im Blickpunkt-Raum definiert ist, dadurch gekennzeichnet, daß
- a. für jedes Merkmal, das potentiell einen Beitrag zum Bild leistet, die Winkelposition eines Punktes auf dem Merkmal relativ zur Lichtquelle als der Winkel zwischen der Lichtquellenrichtung und einer Linie, die von der Lichtquelle zu diesem Punkt gezogen wird, berechnet wird,
- b. eine Beleuchtungsstärke für diesen Punkt unter Bezugnahme auf den berechneten Winkel bestimmt wird,
- c. die Beleuchtungsstärke abhängig von der Entfernung vom Blickpunkt zu diesem Punkt verringert wird, um eine resultierende Stärke bereitzustellen, und
- d. die Attribute des Merkmals an diesem Punkt abhängig von der resultierenden Stärke moduliert werden.
- Die Erfindung stellt ferner einen Simulator der Beleuchtungseffekte einer an einem Fahrzeug angebrachten Lichtquelle auf ein Modell in einem Bild bereit, das auf einem Bildschirm gezeigt wird, wobei das Bild das Erscheinungsbild des Modells, das in einer Datenbank in Welt-Raum-Koordinaten definiert ist, von einer Blickpunktposition im Welt-Raum aus darstellen soll, wobei das Modell mit Bezug auf eine Mehrzahl von Merkmalen definiert ist, die jeweils vorgegebene Attribute aufweisen, und wobei die auf einem Fahrzeug angebrachte Lichtquelle mit Bezug auf einen Ursprung und eine Richtung im Blickpunkt-Raum definiert ist, gekennzeichnet durch
- a. Mittel, um für jedes Merkmal, das potentiell einen Beitrag zum Bild leistet, die Winkelposition eines Punktes auf dem Merkmal relativ zur Lichtquelle als der Winkel zwischen der Lichtquellenrichtung und einer Linie, die von der Lichtquelle zu diesem Punkt gezogen wird, zu berechnen,
- b. Mittel, um eine Beleuchtungsstärke für diesen Punkt unter Bezugnahme auf den berechneten Winkel zu bestimmen,
- c. Mittel, um die Beleuchtungsstärke abhängig von der Entfernung vom Blickpunkt zu diesem Punkt zu verringern, um eine resultierende Stärke bereitzustellen, und
- d. Mittel, um die Attribute des Merkmals an diesem Punkt abhängig von der resultierenden Stärke zu modulieren.
- Der Bildschirm ist bevorzugt in eine Mehrzahl von Anzeigezellen unterteilt, die jeweils eine Pixelanordnung überdecken, der genannte Winkel wird an jeder Anzeigezellenecke berechnet, die resultierende Beleuchtungsstrke wird an jeder Anzeigezellenecke bestimmt und die Beleuchtungsstärke an jedem Pixel wird durch Interpolation aus den resultierenden Beleuchtungsstärken an den jeweiligen Anzeigezellenecken bestimmt.
- Der Kosinus des genannten Winkels kann aus dem Skalarprodukt eines Vektors, der die Richtung der Lichtquelle repräsentiert, mit einem Vektor, der von der Lichtquelle auf den genannten Punkt auf dem Merkmal gerichtet ist, berechnet werden.
- Das Quadrat des Kosinus des genannten Winkels wird bevorzugt wie folgt berechnet:
- (lx, ly, lz) die Komponenten des Vektors sind, der die Richtung der Lichtquelle repräsentiert,
- (xs, ys) die Bildschirm-Raum-Koordinaten des genannten Punktes sind,
- (xo, yo, zo) die Blickpunkt-Raum-Koordinaten der Lichtquelle sind,
- (xp, yp, zp) die Blickpunkt-Raum-Koordinaten des genannten Punktes sind,
- sekf ein Schrägentfernungs-Korrekturfaktor ist,
- Lo = xolx + yoly + zolz
- Ld = xo² + yo² + zo²
- und dx und dy Funktionen des Halbwinkels der Anzeige sind. Für jedes Einzelbild werden bevorzugt Beleuchtungsstärken für jeden einer vorgegebenen Anzahl von Stichprobenwinkeln berechnet, die berechneten Werte werden in einer Nachschlagetabelle gespeichert, und die gespeicherten Werte werden vom berechneten Winkel adressiert, um die entsprechenden Beleuchtungsstärken abzuleiten.
- Bevorzugt werden Entfernungsdämpfungsfaktoren, die eine Funktion des Quadrats der Entfernung sind, für die Lichtquelle berechnet und in einer Nachschlagetabelle gespeichert, und die gespeicherten Werte werden vom Quadrat der Entfernung adressiert, um den entsprechenden Entfernungsdämpfungsfaktor abzuleiten.
- Das obige Verfahren kann dafür ausgelegt sein, im Bild die Beleuchtungseffekte der auf einem Fahrzeug angebrachten Lichtquelle auf die Atmosphäre zu zeigen, wobei
- a. ein dreieckiges Strahlenpolygon mit einer Spitze im Ursprung der Lichtquelle definiert wird, wobei das Strahlenpolygon in einer Ebene liegt, die eine Achse durch den Ursprung parallel zur genannten Richtung umfaßt, normal zu einer vom Blickpunkt aus gezogenen und die Achse schneidenden Linie liegt und eine definierte Länge und einen definierten Halbwinkel vom genannten einen Scheitelpunkt aus aufweist,
- b. ein zweiter und ein dritter Scheitelpunkt des Strahlenpolygons berechnet werden,
- c. die Beleuchtungsstärke des Strahlenpolygons abhängig von der Entfernung von der Lichtquelle berechnet wird und
- d. das Strahlenpolygon auf dem Bildschirm als ein Merkmal des Modells gemäß seinen berechneten Scheitelpunkten und seiner berechneten Stärke gezeigt wird.
- Für das Strahlenpolygon wird bevorzugt aus den Koordinaten des Ursprungs der Lichtquelle und den Komponenten eines Vektors, der der genannten Achse entspricht, eine Ebenengleichung Ax+By+Cz+D=0 berechnet, und der zweite und der dritte Scheitelpunkt werden aus der Ebenengleichung und der genannten definierten Länge und dem genannten definierten Halbwinkel berechnet.
- Ähnlich kann der Simulator auch dafur eingesetzt werden, im Bild die Beleuchtungseffekte der auf einem Fahrzeug angebrachten Lichtquelle auf die Atmosphäre zu zeigen, wobei der Simulator folgendes umfaßt:
- a. Mittel, um ein dreieckiges Strahlenpolygon mit einer Spitze im Ursprung der Lichtquelle zu definieren, wobei das Strahlenpolygon in einer Ebene liegt, die mit einer Achse durch den Ursprung parallel zur genannten Richtung zusammenfällt, normal zu einer vom Blickpunkt aus gezogenen und die Achse schneidenden Linie liegt und eine definierte Länge und einen definierten Halbwinkel vom genannten einen Scheitelpunkt aus aufweist,
- b. Mittel, um einen zweiten und einen dritten Scheitelpunkt des Strahlenpolygons zu berechnen,
- c. Mittel, um die Beleuchtungsstärke des Strahlenpolygons abhängig von der Entfernung von der Lichtquelle zu berechnen, und
- d. Mittel, um das Strahlenpolygon auf dem Bildschirm als ein Merkmal des Modells gemäß seinen berechneten Scheitelpunkten und seiner berechneten Stärke zu zeigen.
- Es wird nun beispielhaft und mit Bezug auf die beiliegenden Zeichnungen ein Ausführungsbeispiel der vorliegenden Erfindung beschrieben. In den Zeichnungen zeigen
- Fig. 1 eine schematische Darstellung der grundlegenden Konfiguration eines Rechner-Bilderzeuger-Systems gemäß der vorliegenden Erfindung;
- Fig. 2 eine schematische Darstellung eines Transformationswerks, das zur Verwendung in einem System des allgemein in Fig. 1 dargestellten Typs geeignet ist;
- Fig. 3 die gegenseitige Beziehung zwischen verschiedenen Teilflächen des Bildschirm-Raums beim Ausführungsbeispiel der vorliegenden Erfindung;
- Fig. 4 eine schematische Darstellung grundlegender Komponenten des Bildaufbereitungswerks, das skizzenhaft mit Bezug auf Fig. 1 beschrieben wird;
- Fig. 5 schematisch die Geometrie der Landelichtsimulierung gemäß der vorliegenden Erfindung;
- Fig. 6 die Geometrie der Nebelbeleuchtung durch Landelichter gemäß der vorliegenden Erfindung; und
- Fig. 7 die Struktur eines Landelichtprozessors gemäß der vorliegenden Erfindung.
- Es wird zunächst auf Fig. 1 Bezug genommen, in der die grundlegenden Funktionskomponenten eines Ausführungsbeispiels der vorliegenden Erfindung dargestellt sind, das zur Verwendung in einem Flugsimulator ausgelegt ist. Der Simulator umfaßt einen Hauptrechner 1, der Ausgaben bereitstellt, die der Position und der Fluglage des simulierten Luftfahrzeugs relativ zu einem Welt-Raum-Modell der Erdoberfläche entsprechen. Für eine/n Beobachter/in im simulierten Luftfahrzeug soll ein Bild dargestellt werden, das das Erscheinungsbild der Modelloberfläche repräsentiert. Beim beschriebenen Ausführungsbeispiel wird das Bild auf einen Rückproschirm projiziert. Der/die Beobachter/in sieht die Reflexion des Rückproschirms in einem großen sphäroidischen Spiegel. Es versteht sich jedoch, daß alternative Anzeigesysteme verwendet werden können.
- Ein Systemmanager (SM) 2 empfängt die Ausgaben des Hauptrechners 1, die die Position und die Fluglage des Luftfahrzeugs beschreiben, und lädt von einer Datenbank Daten hinunter, die das Modell beschreiben und denjenigen Teilen des Modells entsprechen, die in Anbetracht der Position und der Fluglage des simulierten Luftfahrzeugs vom Blickpunkt des/der Beobachters/in aus potentiell sichtbar sind. Das Bild wird als eine Mehrzahl von Raster-Abtastzeilen projiziert. Kalligraphische Lichtpunkte könnten, unter Verwendung üblicher Techniken, dem Bildraster überlagert werden.
- Die das Modell beschreibenden Daten werden während der Modellerstellung vorgegeben, beschreiben aber Merkmale der Modeuszenene, zum Beispiel Start- und Landebahnen, Gebäude und Wiesen, in Ausdrücken, die sich auf einen Satz von Welt- Raum-Koordinaten mit vorgegebenem Ursprung beziehen. Das Modell kann eine Reihe verschiedener Merkmalstypen umfassen, zum Beispiel geradseitige polygonale Merkmale und kreisförmige Lichtpunkte. Die das Modell beschreibenden Daten sind hierarchisch so geordnet, daß die meisten individuellen Merkmale des Modells mit Bezug auf Objekte definiert sind, von denen sie ein Bestandteil sind, und diese Objekte sind ihrerseits mit Bezug auf andere Objekte im Modell definiert. Die Modellwelt wird somit im allgemeinen ein Merkmal im 'Objektraum' definieren, das heißt mit Bezug auf ein Koordinatensystem, dessen Ursprung und dessen Achsen auf ein Objekt, wie zum Beispiel ein Gebäude, bezogen sind. Das Koordinatensystem dieses Objekts ist dann entweder direkt oder über ein oder mehrere weitere Objekte auf Welt-Raum- Koordinaten bezogen. Der Ausdruck 'Welt-Raum-Koordinaten' wird hierin so verwendet, daß er sowohl einen direkten Bezug auf das Koordinatensystem der Hauptdatenbank als auch einen indirekten Bezug auf das Koordinatensystem der Hauptdatenbank über einen oder mehrere 'Objekträume' umfaßt.
- Die herausgenommenen modellbeschreibenden Daten werden zu einem Transformationswerk (TW) 3 geführt, das zwei Hauptfunktionen erfüllt, nämlich eine geometrische Transformation der Merkmalsdaten des Modells aus der Datenbank bzw. aus dem Welt-Raum-Koordinatensystem in das System der Beobachter/innen bzw. in das Blickpunkt-Koordinatensystem und eine perspektivische Transformation vom 3-D-Blickpunkt- Koordinatensystem in ein 2-D-Bildschirm-Raum- Koordinatensystem. Die zur Erzielung solcher Transformationen verwendeten Techniken sind wohlbekannt und werden dementsprechend hier nicht im Detail erläutert.
- Das TW 3 liefert einen Strom modellbeschreibender Daten in Bildschirmkoordinaten an ein Bildaufbereitungswerk (BW) 4. Das BW 4 führt eine Reihe von Funktionen aus, wobei es geometrische Attributdaten (z.B. Größe und Position) von Merkmalen des Modells und nichtgeometrische Attributdaten von Merkmalen des Modells (zum Beispiel Farbe, Transparenz) verwendet, die vom TW 3 empfangen werden, um für jedes Pixel des darzustellenden Bildes eine endgültige Farbe zu erzeugen. Daten, die die nichtgeometrischen Attributdaten repräsentieren, werden in einen Bildspeicher im BW 4 geladen, wobei der Bildspeicher eine Speicheradresse in bezug auf jedes Pixel in der endgültigen Darstellung aufweist. Der Inhalt des Bildspeichers wird zur Anzeigeeinrichtung 5 hinuntergeladen, die das endgültige Bild produziert. Das System weist somit vier Hauptpipelinestufen auf, so daß, während ein Einzelbild dargestellt wird, das als nächstes darzustellende Einzelbild im BW 4 aufbereitet wird, das als übernächstes darzustellende Einzelbild im TW 3 verarbeitet wird, und das als überübernächstes darzustellende Einzelbild im SM 2 verarbeitet wird. Jede Stufe ist von der bzw. von jeder angrenzenden Stufe durch einen doppelt gepufferten Speicher getrennt. Ein Einzelbild-Austauschsignal wird erzeugt, um alle doppelt gepufferten Speicher zu einem Austausch im Gleichtakt zu veranlassen. Daten, die ein bestimmtes Einzelbild betreffen, werden somit mittels des Einzelbild-Austauschsignals effektiv durch die Pipeline "getaktet".
- Fig. 2 ist eine detailliertere Darstellung des TW 3 aus Fig. 1. Das TW verarbeitet Daten, die zuvor aus dem SM 2 in eine kanalaktive Datenbank (KADB) 6 ausgelesen wurden. Der Inhalt der KADB 6 entspricht der Gesamtheit der Daten innerhalb der Hauptdatenbank, die sich vom Blickpunkt aus in einem potentiell sichtbaren Bereich befinden. Die KADB 6 umfaßt einen Speicher 7 und eine Steuerlogik 8, die die ausgelesenen Daten vom Speicher zu einer Anordnung von Objektprozessoren 9 steuert, die ihrerseits Steuereingaben an die Steuerlogik 8 liefert. Der Speicher 7 enthält die gesamte aktive Datenbank, und die Steuerlogik 8 wählt Objektdaten zur Verarbeitung aus. Die Objektprozessoranordnung 9 umfaßt individuelle Objektprozessoren 10, die in Gruppen auf jeweiligen Platinen 11 angeordnet sind. Diese Prozessoren bilden das Hauptrechenelement des TW 3.
- Eine gemeinsame Ausgabe 12 der Objektprozessoranordnung 9 wird an einen Abtastumsetzer 13 geliefert, der eine Logikeinheit 14 umfaßt, die eine Ausgabe an einen Abtastumsetzerspeicher 15 liefert. Ein Attributspeicher 16 empfängt Eingaben über den Abtastumsetzer 13. Die Speicher 15 und 16 liefern die Ausgaben des TW 3 an das Bildaufbereitungswerk BW 4.
- Die Objektprozessoren 10 erfüllen verschiedene Funktionen, unter anderem die Steuerung der Verteilung von Daten an die Objektprozessoren auf effiziente Weise, das Ausführen einer Entfernungsaussortierung, um alle Objekte auszuschließen, die sich in zu großer Entfernung befinden, um vom Blickpunkt aus sichtbar zu sein, und das Ausführen einer Sichtfeldaussortierung, um alle Objekte auszuschließen, die sich ganz außerhalb des Sichtfeldes befinden, das durch die Lage des Sichtfensters bzw. des Bildschirms relativ zum Blickpunkt gegeben ist. Für alle Merkmale, die nicht im Zuge dieser Verarbeitung aussortiert werden, müssen die geometrischen Attribute verarbeitet werden. Diese Verarbeitung umfaßt eine Reihe grundlegender Vorgänge, wie zum Beispiel Rückseitenentfernung (die Aussortierung aller Merkmale, die vom Blickpunkt aus nicht gesehen werden können, da sie vom Blickpunkt abgewandt sind), Ebenengleichungs- Attributberechnung (unter Verwendung der Koeffizienten der Ebene jedes potentiell sichtbaren Merkmals im Blickpunkt-Raum) und Sichtfeldaussortierung (die Aussortierung aller Merkmale, die ganz außerhalb des Sichtfeldes liegen, das durch das Sichtfenster repräsentiert wird). Diese Vorgänge sind für die vorliegende Erfindung nicht direkt relevant und werden daher hierin nicht im einzelnen beschrieben. Das Transformationswerk transformiert allerdings Daten, die zur Simulierung von Landelichtern gemäß der vorliegenden Erfindung benötigt werden, und diese Verarbeitung wird untenstehend ausführlich beschrieben.
- Das dargestellte Bild setzt sich aus einer regelmäßigen Anordnung von Pixeln zusammen, die sich nicht überlappen und die zusammen den gesamten Bildschirm überdecken. Jedes Pixel wird mittels der Raster-Abtastanzeigeeinrichtung als ein Bereich gleichförmiger Farbe und Stärke projiziert. Figur 3 enthält vier Darstellungen verschiedener Unterteilungen des Bildschirms, wobei die am weitesten links gelegene Darstellung zu einem Viertel des Maßstabs der drei anderen Darstellungen gezeichnet ist.
- In Figur 3 entsprechen die schraffierten Bereiche, die durch die Bezugsziffer 17 gekennzeichnet sind, jeweils einem Pixel. Der Bildschirm ist in Teilflächen bzw. in Zellen unterteilt, die jeweils eine jeweilige rechtwinklige Pixelanordnung überdecken, im dargestellten Fall eine viermal-vier-Anordnung. Ziffer 18 in Figur 3 weist auf die Begrenzung einer Zelle. Aneinandergrenzende Zellen überlappen sich nicht. Jeder Zelle ist eine Pseudozelle überlagert, die die jeweilige Zelle und eine Begrenzung von einem halben Pixel um diese Zelle herum überdeckt. Die gestrichelten Linien 19 in Figur 3 entsprechen einer Pseudozellenbegrenzung. Aneinandergrenzende Pseudozellen überlappen sich also. Jede Pseudozelle ist in eine regelmäßige Anordnung aneinanderstoßender Pseudopixel unterteilt, zum Beispiel in eine vier-mal-vier-Anordnung von Pseudopixeln. Die schraffierten Bereiche 20 in Fig. 3 entsprechen jeweils einem Pseudopixel. Den Pseudozellen sind Superzellen überlagert, die jeweils eine rechtwinklige Anordnung von Pseudozellen überdecken, im dargestellten Fall zum Beispiel eine vier-malvier-Anordnung von Pseudozellen. Aneinandergrenzende Superzellen überlappen sich also. Die gestrichelte Linie 21 deutet eine Superzellenbegrenzung an und der schraffierte Bereich 22 eine Pseudozelle innerhalb dieser Superzelle. Jede Superzelle überdeckt somit sechzehn Pseudozellen, und diese sechzehn Pseudozellen überdecken zusammen sechzehn Zellen und eine Begrenzung, die einen halben Pixel breit ist, um den Rand dieser sechzehn Zellen. Zur Erzielung eines Konturenausgleichs ist es erforderlich, daß aneinandergrenzende Superzellen, aneinandergrenzende Pseudozellen und aneinandergrenzende Pseudopixel sich überlappen.
- Im dargestellten Fall einer Zelle mit vier mal vier Pixeln und einer Superzelle mit vier mal vier Pseudozellen und unter der Annahme eines Anzeigebereichs mit 1024 mal 1024 Pixeln ergeben sich 64 x 64 Superzellen und 256 x 256 Pseudozellen.
- Für jedes von den Objektprozessoren an den Abtastumsetzer (Fig. 2) gelieferte Merkmal identifiziert der Abtastumsetzer alle Superzellen, die zumindest teilweise vom Merkmal überlappt werden. Der Abtastumsetzer weist jedem Merkmal eine Identifizierung (ID) zu, lokalisiert die Superzellen, auf die das Merkmal wirkt, und leitet die Merkmals-ID an den Abtastumsetzerspeicher 15 (der hierin im folgenden als Superzellenspeicher bezeichnet wird).
- Das BW 4 aus Figur 1 wird nun skizzenhaft mit Bezug auf Figur 4 beschrieben. Figur 4 zeigt den Superzellenspeicher 15 und den Attributspeicher 16 aus Figur 2. Es sei daran erinnert, daß sowohl der Superzellenspeicher als auch der Attributspeicher doppelt gepuffert sind, wobei der Inhalt der Speicher ansprechend auf den Empfang eines Signals ausgelesen wird, das den Beginn eines Einzelbilds signalisiert. Der Inhalt des Superzellenspeichers wird Superzelle für Superzelle am Ausgang 23 in einen Vorsortierer 24 ausgelesen, der ferner am Ausgang 25 geometrische Attributdaten aus dem Attributspeicher 16 empfängt. Der Vorsortierer und der Attributspeicher liefern jeweilige Ausgaben 26 und 27 an ein Spezialeffektmodul 28, einen Farbmischer 29 und einen Nachsortierer 30. Der Nachsortierer 30 führt einem Bildspeicher 31 Raster-Bilddaten zu, und eine Ausgabe 32 vom Bildspeicher wird an die Anzeigeeinrichtung (die Anzeigeeinrichtung 5 aus Figur 1) geliefert.
- Die Funktion des Vorsortierers 24 besteht darin, jede Superzelle in eine Reihe von Pseudozellen zu unterteilen, die effektive Tiefe (Entfernung vom Blickpunkt) jedes Merkmals an jeder Pseudozellenecke zu berechnen, jedes Merkmal zu entdecken, das undurchsichtig ist und eine Pseudozelle vollständig überdeckt, und alle Merkmale von einer Berücksichtigung in bezug auf eine bestimmte Pseudozelle auszuschließen, wenn diese Merkmale hinter einem undurchsichtigen Merkmal liegen, das die Pseudozelle ganz überdeckt. Bei einer gegebenen Pseudozellengröße von vier mal vier Anzeigepixeln zuzüglich einer Begrenzung eines halben Pixels wird somit jede Superzellen-ID-Liste nacheinander für jede der sechzehn Pseudozellen berücksichtigt.
- Die im Superzellenspeicher 15 angesammelten IDs werden Stapel für Stapel zum Vorsortierer 24 hinuntergeladen. Entsprechende Attribute werden gleichzeitig vom Attributspeicher 16 zum Vorsortierer hinuntergeladen. Der Vorsortierer empfängt also den Inhalt eines Stapels, der einer Superzelle entspricht, und verarbeitet die durch den Stapelinhalt identifizierten Merkmale, bevor der nächste Stapel hinuntergeladen wird.
- Wenn der Vorsortierer anzeigt, daß ein Merkmal auf die Pseudozelle wirkt (sie zumindest teilweise überdeckt), die gerade verarbeitet wird, dann wird ein "Fragment"-Datenpaket erzeugt und auf den fragmenttragenden Ausgabebus 26 angewandt. Dieses Datenpaket umfaßt lediglich die Bildschirm-Raum- Koordinaten der vier Ecken der betreffenden Pseudozelle und die ID des wirkenden Merkmals. Die Fragmente von so identifizierten Merkmalen werden dann im Spezialeffektmodul 28, im Farbmischer 29 und im Nachsortierer 30 verarbeitet.
- Die Einheiten 28 bis 30 arbeiten auf der Grundlage von Pseudopixeln. Im dargestellten Fall überdecken sechzehn Pseudopixel eine jeweilige Pseudozelle ganz (aber erstrecken sich nicht darüber hinaus). Die Ecken der Pseudopixel werden von den Ecken der betreffenden Pseudozelle interpoliert, die vom Fragmentbus getragen werden. Wie untenstehend ausführlicher beschrieben wird, erzeugt das Spezialeffektmodul 28 für jedes Pseudopixel derjenigen Pseudozelle, die gerade verarbeitet wird, eine Ausgabe, die zur Simulierung von Landelichtern geeignet ist. Das Spezialeffektmodul kann ferner Ausgaben erzeugen, die für beliebige andere Spezialeffekte geeignet sind, die von den Attributen des Merkmals, das gerade verarbeitet wird, verlangt werden, wie zum Beispiel Beschaffenheitseffekte oder Nebeleffekte. Die Spezialeffektausgaben werden auf den Farbmischer 29 angewandt, wo weitere Effekte, wie zum Beispiel die Umgebungsbeleuchtung, verarbeitet werden, wobei der Farbmischer für jedes Pseudopixel eine RGBT-Ausgabe (rot, grün, blau, Transparenz) an den Nachsortierer 30 liefert. Der Nachsortierer liefert eine Ausgabe an den Bildspeicher 31. Der Bildspeicher liefert die Ausgabe 32 an die Raster-Anzeigeeinrichtung 5 (Figur 1).
- Die Funktion des Nachsortierers 30 ist es, die Effekte von Oberflächen zu entscheiden, die andere Oberflächen verstecken bzw. teilweise verstecken. Er leistet dies, indem er die Wirkung von Merkmalen auf eine Anordnung von Stichprobenpunkten beurteilt, wobei er die Effekte solcher Wirkungen summiert und gewichtet und für jedes Anzeigepixel eine endgültige RGB-Ausgabe an den Bildspeicher liefert. Jedes vom Nachsortierer empfangene Pseudopixelfragment überdeckt eine jeweilige Anordnung von Stichprobenpunkten, die über die Pixelanordnung verteilt sind, die jeder Pseudozelle entspricht. Typischerweise sind zum Beispiel zweihundert Stichprobenpunkte vorhanden, d.h. acht pro Pixel. (Es sei daran erinnert, daß beim beschriebenen Beispiel jede Pseudozelle eine vier-mal-vier-Pixelanordnung zuzüglich einer Begrenzung der Breite eines halben Pixels überdeckt). Die Lage jedes Stichprobenpunktes relativ zu der für jede Pseudozelle definierten vier-mal-vier-Pseudopixelanordnung ist bekannt, und daher ist es erforderlich, für jeden Stichprobenpunkt zu entscheiden, ob ein Merkmal auf diesen Punkt wirkt oder nicht, und nur dann die RGBT-Eingaben vom entsprechenden Pseudopixel beim Nachsortierer zu summieren, wenn eine Wirkung entdeckt wird.
- Jeder Stichprobenpunkt wird u.U. von einer großen Anzahl von Merkmalen überlappt, und es ist erforderlich, diese Merkmale der Tiefe nach zu sortieren, um diejenigen auszuschließen, die an diesem Stichprobenpunkt ganz durch näher (am Blickpunkt) gelegene undurchsichtige Merkmale verdeckt werden. Zu diesem Zweck wird an jedem Stichprobenpunkt die Entfernung jedes Merkmals (vom Blickpunkt) berechnet. Der RGBT-Wert und die Tiefe des ersten Merkmals, das auf einen Stichprobenpunkt wirkt, werden in einen jeweiligen Speicher geladen. Nachfolgende Merkmale werden bezüglich ihrer Tiefe mit dem ersten gespeicherten Merkmal verglichen, wobei alle Merkmale bis auf das augenblicklich nächstgelegene undurchsichtige Merkmal sowie durchscheinende Merkmale, die näher liegen als das nächstgelegene undurchsichtige Merkmal, aus dem Speicher ausgeschlossen werden (bzw. nicht eingelassen werden). Wenn alle Merkmale, die potentiell für eine Zelle wesentlich sind, auf diese Weise verarbeitet worden sind, werden die Gesamteffekte aller in jedem Stapel identifizierter Merkmale berechnet, um für jeden Stichprobenpunkt eine endgültige RGB- Ausgabe zu erzeugen. Diese Ausgaben werden dann gewichtet und summiert, um für jedes Pixel einen einzigen RGB-Wert zu erzeugen. Jedes Pixel spricht auf die Beiträge von den acht Stichprobenpunkten innerhalb seiner eigenen Begrenzung und von Stichprobenpunkten innerhalb einer darum verlaufenden Grenze der Breite eines halben Pixels an, d.h. auf zweiunddreißig Stichprobenpunkte insgesamt (1x8 + 4x4 + 4x2). Die Gesamtfläche, die die zweiunddreißig Stichprobenpunkte überdeckt, ist daher gleich der Fläche einer zwei-mal-zwei- Pixelanordnung, ist aber um den Mittelpunkt eines Anzeigepixels zentriert.
- Der Attributspeicher 16, der Superzellenspeicher 15 und der Bildspeicher 53 sind alle doppelt gepuffert, um die Grenzen zwischen getrennten Stufen im Pipelinesystem zu definieren.
- Das oben beschriebene und skizzierte System ist zwar von einem Typ, auf den die vorliegende Erfindung angewandt werden kann, es versteht sich jedoch von selbst, daß die vorliegende Erfindung auch bei Systemen mit einer anderen allgemeinen Struktur angewandt werden kann. Beim oben beschriebenen System wird die vorliegende Erfindung innerhalb des Spezialeffektmoduls und des Farbmischers umgesetzt, und dementsprechend werden nun die Funktionsweisen dieser Komponenten ausführlicher beschrieben.
- Es wird nun auf Fig. 5 Bezug genommen, in der die grundlegende Geometrie der Landelichtsimulierung bei einem Ausführungsbeispiel der vorliegenden Erfindung gezeigt wird. Einem/r Beobachter/in am Blickpunkt E wird ein Bild präsentiert, das auf einen Bildschirm 33 projiziert wird, wobei das Bild eine Szenerie darstellen soll, die sich aus einer Anzahl von Merkmalen zusammensetzt, die ein Polygon 34 umfassen, das teilweise von einem Strahl beleuchtet wird, der von einem Landelicht kommt. Das Landelicht wirft von der Quelle O einen kegelförmigen Lichtstrahl, wobei die Mittelachse des Strahls mit der Hauptachse des Kegels zusammenfällt. Die Strahlachse wird durch den Vektor 1 dargestellt.
- Für einen/eine Beobachter/in bei O wäre die augenscheinliche Form der Ausleuchtzone, die durch den Lichtstrahl gebildet wird, wenn er eine beliebige Oberfläche beleuchtet, kreisförmig. Fur einen/eine Beobachter/in bei E hängt die augenscheinliche Form vom Winkel zwischen der Mittelachse des Strahls und der Normalen jeder Oberfläche ab, auf die er u.U. trifft. Für einen/eine Beobachter/in bei E würde es scheinen, daß ein Strahl, der den Fuß einer Ecke eines Gebäudes beleuchtet, eine Form erzeugt, die sich aus drei Teilkegelschnitten zusammensetzt, einer für die Bodenebene und jeweils einer für die beiden Wände, die sich in der Ecke treffen.
- Im dargestellten Fall wird ein Teil des Polygons 34 durch den Strahl beleuchtet, und ein Teil wird nicht beleuchtet. Damit ein Punkt P auf dem Polygon durch den Strahl beleuchtet wird, muß der Winkel θ zwischen der Strahlachse und einer Geraden, die vom Lichtquellenursprung gezogen wird, kleiner sein als der Halbwinkel des Strahls. Die Beleuchtungsstärke eines Punktes innerhalb des Strahls hängt ebenfalls von θ ab, da das Stärkeprofil von Lichtstrahlen im allgemeinen nichtlinear ist, zum Beispiel Gaußsch, so daß die Stärke auf der Strahlachse am größten ist und nichtlinear mit Winkelabweichung von der Strahlachse fällt. Es sind natürlich auch andere Stärkeprofile möglich. Für eine korrekte Beleuchtung des Punktes P ist es daher erforderlich, den Winkel θ und die Lichtmenge zu berechnen, die auf einen Punkt fällt, der sich auf einer Geraden befindet, die mit der Strahlachse den Winkel θ einschließt.
- Cos θ kann wie folgt abgeleitet werden:
- OP 1 = OP 1 cos θ
- wobei OP der Vektor von der Lichtquelle O zum Punkt P ist, 1 der Richtungsvektor der Strahlachse ist.
- Durch die Wahl des Betrages von 1 gleich eins erhalten wir: aber und damit
- wobei (xp yp zp) die Lage des Punktes P im Blickpunkt-Raum ist (xo yo zo) die Lage der Quelle O im Blickpunkt-Raum ist.
- Die Lage des Punktes P kann wie folgt aus den Bildschirm- Koordinaten und der Tiefe zp in Z-Richtung berechnet werden:
- xp - xszp / dx
- yp = yszp / dy
- zp = zp
- wobei (xs ys) die Bildschirm-Koordinaten eines Punktes sind, durch den eine Gerade von E zu P geht und
- dx und dy Funktionen des Halbwinkels der Anzeige sind.
- Somit:
- wobei Lo = xolx + yoly + zolz für jedes Einzelbild konstant ist.
- Der Wert OP kann wie folgt berechnet werden: wobei Somit: und damit
- Dies kann wie folgt vereinfacht werden: wobei
- für jedes Einzelbild konstant sind.
- Die Faktoren, die für jedes Einzelbild konstant sind, werden im Transformationswerk berechnet und an das Spezialeffektmodul verteilt, in dem weitere Landelicht- Sumulationsvorgänge ausgeführt werden. Das Transformationswerk transformiert ferner die Landelichtquelle und -richtung vom Welt-Raum in den Blickpunkt-Raum.
- Das Spezialeffektmodul vollzieht die folgenden Aufgaben:
- a. Für jedes zum Bild beitragende Merkmal, zum Beispiel das Polygon aus Fig. 5, wird an jeder Ecke jeder Anzeigezelle cos²θ berechnet. Eine Anzeigezelle ist die Pixelanordnung, die von einer jeweiligen Pseudozelle überlappt wird. So setzt sich in dem in Fig. 3 dargestellten Fall jede Anzeigezelle aus einer Anordnung von sechzehn Pixeln zusammen, und angrenzende Anzeigezellen haben zusammenfallende Ecken.
- b. An jeder Anzeigezellenecke wird die Beleuchtungsstärke bestimmt. Das wird dadurch erreicht, daß ein entsprechender Stärkewert Iint in einer (Winkel-) Verteilungstabelle der Stärken nachgeschlagen wird, die zuvor für die betreffende Lichtquelle erstellt wurde. Die Tabelle wird von cos²θ adressiert.
- c. Der aus der Nachschlagetabelle abgeleitete Stärkewert wird abhängig von der Entfernung verringert. Das wird dadurch erreicht, daß an jeder Anzeigezellenecke das Quadrat der Entfernung berechnet wird und dazu verwendet wird, eine Nachschlagetabelle zu adressieren, in der Dämpfungsfaktoren Rdäm gespeichert sind. Die Entfernung r zu einem beliebigen Punkt P mit den Blickpunkt-Raum-Koordinaten (xp, yp, zp) könnte wie folgt abgeleitet werden:
- Die Verwendung dieser Gleichung in Echtzeit wäre rechnerisch aufwendig, und deshalb wird ein Schrägentfernungs- Korrekturfaktor (sekf) berechnet, wobei
- r = z sekf
- und
- Die sich ergebende Stärke Ires wird somit aus der interpolierten Nachschlagetabellenstärke Int und dem Dämpfungsfaktor Rdäm abgeleitet, und zwar unter Verwendung der Gleichung:
- Ires = Iint Rdäm
- d. Die Stärke im Mittelpunkt jeder der sechzehn Pseudopixel, die die Pseudozelle bilden, die die Anzeigezelle überlappen, wird durch bilineare Interpolation der Ires-Werte berechnet, die für die Anzeigezellenecken berechnet wurden.
- e. Die sechzehn interpolierten Stärkewerte werden an den Farbmischer ausgegeben.
- Wenn mehr als ein Landelicht vorhanden ist, ist es erforderlich, die Aufgaben der Berechnung von cos²θ und des Nachschlagens der Stärke für jedes Landelicht gesondert durchzuführen. Für jedes Landelicht wird eine Stärke an jeder Zellenecke berechnet. Danach können die Stärken für alle Landelichter an jeder Anzeigezellenecke summiert werden, und die summierten Stärken werden dann, vor der Interpolation des Stärkewerts am Pseudopixel-Mittelpunkt, in einem einzigen Vorgang abhängig von der Entfernung verringert.
- Im Farbmischer werden die Stärkewerte für jedes Pseudopixel auf übliche Weise dazu eingesetzt, gemäß der Farbe der Lichtquelle und ihrer Stärke am Merkmal die Attribute von Merkmalen zu modulieren, die zum Bild beitragen. Das kann jedoch unter Verwendung üblicher Techniken erreicht werden, und daher werden diese Techniken hierin nicht näher beschrieben.
- Ein Landelichtstrahl kann durch Nebel gedämpft werden. Die Stärke des Lichts, das ein Merkmal erreicht, wie auch die Sichtbarkeit des Lichts, das vom Merkmal zum Blickpunkt geht, werden verringert. Es ist möglich, die Dämpfung zwischen dem Merkmal und dem Blickpunkt zu berücksichtigen, indem ein einfacher von der Entfernung abhängiger "Nebel"- Dämpfungsfaktor verwendet wird. Idealerweise sollte zur Berücksichtigung der Dämpfung zwischen der Quelle und dem Merkmal ein Dämpfungsfaktor verwendet werden, der von der Distanz zwischen der Quelle und dem Merkmal abhängt. Als eine sinnvolle Approximation kann jedoch angenommen werden, daß die Distanz zwischen der Quelle und dem Merkmal gleich der Entfernung ist.
- Die obenstehende Beschreibung läßt erkennen, wie die Beleuchtung von Merkmalen in der modellierten Welt korrekt simuliert werden kann, setzt aber voraus, daß keine Streuung von Lichtstrahlen aufgrund atmosphärischer Effekte, wie zum Beispiel Regen oder Nebel, auftritt. In der Praxis ist die Fähigkeit zur Simulierung solcher Effekte sehr wünschenswert. Gemäß der vorliegenden Erfindung wird dies durch die Verwendung eines Strahlenpolygons erreicht, dessen Blickraumposition von der Blickraumposition der Lichtquelle und deren Richtung abhängt.
- Es wird nun auf Fig. 6 Bezug genommen, in der die grundlegende Geometrie dargestellt ist. Der Blickpunkt E und die Landelichtquelle O sind genauso relativ zum Bildschirm 33 positioniert, wie in Fig. 5 dargestellt. Es wird jedoch angenommen, daß sich vor der Lichtquelle kein zu beleuchtendes Polygon befindet. Ein Teil des Strahls ist jedoch durch den Bildschirm 33 vom Blickpunkt E aus sichtbar. Ein Strahlenpolygon, das als ein Dreieck mit den Scheitelpunkten A, B, O definiert ist, definiert einen vom Strahl zu beleuchtenden Bereich. Das Dreieck ABO ist gleichschenklig, und seine Achse OC fällt mit der Richtung des Strahls zusammen.
- Eine vom Blickpunkt E zu einem Punkt N auf der Achse OC gezogene Gerade liegt senkrecht zu der Achse. Die Koordinaten des Punktes N sind gegeben durch:
- EN = EO + rl
- aber: r = EO l = xolx+yoly+zolz = Lo Damit:
- unter der Annahme, daß die Lichtquelle O die Blickpunkt- Koordinaten (xo yo zo) hat und
- die Strahlachse 1 die Komponenten (lx ly lz) hat.
- Dies sind die Komponenten des Vektors EN, der normal zur Achse l liegt. Die Ebene des Strahlenpolygons wird als zum Vektor EN senkrecht liegend angenommen, und damit kann die Ebenengleichung des Strahlenpolygons wie folgt gebildet werden:
- Ax + By + Cz + D = O
- wobei
- A = xo + Lolx
- B = yo + Loly
- C = zo + Lolz
- D = -(Axo + Byo + Czo)
- Die so abgeleitete Ebenengleichung wird in Normalenform gebracht, und die Scheitelpunkte A und B des Strahlenpolygons werden wie folgt gebildet:
- Scheitelpunkt C (auf der geraden Linie AB) hat die Koordinaten (xc, yc, zc)
- und
- xc = xo + Llx
- yc = yo + Lly
- zc = zo + Llz
- wobei L die Länge des Strahlenpolygons ist. Diese Länge wird bestimmt, wenn die Lichtquelle modelliert wird.
- Ein Einheitsvektor e entlang AB hat die Komponenten (xe, ye, ze)
- und Xe = Cly - Blz
- ye = Alz - Clx
- ze = Blx - Aly
- (xe, ye, ze) ist das Vektorprodukt des Einheitsvektors l mit dem Einheits-Normalenvektor der Ebene (A, B, C).
- Der Vektor OA ergibt sich dann aus:
- OA = OC + e L tanω
- wobei ω der Halbwinkel des Strahlenpolygons ist, und der Vektor OB ergibt sich wie folgt:
- OB = OC - e L tanω
- Somit: = L (l + e tanω)
- OB = L (l - e tanω)
- und die Koordinaten von A sind (xa ya za), wobei:
- xa = xo + L[lx + (Cly-Blx)tanω]
- ya = yo + L[ly + (Alz-Clx)tanw]
- za = zo + L[lz + (Blx-Aly)tanω]
- Die Koordinaten von B können auf ähnliche Weise berechnet werden.
- Bei gegebenen Strahlenpolygon-Scheitelpunkten kann eine Beurteilung der Frage, ob das Strahlenpolygon vom Blickpunkt aus sichtbar ist, auf genau die gleiche Art und Weise vorgenommen werden wie für ein beliebiges anderes Polygon. Diese Techniken werden hierin nicht näher beschrieben. Die Stärke der Beleuchtung des Polygons muß jedoch besprochen werden, da diese Stärke von der Entfernung von der Lichtquelle abhängt.
- Im Fall üblicher Polygone, die durch ein Landelicht beleuchtet werden, wird die Stärke mit der Entfernung des Polygons vom Blickpunkt verringert. Im Fall von Strahlenpolygonen verringert sich die Beleuchtungsstärke von einem Maximum an der Lichtquelle zum Ende des Strahlenpolygons hin, das durch die Linie AB gebildet wird, und variiert quer zur Strahlachse. Es wird daher eine weitere Entfernungsdämpfungs-Nachschlagetabelle aufgebaut, die von OP ²cos²θ adressiert wird.
- Da cos²θ, wie oben beschrieben, bekannt ist, ergibt sich:
- Diese Terme wurden bereits berechnet, wie oben beschrieben.
- Wenn ein Strahlenpolygon als auf einen bestimmten Stichprobenpunkt wirkend identifiziert worden ist, dann wird es verarbeitet wie jedes andere Polygon.
- Es versteht sich, daß das Strahlenpolygon durchsichtig sein sollte, um zu verhindern, daß es Lichtpunkte bzw. andere dahinter befindliche Merkmale verdeckt, und um zu verhindern, daß es durch andere Lichtquellen "beleuchtet" wird.
- Es wird nun auf Fig. 7 Bezug genommen, in der die Funktionsstruktur eines Landelichtprozessors zur Umsetzung der oben beschriebenen Vorgänge dargestellt ist. In den Prozessor werden Schrägentfernungs-Korrekturfaktoren sekf, Reziprokwerte von z, die Koordinaten (xcij, ycij) einer Anzeigezellenecke und Daten, die pro Feld konstant sind, zum Beispiel Lo, eingegeben. Zu jeder Zeit betrachtet der Prozessor einen Punkt auf einem einzigen Polygon bzw. auf einem anderen Merkmal, wobei die Bildschirm-Raum-Koordinaten dieses Punktes (xcij, ycij) sind. Ein Prozessor 34 berechnet das Quadrat der Entfernung und das Quadrat des Reziprokwertes von Z. Das Quadrat der Entfernung wird, über eine Ausleuchtzonenentfernungs-Funktionseinheit 35, dazu verwendet, die Entfernungsdämpfung für übliche Polygone zu steuern, die durch ein Landelicht beleuchtet werden. Der Reziprokwert des Quadrats von Z wird, über eine Strahlentfernungs- Funktionseinheit 36, zur Strahlenpolygon-Entfernungsdämpfung benötigt. Die zutreffende Entfernungsfunktion wird abhängig vom Polygontyp von der Einheit 37 ausgewählt, und die Stärkendämpfung wird in einer Stärken-Dämpfungseinheit 38 verarbeitet.
- Es sind zwar drei Landelichteinheiten 39 gezeigt, jedoch könnte eine beliebige gewünschte Zahl von Einheiten bereitgestellt werden. Jede berechnet unabhängig cos²θ relativ zu ihrem jeweiligen Landelicht und adressiert die entsprechende Eintragung in einer Nachschlagetabelle (NT), um auf die entsprechenden Stärkedaten zuzugreifen. Stärkeausgaben für das Strahlenpolygon werden an die Strahlentfernungs- Funktionseinheit 36 geliefert, und andere Ausgaben werden an eine Stärken-Summiereinheit 40 geliefert, deren Ausgabe an den Stärken-Dämpfungsprozessor 38 geliefert wird. In einem Interpolator 41 werden dann Stärkewerte für jedes Pseudopixel innerhalb der Anzeigezelle abgeleitet. Diese Werte werden dann im Verdichter 42 verarbeitet und an den Farbmischer ausgegeben.
Claims (13)
1. Verfahren zum Simulieren der Beleuchtungseffekte einer
auf einem Fahrzeug angebrachten Lichtquelle auf ein Modell in
einem Bild, das auf einem Bildschirm gezeigt wird, wobei das
Bild das Erscheinungsbild des Modells, das in einer Datenbank
in Welt-Raum-Koordinaten definiert ist, von einer
Blickpunktposition im Welt-Raum aus darstellen soll, wobei das
Modell mit Bezug auf eine Mehrzahl von Merkmalen definiert
ist, die jeweils vorgegebene Attribute aufweisen, und wobei
die auf einem Fahrzeug angebrachte Lichtquelle mit Bezug auf
einen Ursprung und eine Richtung im Blickpunkt-Raum definiert
ist, dadurch gekennzeichnet, daß
a. für jedes Merkmal, das potentiell einen Beitrag zum
Bild leistet, die Winkelposition eines Punktes auf dem Merkmal
relativ zur Lichtquelle als der Winkel zwischen der
Lichtquellenrichtung und einer Linie, die von der Lichtquelle
zu diesem Punkt gezogen wird, berechnet wird,
b. eine Beleuchtungsstärke für diesen Punkt unter
Bezugnahme auf den berechneten Winkel bestimmt wird,
c. die Beleuchtungsstärke abhängig von der Distanz vom
Blickpunkt zu diesem Punkt verringert wird, um eine
resultierende Stärke bereitzustellen, und
d. die Attribute des Merkmals an diesem Punkt abhängig
von der resultierenden Stärke moduliert werden.
2. Verfahren nach Anspruch 1, bei dem der Bildschirm in eine
Mehrzahl von Anzeigezellen unterteilt ist, die jeweils eine
Pixelanordnung überdecken, der genannte Winkel an jeder
Anzeigezellenecke berechnet wird, die resultierende
Beleuchtungsstärke an jeder Anzeigezellenecke bestimmt wird
und die Beleuchtungsstärke an jedem Pixel durch Interpolation
aus den resultierenden Beleuchtungsstärken an den jeweiligen
Anzeigezellenecken bestimmt wird.
3. Verfahren nach Anspruch 1, bei dem der Kosinus des
genannten Winkels aus dem Skalarprodukt eines Vektors, der die
Richtung der Lichtquelle repräsentiert, mit einem Vektor, der
von der Lichtquelle auf den genannten Punkt des Merkmals
gerichtet ist, berechnet wird.
4. Verfahren nach Anspruch 3, bei dem das Quadrat des
Kosinus des genannten Winkels wie folgt berechnet wird:
wobei
(lx, ly, lx) die Komponenten des Vektors sind, der die
Richtung der Lichtquelle repräsentiert,
(xs, ys) die Bildschirm-Raum-Koordinaten des genannten
Punktes sind,
(xo, yo, zo) die Blickpunkt-Raum-Koordinaten der
Lichtquelle sind,
(xp, yp, zp) die Blickpunkt-Raum-Koordinaten des genannten
Punktes sind,
sekf ein Schrägentfernungs-Korrekturfaktor ist,
Lo = xolx + yo¹y + zolz
Ld = xo² + yo² + zo²
und dx und dy Funktionen des Halbwinkels der Anzeige
sind.
5. Verfahren nach einem der vorhergehenden Ansprüche, bei
dem für jeden einer vorgegebenen Anzahl von Stichprobenwinkeln
Beleuchtungsstärken in einer Nachschlagetabelle gespeichert
werden und die gespeicherten Werte vom berechneten Winkel
adressiert werden, um die entsprechenden Beleuchtungsstärken
abzuleiten.
6. Verfahren nach Anspruch 5, bei dem die gespeicherten
Werte vom Quadrat des berechneten Winkels adressiert werden,
um die Beleuchtungsstärke abzuleiten.
7. Verfahren nach einem der vorhergehenden Ansprüche, bei
dem Entfernungsdämpfungsfaktoren in einer Nachschlagetabelle
gespeichert werden und die gespeicherten Werte von der
Entfernung adressiert werden, um den entsprechenden
Entfernungsdämpfungsfaktor abzuleiten.
8. Verfahren nach Anspruch 7, bei dem die gespeicherten
Faktoren vom Quadrat der Entfernung adressiert werden, um den
Entfernungsdämpfungsfaktor abzuleiten.
9. Verfahren nach einem der Ansprüche 1 bis 8 zum Zeigen der
Beleuchtungseffekte der auf einem Fahrzeug angebrachten
Lichtquelle auf die Atmosphäre im Bild, bei dem
a. ein dreieckiges Strahlenpolygon mit einer Spitze im
Ursprung der Lichtquelle definiert wird, wobei das
Strahlenpolygon in einer Ebene liegt, die eine Achse durch den
Ursprung parallel zur genannten Richtung umfaßt, normal zu
einer vom Blickpunkt aus gezogenen und die Achse schneidenden
Linie liegt und eine definierte Länge und einen definierten
Halbwinkel vom genannten einen Scheitelpunkt aus aufweist,
b. ein zweiter und ein dritter Scheitelpunkt des
Strahlenpolygons berechnet werden,
c. die Beleuchtungsstärke des Strahlenpolygons abhängig
von der Distanz von der Lichtquelle berechnet wird und
d. das Strahlenpolygon auf dem Bildschirm als ein
Merkmal des Modells gemäß seinen berechneten Scheitelpunkten
und seiner berechneten Stärke gezeigt wird.
10. Verfahren nach Anspruch 9, bei dem für das
Strahlenpolygon aus den Koordinaten des Ursprungs der
Lichtquelle und den Komponenten eines Vektors, der der
genannten Achse entspricht, eine Ebenengleichung Ax+By+Cz+D=0
berechnet wird und der zweite und der dritte Scheitelpunkt aus
der Ebenengleichung und der genannten definierten Länge und
dem genannten definierten Halbwinkel berechnet werden.
11. Verfahren nach Anspruch 9 oder 10, bei dem
Entfernungsdämpfungsfaktoren für das Strahlenpolygon in einer
Nachschlagetabelle gespeichert werden und die gespeicherten
Werte vom Produkt des Quadrats der Entfernung von der
Lichtquelle zu einem zu beleuchtenden Punkt auf dem
Strahlenpolygon mit dem Quadrat des genannten Winkels zwischen
der Lichtquellenrichtung und einer zu dem Punkt auf dem
Strahlenpolygon gezogenen Linie adressiert werden, um den
entsprechenden Entfernungsdämpfungsfaktor abzuleiten.
12. Simulator der Beleuchtungseffekte einer auf einem
Fahrzeug angebrachten Lichtquelle auf ein Modell in einem
Bild, das auf einem Bildschirm gezeigt wird, wobei das Bild
das Erscheinungsbild des Modells, das in einer Datenbank in
Welt-Raum-Koordinaten definiert ist, von einer
Blickpunktposition im Welt-Raum aus darstellen soll, wobei das
Modell mit Bezug auf eine Mehrzahl von Merkmalen definiert
ist, die jeweils vorgegebene Attribute aufweisen, und wobei
die auf einem Fahrzeug angebrachte Lichtquelle mit Bezug auf
einen Ursprung und eine Richtung im Blickpunkt-Raum definiert
ist, gekennzeichnet durch
a. Mittel, um für jedes Merkmal, das potentiell einen
Beitrag zum Bild leistet, die Winkelposition eines Punktes auf
dem Merkmal relativ zur Lichtquelle als den Winkel zwischen
der Lichtquellenrichtung und einer Linie, die von der
Lichtquelle zu diesem Punkt gezogen wird, zu berechnen,
b. Mittel, um eine Beleuchtungsstärke für diesen Punkt
unter Bezugnahme auf den berechneten Winkel zu bestimmen,
c. Mittel, um die Beleuchtungsstärke abhängig von der
Distanz vom Blickpunkt zu diesem Punkt zu verringern, um eine
resultierende Stärke bereitzustellen, und
d. Mittel, um die Attribute des Merkmals an diesem
Punkt abhängig von der resultierenden Stärke zu modulieren.
13. Simulator nach Anspruch 12 zum Zeigen des
Beleuchtungseffekts der auf einem Fahrzeug angebrachten
Lichtquelle auf die Atmosphare im Bild, der folgendes umfaßt:
a. Mittel, um ein dreieckiges Strahlenpolygon mit einer
Spitze im Ursprung der Lichtquelle zu definieren, wobei das
Strahlenpolygon in einer Ebene liegt, die mit einer Achse
durch den Ursprung parallel zur genannten Richtung
zusammenfällt, normal zu einer vom Blickpunkt aus gezogenen
und die Achse schneidenden Linie liegt und eine definierte
Länge und einen definierten Halbwinkel vom genannten einen
Scheitelpunkt aus aufweist,
b. Mittel, um einen zweiten und einen dritten
Scheitelpunkt des Strahlenpolygons zu berechnen,
c. Mittel, um die Beleuchtungsstärke des
Strahlenpolygons abhängig von der Distanz vom Blickpunkt zu
berechnen, und
d. Mittel, um das Strahlenpolygon auf dem Bildschirm
als ein Merkmal des Modells gemäß seinen berechneten
Scheitelpunkten und seiner berechneten Stärke zu zeigen.
Applications Claiming Priority (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| GB909012273A GB9012273D0 (en) | 1990-06-01 | 1990-06-01 | Image generator |
| PCT/GB1991/000884 WO1991019280A1 (en) | 1990-06-01 | 1991-06-03 | Image generator |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| DE69123739D1 DE69123739D1 (de) | 1997-01-30 |
| DE69123739T2 true DE69123739T2 (de) | 1997-06-19 |
Family
ID=10676926
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| DE69123739T Expired - Fee Related DE69123739T2 (de) | 1990-06-01 | 1991-06-03 | Bildgenerator |
Country Status (8)
| Country | Link |
|---|---|
| US (1) | US5384719A (de) |
| EP (1) | EP0532579B1 (de) |
| JP (1) | JPH05507797A (de) |
| AU (1) | AU7989191A (de) |
| CA (1) | CA2084067A1 (de) |
| DE (1) | DE69123739T2 (de) |
| GB (2) | GB9012273D0 (de) |
| WO (1) | WO1991019280A1 (de) |
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| DE19738713A1 (de) * | 1997-09-04 | 1999-03-11 | Bayerische Motoren Werke Ag | Beleuchtungsvorrichtung für ein Fahrzeug |
Families Citing this family (19)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| GB2271261A (en) * | 1992-10-02 | 1994-04-06 | Canon Res Ct Europe Ltd | Processing image data |
| GB2271259A (en) * | 1992-10-02 | 1994-04-06 | Canon Res Ct Europe Ltd | Processing image data |
| US5598359A (en) * | 1993-10-29 | 1997-01-28 | Southwest Research Institute | Weather effects generator for simulation systems |
| US5480305A (en) * | 1993-10-29 | 1996-01-02 | Southwest Research Institute | Weather simulation system |
| FR2716061B1 (fr) * | 1994-02-04 | 1996-03-15 | Thomson Broadcast | Procédé de génération d'images texturées et d'effets spéciaux en vidéo et dispositif pour la mise en Óoeuvre du procédé. |
| JP3603285B2 (ja) * | 1994-07-21 | 2004-12-22 | 株式会社セガ | 画像処理装置 |
| US6298313B1 (en) | 1998-09-18 | 2001-10-02 | The United States Of America As Represented By The Secretary Of The Navy | Passive ranging using inferior mirages |
| US6256409B1 (en) | 1998-10-19 | 2001-07-03 | Sony Corporation | Method for determining a correlation between images using multi-element image descriptors |
| US6445834B1 (en) | 1998-10-19 | 2002-09-03 | Sony Corporation | Modular image query system |
| US6236406B1 (en) * | 1998-10-21 | 2001-05-22 | Sony Corporation | Three-dimensional color space display |
| GB2358919B (en) * | 2000-01-26 | 2004-09-22 | Andrew Steven Russell | Monitoring device and method |
| US6603482B1 (en) | 2000-01-31 | 2003-08-05 | Evans & Sutherland Computer Corporation | Screen space effects utilizing the alpha channel and the alpha buffer |
| WO2004040520A1 (en) * | 2002-11-01 | 2004-05-13 | Cae Inc. | Method and apparatus for providing calligraphic light point display |
| EP2104930A2 (de) | 2006-12-12 | 2009-09-30 | Evans & Sutherland Computer Corporation | System und methode zum ausgleichen des rgb-licht in einem monomodulator projektor |
| US8876534B1 (en) * | 2007-07-25 | 2014-11-04 | Rockwell Collins, Inc. | Apparatus and methods for lighting synthetic terrain images |
| US8358317B2 (en) | 2008-05-23 | 2013-01-22 | Evans & Sutherland Computer Corporation | System and method for displaying a planar image on a curved surface |
| US8702248B1 (en) | 2008-06-11 | 2014-04-22 | Evans & Sutherland Computer Corporation | Projection method for reducing interpixel gaps on a viewing surface |
| US8077378B1 (en) | 2008-11-12 | 2011-12-13 | Evans & Sutherland Computer Corporation | Calibration system and method for light modulation device |
| US9641826B1 (en) | 2011-10-06 | 2017-05-02 | Evans & Sutherland Computer Corporation | System and method for displaying distant 3-D stereo on a dome surface |
Family Cites Families (16)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| GB1262095A (en) * | 1968-09-11 | 1972-02-02 | Thorn Bendix Ltd | Controlled degradation of a visual scene |
| US3612761A (en) * | 1969-12-19 | 1971-10-12 | Us Navy | Large-area display system |
| US4027403A (en) * | 1975-03-12 | 1977-06-07 | The Singer Company | Real-time simulation of point system having multidirectional points as viewed by a moving observer |
| US3996672A (en) * | 1975-03-12 | 1976-12-14 | The Singer Company | Real-time simulation of a point system as viewed by a moving observer |
| US3996673A (en) * | 1975-05-29 | 1976-12-14 | Mcdonnell Douglas Corporation | Image generating means |
| US4177579A (en) * | 1978-03-24 | 1979-12-11 | The Singer Company | Simulation technique for generating a visual representation of an illuminated area |
| ZA801538B (en) * | 1979-03-19 | 1981-04-29 | United Kingdom Government | Method and apparatus for estimating slant visibility in fog |
| US4348184A (en) * | 1980-11-04 | 1982-09-07 | The Singer Company | Landing light pattern generator for digital image systems |
| US4404553A (en) * | 1980-11-07 | 1983-09-13 | The Singer Company | Landing light pattern generator for simulator with selective addressing of memory |
| US4511337A (en) * | 1982-06-25 | 1985-04-16 | The Singer Company | Simplified hardware component inter-connection system for generating a visual representation of an illuminated area in a flight simulator |
| JPH0746391B2 (ja) * | 1984-09-14 | 1995-05-17 | 株式会社日立製作所 | 図形シエ−デイング装置 |
| US4897806A (en) * | 1985-06-19 | 1990-01-30 | Pixar | Pseudo-random point sampling techniques in computer graphics |
| GB8707087D0 (en) * | 1987-03-25 | 1987-04-29 | Quantel Ltd | Image signal processing systems |
| US5083287A (en) * | 1988-07-14 | 1992-01-21 | Daikin Industries, Inc. | Method and apparatus for applying a shadowing operation to figures to be drawn for displaying on crt-display |
| GB8828342D0 (en) * | 1988-12-05 | 1989-01-05 | Rediffusion Simulation Ltd | Image generator |
| US5268996A (en) * | 1990-12-20 | 1993-12-07 | General Electric Company | Computer image generation method for determination of total pixel illumination due to plural light sources |
-
1990
- 1990-06-01 GB GB909012273A patent/GB9012273D0/en active Pending
-
1991
- 1991-06-03 CA CA2084067A patent/CA2084067A1/en not_active Abandoned
- 1991-06-03 DE DE69123739T patent/DE69123739T2/de not_active Expired - Fee Related
- 1991-06-03 US US07/960,402 patent/US5384719A/en not_active Expired - Fee Related
- 1991-06-03 AU AU79891/91A patent/AU7989191A/en not_active Abandoned
- 1991-06-03 JP JP91509927A patent/JPH05507797A/ja active Pending
- 1991-06-03 EP EP91910421A patent/EP0532579B1/de not_active Expired - Lifetime
- 1991-06-03 WO PCT/GB1991/000884 patent/WO1991019280A1/en not_active Ceased
-
1992
- 1992-11-19 GB GB9224307A patent/GB2261145B/en not_active Expired - Fee Related
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| DE19738713A1 (de) * | 1997-09-04 | 1999-03-11 | Bayerische Motoren Werke Ag | Beleuchtungsvorrichtung für ein Fahrzeug |
Also Published As
| Publication number | Publication date |
|---|---|
| AU7989191A (en) | 1991-12-31 |
| GB9012273D0 (en) | 1990-07-18 |
| GB2261145B (en) | 1994-08-17 |
| DE69123739D1 (de) | 1997-01-30 |
| JPH05507797A (ja) | 1993-11-04 |
| EP0532579A1 (de) | 1993-03-24 |
| WO1991019280A1 (en) | 1991-12-12 |
| EP0532579B1 (de) | 1996-12-18 |
| GB2261145A (en) | 1993-05-05 |
| GB9224307D0 (en) | 1993-01-20 |
| CA2084067A1 (en) | 1991-12-12 |
| US5384719A (en) | 1995-01-24 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| DE69126611T2 (de) | Bilderzeugungsgerät | |
| DE69123739T2 (de) | Bildgenerator | |
| DE68928181T2 (de) | Bilderzeugungsgerät | |
| DE3854543T2 (de) | Prioritätsverwaltung eines Tiefendatenpuffers für Echtzeitrechnersysteme zur Bilderzeugung. | |
| DE3650129T2 (de) | Verfahren zur Kantenglättung für Rechnerbilderzeugungssystem. | |
| DE69130545T2 (de) | System zur Erzeugung einer texturierten Perspektivsicht | |
| DE69120407T2 (de) | Bildgenerator | |
| DE68927471T2 (de) | Verfahren zur Schattierung eines graphischen Bildes | |
| DE3689271T2 (de) | Verfahren zur Bildanzeige. | |
| DE3881416T2 (de) | Verfahren zur Darstellung eines Perspektivbildes eines Gebiets und System zur Durchführung des Verfahrens. | |
| DE3782160T2 (de) | Digitales simulationssystem zur erzeugung von realistischen szenen. | |
| DE69329049T2 (de) | Methode zur Verarbeitung von Daten, die dreidimensionale graphische Objekte repräsentieren | |
| DE3855231T2 (de) | Prioritätsauflösungssystem zwischen Polygonen mit Antialiasing | |
| DE3750784T2 (de) | Generation eines intrapolierten charakteristischen Wertes zur Anzeige. | |
| DE3485846T2 (de) | Videoobjekt-generator. | |
| DE3022454A1 (de) | Optisches abbildesystem mit computererzeugtem bild fuer einen bodenfesten flugsimulator | |
| DE69531536T2 (de) | Synthetisches bilderzeugungsverfahren mit sphärischem puffer | |
| EP0862141A2 (de) | Bilddarstellungsverfahren und Vorrichtung zur Durchführung des Verfahrens | |
| DE19606357A1 (de) | Bildverarbeitungsverfahren zur Darstellung von spiegelnden Objekten und zugehörige Vorrichtung | |
| DE4211385A1 (de) | Daten-projektionssystem | |
| DE69230774T2 (de) | Anti-aliasing Tiefenpuffer | |
| DE69723798T2 (de) | Gerät und Verfahren zum spekular Reflektionsimulieren in einem Graphik-Bildsystem | |
| DE69606177T2 (de) | Verfahren und gerät zur texturabbildung | |
| DE19549096A1 (de) | Simulationsvorrichtung und -verfahren | |
| DE3854619T2 (de) | Quadratische interpolation zur schattierten bilderzeugung. |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| 8364 | No opposition during term of opposition | ||
| 8339 | Ceased/non-payment of the annual fee |