ES2951475T3 - Sistemas y métodos para características virtuales en capas en un entorno de parque de atracciones - Google Patents

Sistemas y métodos para características virtuales en capas en un entorno de parque de atracciones Download PDF

Info

Publication number
ES2951475T3
ES2951475T3 ES18713457T ES18713457T ES2951475T3 ES 2951475 T3 ES2951475 T3 ES 2951475T3 ES 18713457 T ES18713457 T ES 18713457T ES 18713457 T ES18713457 T ES 18713457T ES 2951475 T3 ES2951475 T3 ES 2951475T3
Authority
ES
Spain
Prior art keywords
virtual
display device
layer
screen
features
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES18713457T
Other languages
English (en)
Inventor
Gregory Shellman Hall
David Gerard Majdali
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Universal City Studios LLC
Original Assignee
Universal City Studios LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Universal City Studios LLC filed Critical Universal City Studios LLC
Application granted granted Critical
Publication of ES2951475T3 publication Critical patent/ES2951475T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63GMERRY-GO-ROUNDS; SWINGS; ROCKING-HORSES; CHUTES; SWITCHBACKS; SIMILAR DEVICES FOR PUBLIC AMUSEMENT
    • A63G31/00Amusement arrangements
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/211Input arrangements for video game devices characterised by their sensors, purposes or types using inertial sensors, e.g. accelerometers or gyroscopes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/213Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/24Constructional details thereof, e.g. game controllers with detachable joystick handles
    • A63F13/245Constructional details thereof, e.g. game controllers with detachable joystick handles specially adapted to a particular type of game, e.g. steering wheels
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/25Output arrangements for video game devices
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/25Output arrangements for video game devices
    • A63F13/26Output arrangements for video game devices having at least one additional display device, e.g. on the game controller or outside a game booth
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/30Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/30Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers
    • A63F13/35Details of game servers
    • A63F13/355Performing operations on behalf of clients with restricted processing capabilities, e.g. servers transform changing game scene into an encoded video stream for transmitting to a mobile phone or a thin client
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • A63F13/525Changing parameters of virtual cameras
    • A63F13/5255Changing parameters of virtual cameras according to dedicated instructions from a player, e.g. using a secondary joystick to rotate the camera around a player's character
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/80Special adaptations for executing a specific game genre or game mode
    • A63F13/837Shooting of targets
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/80Special adaptations for executing a specific game genre or game mode
    • A63F13/843Special adaptations for executing a specific game genre or game mode involving concurrently two or more players on the same game device, e.g. requiring the use of a plurality of controllers or of a specific view of game data for each player
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63GMERRY-GO-ROUNDS; SWINGS; ROCKING-HORSES; CHUTES; SWITCHBACKS; SIMILAR DEVICES FOR PUBLIC AMUSEMENT
    • A63G21/00Chutes; Helter-skelters
    • A63G21/04Chutes; Helter-skelters with fixed rails
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63GMERRY-GO-ROUNDS; SWINGS; ROCKING-HORSES; CHUTES; SWITCHBACKS; SIMILAR DEVICES FOR PUBLIC AMUSEMENT
    • A63G21/00Chutes; Helter-skelters
    • A63G21/06Chutes; Helter-skelters with passing arrangements for cars
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63GMERRY-GO-ROUNDS; SWINGS; ROCKING-HORSES; CHUTES; SWITCHBACKS; SIMILAR DEVICES FOR PUBLIC AMUSEMENT
    • A63G27/00Russian swings; Great wheels, e.g. Ferris wheels
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63GMERRY-GO-ROUNDS; SWINGS; ROCKING-HORSES; CHUTES; SWITCHBACKS; SIMILAR DEVICES FOR PUBLIC AMUSEMENT
    • A63G31/00Amusement arrangements
    • A63G31/16Amusement arrangements creating illusions of travel
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63GMERRY-GO-ROUNDS; SWINGS; ROCKING-HORSES; CHUTES; SWITCHBACKS; SIMILAR DEVICES FOR PUBLIC AMUSEMENT
    • A63G7/00Up-and-down hill tracks; Switchbacks
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional [3D], e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating three-dimensional [3D] models or images for computer graphics
    • G06T19/006Mixed reality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • H04N13/344Displays for viewing with the aid of special glasses or head-mounted displays [HMD] with head-mounted left-right displays
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/66Methods for processing data by generating or executing the game program for rendering three dimensional images
    • A63F2300/6653Methods for processing data by generating or executing the game program for rendering three dimensional images for altering the visibility of an object, e.g. preventing the occlusion of an object, partially hiding an object
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0141Head-up displays characterised by optical features characterised by the informative content of the display
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0145Head-up displays characterised by optical features creating an intermediate image
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04806Zoom, i.e. interaction techniques or interactors for controlling the zooming operation
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/024Multi-user, collaborative environment

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Optics & Photonics (AREA)
  • Software Systems (AREA)
  • Computer Graphics (AREA)
  • Signal Processing (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)
  • Aiming, Guidance, Guns With A Light Source, Armor, Camouflage, And Targets (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Television Signal Processing For Recording (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Motorcycle And Bicycle Frame (AREA)

Abstract

Un sistema 10 para proporcionar una experiencia de realidad aumentada, realidad virtual y/o realidad mixta a un usuario incluye una primera pantalla 30, 32 y una segunda pantalla 82. El usuario ve un entorno del mundo real a través de la primera pantalla 30, 32 y la segunda pantalla 82. El sistema 10 incluye un dispositivo de visualización portátil 14 que incluye la primera pantalla 30, 32 y un dispositivo de visualización fijo 80 que incluye la segunda pantalla 82. La primera pantalla 30, 32 está configurada para mostrar una primera capa de características virtuales y la segunda pantalla 82 está configurada para mostrar una segunda capa de características virtuales. El sistema 10 incluye un procesador 26 configurado para generar la primera capa de características virtuales y la segunda capa de características virtuales. El procesador 26 está configurado para comunicarse operativamente con el dispositivo de visualización portátil 14 y el dispositivo de visualización fijo 80 para coordinar la presentación de la primera capa de características virtuales y la segunda capa de características virtuales. (Traducción automática con Google Translate, sin valor legal)

Description

DESCRIPCIÓN
Sistemas y métodos para características virtuales en capas en un entorno de parque de atracciones
Campo de la invención
El tema descrito en la presente memoria se refiere a sistemas y métodos para proporcionar experiencias de realidad aumentada y virtual a un usuario mediante el uso de un dispositivo de visualización portátil en coordinación con un dispositivo de visualización fijo.
Antecedentes
Los parques de atracciones y/o los parques temáticos pueden incluir diferentes atracciones de entretenimiento, restaurantes y atracciones útiles para proporcionar diversión a los visitantes (p. ej., familias y/o personas de todas las edades) del parque de atracciones. Las áreas del parque de atracciones pueden tener diferentes temas que están específicamente dirigidos a ciertas audiencias. Por ejemplo, ciertas áreas pueden incluir temas que tradicionalmente son de interés para los niños, mientras que otras áreas pueden incluir temas que tradicionalmente son de interés para audiencias más maduras. En general, las ubicaciones que tienen temas asociados con tal parque de atracciones pueden denominarse atracción o atracción temática.
Las atracciones temáticas se pueden establecer utilizando equipos fijos, diseños de edificios, accesorios, decoraciones, etc., la mayoría de los cuales generalmente pueden referirse a un tema determinado. En situaciones donde se va a establecer un tema diferente en el mismo lugar, las características asociadas con un tema más antiguo se pueden sustituir por características asociadas con un tema más nuevo. Dependiendo de la complejidad del tema de la ubicación, esto puede resultar muy difícil y llevar mucho tiempo, ya que las decoraciones, los muebles, el equipo, los accesorios, etc., se pueden retirar o sustituir. De hecho, para ciertos tipos de atracciones, los temas relativamente complejos se han vuelto más comunes para proporcionar a los visitantes experiencias más inmersivas.
Ahora se reconoce que es deseable incluir atracciones donde sea posible cambiar los temas de atracción, o incluir o eliminar ciertas características temáticas en tales atracciones de una manera flexible y eficiente en relación con las técnicas tradicionales. También se reconoce ahora que puede ser deseable mejorar la experiencia inmersiva de los visitantes para tales atracciones y proporcionar una experiencia más personalizada para los visitantes.
Los antecedentes de la técnica relevantes incluyen "Desorientación Espacial en la Aviación, Volumen 203 de Progreso en astronáutica y aeronáutica" (Fred H. Previc y col., 2004-01-01, página 476, XP055489810), que muestra que los sistemas de vuelo con una combinación de Pantallas Montadas en la Cabeza y Pantallas Frontales han sido probados para el control de altitud. Más, el documento EP 2 189 200 A1 (Disney Enterprises Inc, 2010-05-26) describe una atracción aumentada donde los usuarios cuentan con dispositivos de entrada para disparar objetivos virtuales. Por último, el documento US 2016/048203 A1 (Blum Steven C. y col., 2016-02-18) describe un sistema donde los pasajeros de un parque de atracciones se ponen gafas que funcionan como Pantallas Ópticos Montadas en la Cabeza con cámaras integradas. Se analizan las imágenes de la cámara y se superponen los efectos virtuales a las gafas.
Compendio
La invención está definida por el conjunto de reivindicaciones adjunto, que proporciona un sistema según la reivindicación 1 y un método según la reivindicación 12. Las reivindicaciones dependientes definen realizaciones preferidas.
Breve descripción de los dibujos
Las características, aspectos y ventajas de la presente descripción se entenderán mejor cuando se lea la siguiente descripción detallada con referencia a los dibujos adjuntos en los que caracteres similares representan partes similares a lo largo de los dibujos, en donde:
La FIG. 1 es una ilustración de una realización de un dispositivo de visualización portátil y un sistema de generación de gráficos por ordenador que puede utilizarse en un sistema de realidad aumentada (AR) o realidad virtual (VR), según las presentes realizaciones;
La FIG. 2 es una vista en perspectiva despiezada ordenadamente de una realización del dispositivo de visualización portátil de la FIG. 1, según las presentes realizaciones;
La FIG. 3 es una vista en perspectiva despiezada ordenadamente de una realización del dispositivo de visualización portátil de la FIG. 1, según las presentes realizaciones;
La FIG. 4 es una ilustración de un dispositivo de visualización fijo y el dispositivo de visualización portátil del sistema de realidad aumentada (AR) o realidad virtual (VR) de la FIG. 1, que se puede utilizar en un vehículo de paseo de pasajeros, según las presentes realizaciones;
La FIG. 5 es una vista en perspectiva del vehículo de paseo de pasajeros de la FIG. 4, que muestra una realización del sistema de realidad aumentada (AR) o realidad virtual (VR) que tiene el dispositivo de visualización fijo, según las presentes realizaciones;
La FIG. 6 es una vista en perspectiva del vehículo de paseo de pasajeros de la FIG. 4, que muestra una realización del sistema de realidad aumentada (AR) o realidad virtual (VR) que tiene el dispositivo de visualización portátil y el dispositivo de visualización fijo, según las presentes realizaciones; y
La FIG. 7 es un diagrama de flujo de un método de funcionamiento del sistema de realidad aumentada (AR) o realidad virtual (VR) de la FIG. 4, según las presentes realizaciones.
Descripción detallada
Las presentes realizaciones se refieren a sistemas y métodos para proporcionar una experiencia de realidad aumentada (AR), una experiencia de realidad virtual (VR), una experiencia de realidad mixta (p. ej., una combinación de AR y VR), o una combinación de las mismas, como parte de una atracción asociada con un parque de atracciones o un parque temático. Según las presentes realizaciones, las atracciones pueden no estar necesariamente limitadas a áreas de un parque de atracciones. De hecho, los aspectos de la presente descripción también pueden referirse a la implementación de atracciones en ubicaciones más allá de los límites de un parque de atracciones, tales como en un hotel asociado con el parque de atracciones, o en vehículos que transportan a los visitantes hacia y desde el parque de atracciones y/ u hotel.
Las presentes realizaciones incluyen, por ejemplo, combinaciones de ciertas configuraciones de hardware, configuraciones de software (p. ej., estructuras algorítmicas), así como ciertas características de atracción que pueden utilizarse para implementar experiencias de AR, VR y/o realidad mixta. Tales experiencias pueden proporcionar una experiencia llena de atracciones para los visitantes de un parque de atracciones que puede adaptarse, personalizarse e interactuar.
Por ejemplo, las presentes realizaciones pueden incluir dispositivos de visualización tales como dispositivos de visualización portátiles (p. ej., gafas de protección o pantallas electrónicas, gafas) y dispositivos de visualización fijos (p. ej., pantallas transparentes de diodos emisores de luz [LED], pantallas transparentes de diodos emisores de luz orgánicos [OLED]) a través del cual los visitantes y empleados del parque de atracciones pueden ver escenas de AR, VR y/o realidad mixta. Debería apreciarse que los dispositivos de visualización fijos descritos en la presente memoria pueden fijarse y/o acoplarse a una estructura, tal como un vehículo de paseo de pasajeros, una pared de un edificio o similar. Los dispositivos de visualización fijos pueden estar separados físicamente y ser distintos de los dispositivos de visualización portátiles. Ciertas implementaciones se pueden utilizar para mejorar las experiencias de los visitantes, por ejemplo, eliminando o añadiendo virtualmente características en un entorno asociado con un parque de atracciones, para proporcionar entornos virtuales ajustables para diferentes experiencias en la misma atracción, para permitir que un visitante tenga el mismo punto de vista que otro visitante, etcétera.
Ciertas atracciones dentro del parque de atracciones pueden incluir vehículos de paseo de pasajeros que pueden estar diseñados específicamente para cooperar con los dispositivos de visualización, tal como para añadir profundidad y/o realismo adicionales a la experiencia de AR, VR o realidad mixta. En una realización, los dispositivos de visualización fijos pueden incluir pantallas transparentes. En una realización, los paneles y/o ventanas convencionales (p. ej., vidrio, acrílico) de una cabina del vehículo de paseo de pasajeros pueden sustituirse por las pantallas transparentes que pueden aumentar el paisaje fuera de la cabina superponiendo imágenes virtuales y/o videos sobre partes o la totalidad de las pantallas transparentes (p. ej., pantallas LED transparentes, pantallas OLED transparentes). Por ejemplo, en una realización, las pantallas transparentes pueden utilizarse para mostrar la condensación cuando el vehículo de paseo de pasajeros pasa junto a una figura animada (p. ej., un dragón) para crear la ilusión de que la figura animada está respirando en el vehículo de paseo de pasajeros.
Adicional o alternativamente, los dispositivos de visualización portátiles pueden utilizarse para aumentar la percepción del entorno por parte del pasajero. Por ejemplo, los dispositivos de visualización portátiles pueden crear la ilusión de que la figura animada entre en la cabina (p. ej., el dragón alcanza o escupe fuego hacia la cabina), lo que puede resultar en una experiencia más inmersiva para el visitante. Los dispositivos de visualización fijos y los dispositivos de visualización portátiles pueden configurarse para operar de forma independiente, o pueden acoplarse operativamente a través de un controlador (p. ej., un sistema de generación de gráficos por ordenador, uno o más procesadores), que pueden sincronizar y/o coordinar las visualizaciones mostradas en los dispositivos de visualización fijos y los dispositivos de visualización portátiles. El controlador también puede sincronizar y/o coordinar la experiencia de AR, VR y/o realidad mixta proporcionada por los dispositivos de visualización portátiles y/o los dispositivos de visualización fijos con animatrónica externa u otros elementos de la atracción dispuestos alrededor de una pista del vehículo de paseo de pasajeros.
Además, se pueden recopilar ciertos datos de los dispositivos de visualización portátiles para permitir un uso más eficiente de la potencia informática y/u otros recursos, para publicidad dirigida, para proporcionar características virtuales raras (p. ej., "huevos de Pascua"), para activar efectos o ajustar un espectáculo, etcétera. Por ejemplo, un sistema de control de atracciones puede determinar si un pasajero que utiliza el dispositivo de visualización portátil ha mirado en una dirección determinada (p. ej., para mirar una imagen virtual en el dispositivo de visualización fijo) antes de iniciar el movimiento de la atracción o iniciar otros cambios (p. ej., cambiando la imagen virtual en el dispositivo de visualización fijo). También se pueden recopilar datos de visualización de empleados. Por ejemplo, un sistema de control de atracciones puede determinar si un empleado que opera una atracción ha mirado en una dirección determinada (p. ej., para confirmar que no hay visitantes entrando a una atracción) antes de iniciar el movimiento de la atracción. Los dispositivos de visualización también se pueden utilizar para funcionar como una pantalla de visualización frontal (HUD) del operador de la atracción.
Para ayudar a ilustrar, la FIG. 1 representa una realización de un sistema 10 de AR/VR configurado para permitir que un usuario 12 (p. ej., un visitante, un empleado de un parque de atracciones) experimente (p. ej., vea, interactúe con) escenas controladas de AR, VR y/o realidad mixta. Según ciertas realizaciones, el usuario 12 puede comprar o recibir de otro modo un dispositivo 14 de visualización portátil, que puede, en ciertas realizaciones, incluir gafas electrónicas 16 (p. ej., gafas de AR/VR, gafas de protección). Como se describe con más detalle a continuación, el dispositivo 14 de visualización portátil puede incluir una parte portátil 18, ilustrada como una cinta para la cabeza, configurada para alojar al menos una parte de las gafas electrónicas 16.
El dispositivo 14 de visualización portátil puede utilizarse solo o en combinación con otras características para crear un entorno surrealista 20, que puede incluir una experiencia de AR, una experiencia de VR, una experiencia de realidad mixta, una experiencia de realidad mediada por ordenador, una combinación de las mismas, u otro entorno surrealista similar para el usuario 12. Específicamente, el dispositivo 14 de visualización portátil puede ser utilizado por el usuario 12 durante toda la duración de una atracción (p. ej., un vehículo de paseo de pasajeros) u otro punto predeterminado tal como durante un juego, en la entrada de un área particular de un parque de atracciones, durante un paseo a un hotel asociado con el parque de atracciones, en el hotel, etc.
En una realización, el dispositivo 14 de visualización portátil puede incluir un dispositivo en el que ciertas características virtuales pueden superponerse sobre una superficie transparente (p. ej., gafas), o puede incluir un dispositivo en el que las características virtuales se superponen sobre un video sustancialmente en tiempo real, o una combinación de los mismos (p. ej., el dispositivo 14 de visualización portátil puede ser capaz de cambiar entre visualización de usuario 12 transparente y opaca). En una realización, el dispositivo 14 de visualización portátil puede incluir características, tales como características de proyección de luz, configuradas para proyectar luz en uno o ambos ojos del usuario 12 de modo que las funciones virtuales se superpongan sobre objetos del mundo real. Se puede considerar que tal dispositivo 14 de visualización portátil incluye una pantalla Retina.
Así, en una realización, el usuario 12 puede ver el entorno del mundo real a través de un conjunto sustancialmente transparente de gafas electrónicas 16, con ciertas características virtuales superpuestas sobre una superficie de gafas electrónicas 16 (o los ojos del usuario 12) de modo que el usuario 12 percibe que las características virtuales están integradas en el entorno físico. En una realización, el usuario 12 puede ver un video en tiempo real del entorno físico que tiene características virtuales superpuestas.
En una realización, al utilizar el dispositivo 14 de visualización portátil, el usuario 12 puede sentirse completamente envuelto por el entorno surrealista 20 y puede percibir el entorno surrealista 20 como el entorno físico del mundo real que incluye ciertas características virtuales. Específicamente, en una realización, el dispositivo 14 de visualización portátil puede controlar completamente la vista del usuario 12 (p. ej., utilizando superficies de visualización opacas) de tal manera que el entorno surrealista 20 puede ser un video en tiempo real que incluye imágenes 22 del mundo real del entorno físico fusionado electrónicamente con una o más imágenes 24 de realidad aumentada o virtual (p. ej., aumentos virtuales).
Las imágenes 22 del mundo real generalmente representan lo que el usuario 12 vería, incluso cuando no utiliza el dispositivo 14 de visualización portátil. El término "en tiempo real" indica que las imágenes se obtienen y/o proporcionan en un marco de tiempo sustancialmente cercano al tiempo de la observación real. Más específicamente, en otras realizaciones, el dispositivo 14 de visualización portátil puede controlar solo parcialmente la vista del usuario 12 (p. ej., utilizando superficies de visualización transparentes) de tal manera que el entorno surrealista 20 sea el entorno físico real con las imágenes 24 de realidad aumentada o virtual superpuestas. sobre las superficies transparentes, o sobre los ojos del usuario 12. Según realizaciones adicionales de la presente descripción, las imágenes 24 de realidad aumentada o virtual pueden funcionar para superponerse a un objeto del mundo real de modo que el objeto parezca no estar presente o eliminado (p. ej., el objeto del mundo real está total o parcialmente ocluido con un objeto virtual o una representación ambiental virtual).En una realización y como se ilustra en la parte recortada del dispositivo 14 de visualización portátil, para apoyar la creación de aspectos del entorno surrealista 20, el dispositivo 14 de visualización portátil puede incluir un circuito 25 de procesamiento, tal como un procesador 26 y una memoria 28. El procesador 26 puede acoplarse operativamente a la memoria 28 para ejecutar instrucciones para llevar a cabo las técnicas descritas actualmente, por ejemplo, generar imágenes 22 del mundo real y/o una o más imágenes 24 de realidad virtual o aumentada (p. ej., características o imágenes virtuales). Estas instrucciones pueden estar codificadas en programas o códigos almacenados en un medio tangible no transitorio legible por ordenador, tal como la memoria 28 y/u otro almacenamiento. El procesador 26 puede ser un procesador de uso general, un dispositivo de sistema en chip (SoC), un circuito integrado de aplicación específica (ASIC) o alguna otra configuración de procesador similar. Juntos, la memoria 28 y el procesador 26 pueden formar todo o parte del sistema 10 de AR/VR.
En una realización, como se ilustra adicionalmente, el dispositivo 14 de visualización portátil también puede incluir un par de pantallas 30 y 32 (p. ej., que pueden estar previstas en la parte delantera del marco del dispositivo 14 de visualización portátil donde, de otro modo, aparecerían lentes de gafas) correspondientes respectivamente a cada ojo del usuario 12. En una realización, se puede emplear una pantalla unificada. Las pantallas 30 y 32 respectivas pueden incluir cada una, a modo de ejemplo no limitativo, lentes transparentes sobre las que se pueden superponer las imágenes 24 de realidad virtual o aumentada. En una realización, las pantallas 30 y 32 pueden ser superficies de visualización y pueden incluir características (p. ej., circuitos, emisores de luz) ubicadas junto a sus periferias respectivas configuradas para superponerse a las imágenes 24 de realidad virtual o aumentada.
Adicional o alternativamente, las pantallas 30 y 32 pueden incluir una pantalla de cristal líquido (LCD) opaca, una pantalla opaca de diodo emisor de luz orgánico (OLED) u otra pantalla similar útil para mostrar las imágenes 22 del mundo real y las imágenes 24 de realidad virtual o aumentada al usuario 12. En una realización, las pantallas 30 y 32 respectivas pueden incluir cada una pantalla LED transparente (p. ej., transparente) o una pantalla OLED transparente (por ejemplo, transparente) útil para permitir, por ejemplo, que el usuario 12 vea las imágenes 24 de realidad aumentada o virtual que aparecen en las pantallas 30 y 32 respectivas como una superposición del entorno real y físico (p. ej., una atracción asociada con un parque de atracciones o el interior de un vehículo de paseo de pasajeros). Tal configuración también puede permitir que el usuario 12 vea otras capas de imágenes virtuales que aparecen en otras pantallas, como se analiza con más detalle a continuación.
Las cámaras 34 y 36 del dispositivo 14 de visualización portátil pueden corresponder respectivamente al punto de vista del usuario 12 y pueden utilizarse para capturar datos de video en tiempo real (p. ej., video en vivo) o señales de luz ambiental del entorno físico. En una realización, se puede emplear una sola cámara. El dispositivo 14 de visualización portátil también puede incluir cámaras adicionales para seguir el movimiento ocular del usuario, lo que puede ser particularmente útil para realizaciones donde las características virtuales se proyectan directamente en los ojos del usuario 12. Las características 38 de comunicación (p. ej., que incluyen un transceptor inalámbrico) del dispositivo 14 de visualización portátil pueden transmitir datos en tiempo real (p. ej., datos de video, datos de seguimiento ocular) capturados a través de las respectivas cámaras 34 y 36 al procesador 26 y/o un sistema 40 de generación de gráficos por ordenador para su procesamiento.
Como se representa, el dispositivo 14 de visualización portátil puede acoplarse comunicativamente al sistema 40 de generación de gráficos por ordenador (p. ej., un servidor dentro del parque de atracciones) a través de una red inalámbrica 42 (p. ej., redes inalámbricas de área local [WLAN], redes inalámbricas de área amplia [ WWAN], comunicación de campo cercano [NFC]). Sin embargo, en otras realizaciones, los datos de video en tiempo real capturados a través de las cámaras 34 y 36 respectivas pueden procesarse en el dispositivo 14 de visualización portátil a través del procesador 26. Además, las características 38 de comunicación (p. ej., transceptor inalámbrico, conectores de entrada/salida), que están conectados al procesador 26, pueden permitir que el firmware y/o el software incluido en el procesador 26 y la memoria 28 se actualicen y/o configuren para usos particulares. En una realización, la red inalámbrica 42 puede acoplar comunicativamente todos o algunos componentes del sistema 10 de AR/VR.
Otras características del dispositivo 14 de visualización portátil pueden transmitir datos de orientación, datos de posición, datos de punto de vista (p. ej., distancia focal, orientación, pose), datos de seguimiento de movimiento, etc. obtenidos y/o derivados en base a datos obtenidos a través de sensores del dispositivo 14 de visualización portátil. Tales sensores pueden incluir sensores de orientación y posición (p. ej., acelerómetros, magnetómetros, giroscopios, receptores del Sistema de Posicionamiento Global [GPS]), sensores de seguimiento de movimiento (p. ej., sensores de seguimiento de movimiento electromagnéticos y de estado sólido), unidades de medición inercial (IMU), y otros.
En ciertas realizaciones, las características del dispositivo 14 de visualización portátil (p. ej., aspectos geométricos o marcas) pueden ser monitorizadas por un sistema 41 de monitorización (p. ej., una o más cámaras) para determinar la posición, ubicación, orientación, etc. del dispositivo 14 de visualización portátil y, a su vez, el del usuario 12. El sistema 41 de monitorización puede acoplarse comunicativamente al sistema 40 de generación de gráficos por ordenador y utilizarse para identificar la posición, ubicación, orientación, etc. del usuario 12 (o múltiples usuarios).
El sistema 40 de generación de gráficos por ordenador incluye un circuito 43 de procesamiento, tal como un procesador 44 (p. ej., un procesador de uso general u otro procesador) y una memoria 46, y puede procesar los datos de video en tiempo real (p. ej., video en vivo), datos de orientación y posición, datos de punto de vista, o cualquier combinación de los mismos, recibidos desde el dispositivo 14 de visualización portátil y el sistema 41 de monitorización. Específicamente, el sistema 40 de generación de gráficos por ordenador puede utilizar estos datos para generar un marco de referencia para registrar las imágenes 24 de realidad aumentada o virtual para el entorno físico, por ejemplo, ara las imágenes 22 del mundo real generadas. Específicamente, utilizando el marco de referencia generado en base a los datos de orientación, datos de posición, datos de punto de vista, datos de seguimiento de movimiento, etc., el sistema 40 de generación de gráficos puede luego mostrar una vista de las imágenes 24 de realidad aumentada o virtual y, en una realización, las imágenes 22 del mundo real, de una manera que es temporal y espacialmente proporcional a lo que el usuario 12 percibiría si no utilizara el dispositivo 14 de visualización portátil. El sistema 40 de generación de gráficos puede actualizar constantemente (p. ej., en tiempo real) la representación de las imágenes del mundo real para reflejar el cambio en la orientación, posición y/o movimiento respectivo del usuario 12 respectivo. En ciertas realizaciones, el sistema 40 de generación de gráficos por ordenador puede seguir tales datos correspondientes a una pluralidad de usuarios 12 (p. ej., pasajeros del vehículo de paseo de pasajeros), donde cada usuario 12 (o al menos algunos usuarios 12) tienen un dispositivo 14 de visualización portátil correspondiente.
Como se estableció anteriormente, el dispositivo 14 de visualización portátil incluye varios componentes y, en general, puede incluir las gafas electrónicas 16 configuradas para utilizarse en la cabeza del usuario 12. Se puede utilizar una variedad de diferentes configuraciones e implementaciones de las gafas electrónicas 16, donde las diferentes configuraciones pueden tener diferentes tamaños y formas para adaptarse mejor a diferentes tamaños para diferentes usuarios 12, así como diferentes componentes internos (p. ej., características de comunicación, transductores, pantallas) para adaptarse a diferentes implementaciones.
Para proporcionar flexibilidad y soporte adicionales para las gafas electrónicas 16, la parte portátil 18 del dispositivo 14 de visualización portátil puede adoptar una variedad de formas, cuyas realizaciones ejemplares se representan en las FIGS. 2 y 3. En la FIG. 2, el dispositivo 14 de visualización portátil incluye una cinta para la cabeza como la parte portátil 18. Tal realización de la parte portátil 18 puede incluir diferentes materiales configurados para adaptarse al movimiento del usuario 12, al mismo tiempo que proporciona comodidad (p. ej., materiales elásticos, materiales que absorben el sudor, acolchado) para el usuario 12. Actualmente se reconoce que puede ser deseable tener una parte portátil separada 18 y gafas electrónicas 16 para permitir que la parte portátil 18 se lave sin riesgo para el circuito 25 de procesamiento (FIG. 1) del dispositivo 14 de visualización portátil. Sin embargo, en ciertas implementaciones, la parte portátil 18 puede incorporar uno o más componentes electrónicos del circuito 25 de procesamiento. En tales realizaciones, los componentes electrónicos en la parte portátil 18 pueden estar sustancialmente sellados lejos del entorno para evitar daños.
La realización de la parte portátil 18 de la FIG. 2 incluye una región 60 de receptáculo configurada para recibir las gafas electrónicas 16 y para mantener la posición de las gafas electrónicas 16 con relación a los ojos del usuario 12 (FIG. 1) durante el uso. En este sentido, la región 60 del receptáculo puede, en una realización, incluir una parte central 62 asegurable alrededor del perímetro de las pantallas 30, 32 (FIG. 1) de las gafas electrónicas 16, así como partes laterales 64 configuradas para rodear (p. ej., parcial o totalmente) los brazos 66 de las gafas electrónicas 16.
La parte central 62 de la región 60 del receptáculo puede incluir acolchado para permitir la comodidad del usuario 12, mientras que la cinta para la cabeza proporciona una fuerza de compresión adecuada contra la cabeza del usuario 12 (p. ej., para mantener la posición de las gafas electrónicas 16). La parte central 62 puede, en una realización, incluir uno o más materiales que tengan un coeficiente de fricción contra la piel que proporcione una combinación apropiada de estabilidad y comodidad. Por ejemplo, pueden ser apropiados los materiales de gel comúnmente utilizados en la región de la nariz de las gafas electrónicas 16.
Como se ilustra en la realización de la FIG. 3, la parte portátil 18 puede incluir otras características además de la cinta para la cabeza o en lugar de la cinta para la cabeza. Como se representa, la parte portátil 18 incluye una gorra 70 para llevar sobre la cabeza del usuario 12, así como características similares a la cinta para la cabeza que se expone en la FIG. 2. En ciertas realizaciones y como se ha mostrado, la gorra 70 puede incluir una región 72 de seguridad donde la gorra 70 se superpone con una parte 74 de cinta para la cabeza. La región 72 de seguridad puede incluir mecanismos de cierre tales como cierres de gancho y bucle, cierres de gancho y ojo, botones, tiras magnéticas, etc., configurados para permitir la fijación entre la gorra 70 y la parte 74 de cinta para la cabeza. De esta manera, la gorra 70 se puede separar de la parte 74 de cinta para la cabeza, lo que permite que se utilicen por separado, se laven por separado, etcétera. La parte 74 de cinta para la cabeza, en una realización, puede ser integral con la gorra 70 (p. ej., cosida en la gorra 70), de tal manera que la parte 74 de cinta para la cabeza no se puede retirar fácilmente de la gorra 70.
La realización ilustrada de la gorra 70 incluye una visera 76, que sirve para proteger los ojos del usuario 12, así como las gafas electrónicas 16 y sus pantallas 30, 32 asociadas (FIG. 1) de fuentes de iluminación intensas como el sol, iluminación cenital, etc. La visera 76 puede, por ejemplo, ser particularmente útil en realizaciones donde las pantallas 30, 32 funcionan en base a la reflexión óptica y/o son transparentes o semitransparentes. En tales realizaciones, la visera 76 puede ayudar a mejorar el contraste visual percibido de las imágenes 24 de realidad aumentada o virtual (FIG. 1) contra un entorno físico de fondo.
La realización ilustrada del dispositivo 14 de visualización portátil de la FIG. 3 también incluye una cubierta 78 de pantalla configurada para colocarse sobre las pantallas 30, 32 (FIG. 1) de las gafas electrónicas 16. La cubierta 78 de pantalla puede proporcionar sombra para las pantallas 30, 32 para proteger las pantallas 30, 32 de daños físicos, para proporcionar un grado de opacidad para mejorar el contraste y la visualización de las imágenes 24 de realidad aumentada o virtual, para el filtrado óptico, etc. La cubierta 78 de pantalla puede incluir cualquier mecanismo de seguridad apropiado, tal como un clip 79, configurado para ser extraíble y sujetar la cubierta 78 de pantalla a los anteojos electrónicos 16. Se pueden utilizar otras características de seguridad, tales como un adhesivo temporal y/o cierres de gancho y bucle.
Volviendo ahora a la FIG. 4, que muestra una realización del sistema 10 de AR/VR que puede incluir adicionalmente un dispositivo 80 de visualización fijo, que puede estar compuesto por una o más pantallas transparentes 82. Debería apreciarse que el dispositivo 80 de visualización fijo descrito en la presente memoria puede ser fijo y/o estar acoplado a una estructura, tal como un vehículo 86 de paseo de pasajeros, una pared de un edificio, o similar. El dispositivo 80 de visualización fijo puede estar físicamente separado y ser distinto del dispositivo 14 de visualización portátil. El dispositivo 80 de visualización fijo puede utilizarse en lugar de, o en combinación con el dispositivo 14 de visualización portátil de la FIG. 1. Como tal, las pantallas transparentes 82 se pueden utilizar para sustituir o mejorar la experiencia de AR, VR y/o realidad mixta generada por el dispositivo 14 de visualización portátil. En una realización, el dispositivo 80 de visualización fijo puede añadir una capa adicional de características de realidad aumentada o virtual que el usuario 12 puede percibir.
En una realización, las pantallas transparentes 82 se pueden acoplar a una cabina 84 del vehículo 86 de paseo de pasajeros. Teniendo en cuenta lo anterior, puede ser útil describir primero una realización de un escenario en el que se puede utilizar el sistema 10 de AR/VR en un parque 90 de atracciones, como se ha mostrado esquemáticamente en la FIG. 4. Como se ilustra, el parque 90 de atracciones puede incluir una atracción emocionante 92, un centro comercial de instalaciones 94 del parque de atracciones (p. ej., áreas de juego, hoteles, restaurantes, tiendas de souvenirs) y atracciones 96 de entretenimiento adicionales (p. ej., rueda de la fortuna, una atracción oscura). En ciertas realizaciones, la atracción emocionante 92 puede incluir una montaña rusa u otra atracción emocionante 92 similar y, por lo tanto, puede incluir además un trayecto, tal como un sistema de pistas 98 de circuito cerrado (p. ej., millas de pistas 98) que están dispuestas alrededor de un entorno físico circundante 100 (p. ej., las instalaciones 94 del parque, las atracciones 96 de diversión adicionales). Las pistas 98 pueden proporcionarse como una infraestructura en la que el vehículo 86 de paseo de pasajeros puede atravesar, por ejemplo, cuando un pasajero 102 (p. ej., el usuario 12 de la FIG. 1) viaja en la atracción emocionante 92. Aunque solo se ha mostrado un pasajero 102 en la realización ilustrada, el vehículo 86 de paseo de pasajeros puede estar configurado para alojar 1,2, 3, 4, 5 o más pasajeros 102.Las pistas 98 pueden definir así el movimiento del vehículo 86 de paseo de pasajeros. Sin embargo, en una realización, las pistas 98 pueden ser sustituidas por un trayecto controlada, en el que el movimiento del vehículo 86 de paseo de pasajeros puede controlarse a través de un sistema electrónico, un sistema magnético u otra infraestructura de sistema similar que no sean las pistas 98. En otras palabras, el trayecto de paseo del vehículo 86 de paseo de pasajeros puede no estar restringido físicamente a un trayecto exacto, permitiendo de este modo al pasajero 102 cierto grado de control sobre el trayecto de movimiento, perspectiva de vista, etc.
A medida que el vehículo 86 de paseo de pasajeros atraviesa las pistas 98, al pasajero 102 se le puede proporcionar un recorrido en movimiento por el entorno físico 100 en un área alrededor o cerca de la atracción emocionante 92. El vehículo 86 de paseo de pasajeros también puede moverse más allá de los dispositivos robóticos (p. ej., figuras animatrónicas 97) que pueden estar configurados para emular a un humano o un animal, o proporcionar características vívidas a un objeto inanimado. Las figuras animatrónicas 97 pueden estar dispuestas alrededor de partes de la pista 98 y pueden estar configuradas para interactuar con el pasajero 102 (p. ej., asustar y/o sorprender al pasajero 102) mientras el vehículo 86 de paseo de pasajeros atraviesa las pistas 98. Las figuras animatrónicas 97 pueden ser propulsadas por motores neumáticos, hidráulicos, eléctricos o cualquier medio adicional para activar las figuras animatrónicas 97. Si bien el pasajero 102 puede encontrar que la atracción emocionante 92 es una experiencia muy agradable, puede ser útil para mejorar la experiencia de paseo del pasajero 102. Específicamente, en lugar de tener una vista física solo del entorno físico 100, atracciones 96 de entretenimiento adicionales y/o figuras animatrónicas 97 dispuestas alrededor de las pistas 98, puede ser útil proporcionar al pasajero 102 una experiencia de AR, VR adicional, o de realidad mixta. Esto se puede hacer a medida que el vehículo 86 de paseo de pasajeros se mueve a lo largo de las pistas 98 de la atracción emocionante 92, mediante la utilización del dispositivo 14 de visualización portátil, el dispositivo 80 de visualización fijo o ambos.
La FIG. 5 ilustra una realización del sistema 10 de AR/VR en la que el pasajero 102 puede utilizar el dispositivo 80 de visualización fijo. Como se establece anteriormente, las pantallas transparentes 82 del dispositivo 80 de visualización fijo pueden ser pantallas LED transparentes, pantallas OLED transparentes o cualquier pantalla adecuada para la aplicación. Las pantallas transparentes 82 pueden ser sustancialmente y/o completamente transparentes cuando no están energizadas. Como tal, en una realización, las pantallas transparentes 82 pueden integrarse en una parte de la cabina 84, tal como un panel lateral 88, que puede crear la ilusión de una ventana convencional (p. ej., ventana de vidrio, ventana acrílica). Además o de otro modo, las pantallas transparentes 82 pueden acoplarse a cualquier parte del vehículo 86 de paseo de pasajeros (p. ej., parte delantera, parte trasera, techo, suelo). Así, el pasajero 102 puede ver el entorno físico 100 a través de las pantallas transparentes 82 (p. ej., tal como a través de una ventana convencional). En una realización, las pantallas transparentes 82 pueden activarse (p. ej., de forma continua o periódica en ciertos momentos) para que sean sustancialmente y/o completamente opacas, lo que puede crear la ilusión de que la cabina 84 está completamente encapsulada por paredes o paneles sólidos (p. ej., sin ventanas convencionales).
En una realización, ciertas características virtuales pueden superponerse sobre una superficie de las pantallas transparentes 82. El pasajero 102 puede ver el entorno físico 100 a través de una o más líneas 110 de visión, que pueden crearse cuando el pasajero 102 mira a través de las pantallas transparentes. 82. Las pantallas transparentes 82 se pueden utilizar para superponer imágenes 112 de realidad aumentada o virtual sobre las líneas 110 de visión del pasajero 102. Como tal, el pasajero 102 puede percibir que las características virtuales están integradas (p. ej., físicamente presentes) dentro del entorno físico 100. Por ejemplo, las pantallas transparentes 82 pueden ocluir solo parcialmente las líneas 110 de visión del pasajero 102 (p. ej., utilizando superficies de visualización transparentes), de tal manera que el entorno físico 100 que ve el pasajero 102 es el entorno real con las imágenes 112 de realidad aumentada o virtual superpuestas sobre las superficies de visualización transparentes de las pantallas transparentes 82. En una realización, el pasajero 102 puede ver un video en tiempo real del entorno físico 100 que tiene características virtuales superpuestas en las pantallas transparentes 82.
En una realización, el dispositivo 80 de visualización fijo puede acoplarse operativamente al circuito 116 de procesamiento, que puede acoplarse al vehículo 86 de paseo de pasajeros. El circuito 116 de procesamiento puede incluir un procesador 118 (p. ej., un procesador de propósito general u otro procesador), características 119 de comunicación (p. ej., transceptor inalámbrico), y una memoria 120. El procesador 118 puede acoplarse operativamente a la memoria 120 para ejecutar instrucciones para llevar a cabo las técnicas descritas actualmente, por ejemplo, generar imágenes 121 del mundo real (p. ej., el video en tiempo real del entorno físico 100) y/o las imágenes 112 de realidad aumentada o virtual. Estas instrucciones pueden estar codificadas en programas o código almacenado en un medio tangible no transitorio legible por ordenador, tal como la memoria 120 y/u otro almacenamiento. El procesador 118 puede ser un procesador de uso general, un dispositivo de sistema en chip (SoC), un circuito integrado de aplicación específica (ASIC) o alguna otra configuración de procesador similar. En una realización, el pasajero 102 puede ver las imágenes 112 de realidad aumentada o virtual y el entorno físico circundante 100 a través de las pantallas transparentes 82 mientras el vehículo 86 de paseo de pasajeros atraviesa las pistas 98 de la atracción emocionante 92. El circuito 116 de procesamiento puede acoplarse comunicativamente al sistema 40 de generación de gráficos por ordenador (p. ej., dentro del parque de atracciones) a través de las características 119 de comunicación y/o la red inalámbrica 42. En una realización, el circuito 116 de procesamiento puede operar independientemente del sistema 40 de generación de gráficos por ordenador. Como se discutió con mayor detalle en la presente memoria, el dispositivo 80 de visualización fijo puede acoplarse operativamente al procesador 26 (FIG. 1) del dispositivo 14 de visualización portátil (FIG. 1), permitiendo así sincronizar y/o coordinar las imágenes 112 de realidad aumentada o virtual del dispositivo 80 de visualización fijo con las imágenes 24 de realidad aumentada o virtual (FIG. 1) del dispositivo 14 de visualización portátil.
En una realización, los datos de video en tiempo real (p. ej., datos de video en vivo) pueden recibirse de las cámaras 122 acopladas al exterior del vehículo 86 de paseo de pasajeros. Aunque solo se representa una cámara 122 en la realización mostrada, el vehículo 86 de paseo de pasajeros puede admitir 1,2, 3, 4, 5 o más cámaras 122 para capturar las imágenes 121 del mundo real del entorno físico 100 que rodea el vehículo 86 de paseo de pasajeros. El circuito 116 de procesamiento puede procesar datos de video en tiempo real para generar y mostrar las imágenes 121 del mundo real en las pantallas transparentes 82. En una realización, las imágenes 121 del mundo real pueden grabarse previamente y guardarse en la memoria 120 del circuito 116 de procesamiento. Además, el circuito 116 de procesamiento puede recopilar datos de orientación y de posición, datos de punto de vista o cualquier combinación de los mismos recibidos de las cámaras 122 y/o el sensor adicional 124 que puede acoplarse al vehículo 86 de paseo de pasajeros. Específicamente, el circuito 116 de procesamiento puede utilizar estos datos para generar un marco de referencia, que puede registrar y sincronizar y/o coordinar las imágenes 112 de realidad aumentada o virtual generadas con las imágenes 121 del mundo real y/o el entorno físico 100 que el pasajero 102 puede ver a través de las líneas 110 de visión.
Por ejemplo, el circuito 116 de procesamiento puede utilizar los datos recopilados por las cámaras 122 y/o los sensores 124 para generar imágenes 121 del mundo real del entorno físico 100 sobre las pantallas transparentes 82. Específicamente, utilizar el marco de referencia generado en base a los datos de orientación, datos de posición, datos de punto de vista, datos de seguimiento de movimiento, etc., el circuito 116 de procesamiento puede entonces presentar una vista de las imágenes 112 de realidad aumentada o virtual, y en una realización, las imágenes 121 del mundo real, de una manera que sea temporal y espacialmente proporcional a lo que el pasajero 102 percibiría si viera el entorno circundante a través de una ventana convencional (p. ej., una ventana de cristal). El circuito 116 de procesamiento puede actualizar constantemente (p. ej., en tiempo real) la representación de las imágenes 112 de realidad aumentada o virtual y/o las imágenes 121 del mundo real para reflejar un cambio en la orientación, posición y/o movimiento respectivos de las líneas 110 de visión del pasajero 102.
Además o de otro modo, el circuito 116 de procesamiento puede aumentar el entorno físico 100 o las imágenes 121 del mundo real del entorno físico 100 para mejorar la experiencia de paseo del pasajero 102 (p. ej., alterar el entorno físico 100 para que coincida con el tema de la pista 98). Por ejemplo, las pantallas transparentes 82 pueden representar gotas de lluvia o nevadas para aumentar la vista del entorno físico 100 a través de las pantallas transparentes 82. En una realización, las pantallas transparentes 82 pueden cubrir parcial o completamente la vista del entorno físico 100 con imágenes aumentadas. o imágenes 112 de realidad virtual de un escenario ficticio (p. ej., selva, espacio exterior, etc.).
El circuito 116 de procesamiento puede controlar la sincronización de los efectos o elementos de la atracción (p. ej., las figuras animatrónicas 97), que pueden interactuar con el pasajero 102. En una realización, la sincronización de los efectos de la atracción también puede ser controlada por el sistema 40 de generación de gráficos por ordenador, un sistema 126 de control de la atracción separado, o una combinación de ambos. Los efectos de la atracción pueden sincronizarse y/o coordinarse con las imágenes 112 de realidad aumentada o virtual que se muestran en las pantallas transparentes 82 a medida que el vehículo 86 de paseo de pasajeros atraviesa las pistas 98. La experiencia inmersiva de la atracción emocionante 92 puede mejorarse para el pasajero 102 sincronizando y/o coordinando los efectos de la atracción con las imágenes 112 de realidad aumentada o virtual.
Los efectos del paseo pueden estar configurados para interactuar con el vehículo 86 de paseo de pasajeros a medida que el vehículo 86 de paseo de pasajeros atraviesa las pistas 98 de la atracción emocionante 92. Por ejemplo, en una realización, las figuras animatrónicas 97 pueden bloquear temporalmente las pistas 98 delante del vehículo 86 de paseo de pasajeros, creando la ilusión de que el vehículo 86 de paseo de pasajeros puede chocar con las figuras animatrónicas 97. En una realización, la figura animatrónica 97 (p. ej., un dragón) puede estar configurada para proporcionar la ilusión de atacar el vehículo 86 de paseo de pasajeros (p. ej., lanzar fuego en la dirección del vehículo 86 de paseo de pasajeros). Si bien el pasajero 102 puede encontrar la interacción con las figuras animatrónicas 97 como una experiencia muy emocionante, en una realización, puede ser útil mejorar la experiencia de paseo del pasajero a través de imágenes 112 de realidad aumentada o virtual, que pueden sincronizarse y/o coordinarse con el movimiento de las figuras animatrónicas 97.
Por ejemplo, en una realización, las pantallas transparentes 82 pueden superponer grietas 128 de vidrio o daños 130 (p. ej., decoloración o carbonización de las llamas) en las líneas 110 de visión del pasajero 102. Esto puede mejorar aún más el realismo de las figuras animatrónicas 97 percibida por el pasajero 102. En una realización, las pantallas transparentes 82 pueden superponer la condensación 132 (p. ej., de animales que respiran) en las líneas 110 de visión, lo que puede crear una ilusión en la que el pasajero 102 percibe que las figuras animatrónicas 97 están muy cerca del vehículo 86 de paseo de pasajeros. Además, o de otro modo, cualesquiera imágenes 112 de realidad aumentada o virtual deseables pueden generarse en las pantallas transparentes 82, lo que puede mejorar el realismo de los efectos especiales. Por ejemplo, las imágenes 112 de realidad aumentada o virtual pueden incluir salpicaduras de insectos, daños por granizo y/o cubierta de polvo, lo que puede mejorar el realismo de la atracción emocionante 92.
La FIG. 6 ilustra una realización del sistema 10 de AR/VR en el que el pasajero 102 está utilizando simultáneamente tanto el dispositivo 14 de visualización portátil de la FIG. 1 como el dispositivo 80 de visualización fijo de la FIG. 5. Como se establece anteriormente, el dispositivo 14 de visualización portátil se puede utilizar junto con el dispositivo 80 de visualización fijo para mejorar la experiencia inmersiva de AR, VR y/o realidad mixta del pasajero 102. Por ejemplo, en una realización, el dispositivo 14 de visualización portátil se puede utilizar para mejorar el entorno físico 100 dentro de la cabina 84 mediante la superposición de características virtuales, tales como las imágenes 24 de realidad aumentada o virtual, sobre los ojos del pasajero 102. Como tal, el dispositivo 14 de visualización portátil puede crear el entorno surrealista 20 dentro de la cabina 84 del vehículo 86 de paseo de pasajeros. En una realización, las pantallas transparentes 82 pueden mejorar el entorno físico 100 exterior a la cabina 84 superponiendo características virtuales, tales como las imágenes 112 de realidad aumentada o virtual, sobre las líneas 110 de visión del pasajero 102. De esta manera, el pasajero 102 puede ver las imágenes 24 de realidad virtual o aumentada en el dispositivo 14 de visualización portátil y las imágenes 112 de realidad virtual o aumentada en las pantallas transparentes 82 del dispositivo 80 de visualización fijo simultáneamente o de manera coordinada. Alternativamente, el dispositivo 14 de visualización portátil puede crear el entorno surrealista 20 exterior a la cabina 84 del vehículo 86 de paseo de pasajeros. De esta manera, las pantallas transparentes 82 pueden superponer características virtuales en un primer plano y el dispositivo 14 de visualización portátil puede aumentar los detalles en un fondo.
En una realización, las pantallas transparentes 82 pueden mostrar medios, tales como grietas 128 en el vidrio, daños 130 y/o condensación 132, que parecen afectar el exterior del vehículo 86 de paseo de pasajeros. En una realización, el dispositivo 14 de visualización portátil puede, además, generar la ilusión de medios (p. ej., tales como humedad o condensación 132) que entran a la cabina 84 del vehículo 86 de paseo de pasajeros. Esto puede crear múltiples capas de características virtuales dentro de la experiencia de AR, experiencia de VR, experiencia de realidad mixta, experiencia de realidad mediada por ordenador, o de una combinación de las mismas. Aunque solo se describen dos capas en la realización ilustrada, el sistema 10 de AR/VR puede estar configurado para generar 1,2, 3, 4 o más capas de características virtuales con las que el pasajero 102 puede interactuar. Por ejemplo, múltiples pantallas transparentes 82 pueden acoplarse a la cabina 84 del vehículo 86 de paseo de pasajeros en capas secuenciales (p. ej., apiladas entre sí), de tal manera que cada pantalla transparente 82 pueda generar una capa de características virtuales.
Por ejemplo, el pasajero 102 puede mirar a través de las gafas electrónicas 16 (FIG. 1) del dispositivo 14 de visualización portátil, que puede generar una primera capa de características virtuales (p. ej., las imágenes 24 de realidad virtual o aumentada). El pasajero 102 puede ver además las pantallas transparentes 82 del dispositivo 80 de visualización fijo (p. ej., a través de las gafas electrónicas 16 del dispositivo 14 de visualización portátil), que pueden crear una segunda capa de características virtuales (p. ej., las imágenes 112 de realidad aumentada o virtual). El sistema 10 de AR/VR puede estar configurado para generar la primera capa de características virtuales, la segunda capa de características virtuales, una capa adicional de características virtuales o cualquier combinación de las mismas para crear la experiencia de AR, VR y/o realidad mixta para el pasajero 102.
Como tal, en una realización, el sistema 10 de AR/VR puede alterar el entorno físico circundante 100 (p. ej., el parque 90 de atracciones) percibido por el pasajero 102 a través de imágenes 112 de realidad aumentada o virtual generadas por el dispositivo 80 de visualización fijo y el sistema 10 de AR /VR puede crear el entorno surrealista 20 dentro de la cabina 84 mediante la utilización del dispositivo 14 de visualización portátil. En una realización, el dispositivo 14 de visualización portátil puede alterar además el entorno físico circundante 100 en combinación con, o en lugar de, las pantallas transparentes 82.
Las imágenes 24 y/o 112 de realidad aumentada o virtual del dispositivo 14 de visualización portátil y del dispositivo 80 de visualización fijo, respectivamente, pueden ser sincronizadas y/o coordinadas por el procesador 26 (FIG. 1) del dispositivo 14 de visualización portátil, el procesador 44 (FIG. 1) del sistema 40 de generación de gráficos por ordenador, el procesador 118 del dispositivo 80 de visualización fijo, un procesador externo adicional (p. ej., tal como en el sistema 126 de control de la atracción), o cualquier combinación de los mismos. La sincronización y/o la coordinación pueden implicar el ajuste del marco de referencia de las características virtuales en base a los datos de orientación, datos de posición, datos de punto de vista, datos de seguimiento de movimiento o datos adicionales recopilados por el sistema 10 de AR/VR.
Los procesadores 26, 44, 118, o cualquier combinación de los mismos, pueden comunicarse a través de la red inalámbrica 42 y, además, pueden sincronizar y/o coordinar las imágenes 24 y/o 112 de realidad aumentada o virtual con los efectos de la atracción (p. ej., las figuras animatrónicas 97). En una realización, se puede utilizar un sistema de sincronización por ordenador separado (p. ej., el sistema 126 de control de la atracción) para sincronizar y/o coordinar las imágenes 24 y/o 112 de realidad aumentada o virtual y los efectos de paseo.
En una realización, el circuito 116 de procesamiento del dispositivo 80 de visualización fijo puede descargar una parte de la potencia de procesamiento que puede requerir el circuito 25 de procesamiento (FIG. 1) del dispositivo 14 de visualización portátil. El circuito 116 de procesamiento del dispositivo 80 de visualización fijo puede tener menos limitaciones espaciales que el circuito 25 de procesamiento del dispositivo 14 de visualización portátil. Esto puede permitir que el circuito 116 de procesamiento del dispositivo 80 de visualización fijo implemente un procesador 118 más grande y/o más potente. Como tal, las pantallas transparentes 82 pueden generar y mostrar la mayoría de las imágenes 112 de realidad aumentada o virtual requeridas durante la atracción emocionante 92, mientras que el dispositivo 14 de visualización portátil solo puede generar detalles más pequeños (p. ej., crear el entorno surrealista 20 dentro de la cabina 84).
Además, el dispositivo 80 de visualización fijo puede representar ciertas características virtuales de manera más eficiente que el dispositivo 14 de visualización portátil. Por ejemplo, puede ser deseable crear la ilusión de que la figura animatrónica 97 imparte una característica 136 (p. ej., perfora un orificio) sobre la ventana de la cabina 84 del vehículo 86 de paseo de pasajeros, como parte de un efecto especial de la atracción emocionante 92. En una realización, el dispositivo 80 de visualización fijo puede utilizarse para crear la ilusión de que la característica 136 se ha impartido sobre la ventana (p. ej., la pantalla transparente 82) de la cabina 84. Para que tales características 136 se proporcionen a través del dispositivo 14 de visualización portátil, el dispositivo 14 de visualización portátil puede necesitar tomar continuamente imágenes 22 del mundo real y/o actualizar la posición de la característica 136 en las gafas electrónicas 16, lo que puede requerir una potencia de procesamiento sustancial. Por ejemplo, para garantizar que la característica 136 permanezca estacionaria (p. ej., el orificio no se mueve con respecto a la ventana de la cabina 84) cuando cambia el punto de vista del pasajero 102 (p. ej., el pasajero 102 gira o se mueve con relación a la ventana), el dispositivo 14 de visualización portátil puede necesitar tomar continuamente imágenes 22 del mundo real y/o actualizar la posición de la característica 136 en las gafas electrónicas 16. En tales casos, proporcionar la característica 136 a través del dispositivo 80 de visualización fijo puede ser más eficiente.
En una realización, el sistema 10 de AR/VR puede, en su lugar, proporcionar la característica 136 en la pantalla transparente 82. En una realización, el sistema 10 de AR/VR puede utilizar las gafas electrónicas 16 para superponer imágenes 24 de realidad aumentada o virtual de detalles que pueden estar relacionado con la característica 136 (p. ej., un fragmento de vidrio que se origina en el orificio de la ventana), sobre los ojos del pasajero 102, de tal manera que los detalles pueden aparecer en una posición adecuada en relación con la característica 136. Como tal, en una realización, el dispositivo 14 de visualización portátil solo puede generar imágenes 24 de realidad virtual o aumentada más pequeñas (p. ej., detalles, tales como el fragmento de vidrio), mientras que el dispositivo 80 de visualización fijo puede generar la mayoría de las imágenes 112 de realidad aumentada o virtual, incluyendo las características que permanecen estacionarias con relación al vehículo 86 de paseo de pasajeros (p. ej., las características 136, tales como el orificio). En funcionamiento, el pasajero 102 puede ver el interior de la cabina 84 y la característica 136 generada por las pantallas transparentes 82 a través de las gafas electrónicas sustancialmente transparentes 16 (FIG.
1). Como tal, la posición de la característica 136 en relación con la ventana (p. ej., las pantallas transparentes 82) del vehículo 86 de paseo de pasajeros puede permanecer constante, independientemente de la orientación y/o el punto de vista del pasajero 102. Esto puede reducir sustancialmente la potencia de procesamiento requerida por el dispositivo 14 de visualización portátil en comparación con la utilización del dispositivo 14 de visualización portátil para generar características tales como la característica 136. Por lo tanto, la combinación del dispositivo 14 de visualización portátil y el dispositivo 80 de visualización fijo, y la coordinación de estos dispositivos 14, 80 por el sistema 10 de AR/VR, proporciona un sistema más dinámico y eficiente que supera los problemas con la utilización del dispositivo 14 de visualización portátil solo para crear la experiencia de AR, V r y/o de realidad mixta para el pasajero 102.
En una realización, las imágenes 24 de realidad aumentada o virtual generadas por el dispositivo 14 de visualización portátil y las imágenes 112 de realidad aumentada o virtual generadas por el dispositivo 80 de visualización fijo se sincronizan y/o coordinan a medida que el vehículo 86 de paseo de pasajeros atraviesa la atracción emocionante 92, de tal manera que las características virtuales experimentadas por el pasajero 102 pueden percibirse como más realistas que cuando se utiliza el dispositivo 14 de visualización portátil o el dispositivo 80 de visualización fijo solos. Por ejemplo, se puede incorporar una característica animada (p. ej., una explosión) como parte del tema de la atracción emocionante 92. La característica animada puede generarse primero mediante las pantallas transparentes 82 y superponerse sobre el entorno físico circundante 100 visto por el pasajero. 102. A continuación, las pantallas transparentes 82 pueden generar la ilusión de características, tales como la grieta 128 dentro de la ventana (p. ej., las pantallas transparentes 82), y pueden generar posteriormente la ilusión de que la ventana se rompe (p. ej., creando fragmentos de vidrio). A continuación, el dispositivo 14 de visualización portátil puede generar la ilusión de escombros (p. ej., los fragmentos de vidrio) que flotan a través de la cabina 84 del vehículo 86 de paseo de pasajeros. Como tal, el dispositivo 14 de visualización portátil y el dispositivo 80 de visualización fijo pueden crear la experiencia de realidad aumentada o virtual en múltiples capas para el pasajero 102.
La FIG. 7 ilustra un diagrama de flujo de una realización de un proceso 140 para proporcionar mejoras de AR/VR a los visitantes del parque de atracciones (p. ej., el pasajero 102). El proceso 140 puede ser útil para crear la experiencia de AR, la experiencia de VR y/o la experiencia de realidad mixta durante una experiencia en un parque de atracciones, tal como la atracción emocionante 92. El proceso 140 puede ser representativo del código iniciado o las instrucciones almacenadas en un medio no transitorio legible por ordenador (p. ej., la memoria 28, 46, 120) y ejecutado, por ejemplo, por el procesador 26 del dispositivo 14 de visualización portátil, el procesador 44 del sistema 40 de generación de gráficos por ordenador y/o el procesador 118 del dispositivo 80 de visualización fijo. Los procesadores 26, 44 y/o 118 pueden acoplarse comunicativamente a través de una red, tal como la red inalámbrica 42, para recibir y enviar las instrucciones que se describen a continuación.
El proceso 140 puede comenzar con el bloque 142, generando mejoras de AR/VR (p. ej., características virtuales), tales como las imágenes 24, 112 de realidad aumentada o virtual. Las mejoras de AR/VR pueden ser proporcionadas por el dispositivo 14 de visualización portátil, el dispositivo 80 de visualización fijo, un dispositivo de visualización adicional, o cualquier combinación de los mismos. Las mejoras de AR/VR pueden ser generadas por el circuito 25 de procesamiento del dispositivo 14 de visualización portátil, el sistema 40 de generación de gráficos por ordenador, el circuito 116 de procesamiento del dispositivo 80 de visualización fijo o cualquier combinación de los mismos.
En una realización, el dispositivo 14 de visualización portátil puede incluir superficies de visualización transparentes o semitransparentes (p. ej., las pantallas 30, 32) y proyectar imágenes 24 de realidad aumentada o virtual en los ojos del pasajero 102. Además, o alternativamente, como se discute en con mayor detalle a continuación, los dispositivos 80 de visualización fijos también pueden estar configurados para incluir superficies de visualización transparentes o semitransparentes (p. ej., las pantallas transparentes 82) que muestran las imágenes 112 de realidad aumentada o virtual en las líneas 110 de visión del pasajero 102. Por ejemplo, las imágenes 112 de realidad aumentada o virtual pueden ocluir una parte de las líneas 110 de visión del pasajero 102 (p. ej., el pasajero 102 aún puede ver partes del entorno físico 100 a través de las pantallas transparentes 82), creando la ilusión de que las imágenes 112 de realidad aumentada o virtual forman parte del entorno físico 100.
Volviendo ahora al bloque 144, el proceso 140 puede incluir una etapa, o una serie de etapas, en las que el dispositivo 14 de visualización portátil puede superponer o sobreponer (p. ej., a través de las pantallas 30, 32) una o más imágenes 24 de realidad aumentada o virtual sobre el entorno físico 100 para generar la primera capa de características virtuales para ser vistas por el pasajero 102. Por ejemplo, los procesadores 26, 44, 118 pueden superponer o sobreponer las imágenes 24 de realidad aumentada o virtual sobre las superficies de visualización transparentes o semitransparentes (p. ej., las pantallas 30, 32) a través de las cuales el pasajero 102 puede ver el entorno físico 100, generando así la primera capa de características virtuales. En una realización, el pasajero 102 puede ver el entorno físico 100 a través de partes transparentes de las pantallas 30, 32, mientras que el dispositivo 14 de visualización portátil puede ocluir solo una parte de las pantallas 30, 32 con las imágenes 24 de realidad aumentada o virtual. En una realización, los procesadores 26, 44, 118 pueden generar y/o superponer imágenes de realidad aumentada o virtual sobre el flujo de datos de video de las imágenes 22 del mundo real (p. ej., instalaciones 94, entorno físico 100) utilizando una o más técnicas de fusión de video y/o de fusión óptica.
Volviendo ahora al bloque 146, el proceso 140 puede incluir una etapa, o una serie de etapas, en las que el dispositivo 80 de visualización fijo puede superponer o sobreponer (p. ej., a través de las pantallas transparentes 82) una o más imágenes 112 de realidad aumentada o virtual sobre el entorno físico 100 para generar la segunda capa de características virtuales para ser vistas por el pasajero 102. Por ejemplo, los procesadores 26, 44, 118 pueden superponer o sobreponer las imágenes 112 de realidad aumentada o virtual sobre las superficies de visualización transparentes o semitransparentes. (p. ej., las pantallas transparentes 82) a través de las cuales el pasajero 102 puede ver el entorno físico 100, generando así la segunda capa de características virtuales. En una realización, el pasajero 102 puede ver el entorno físico 100 a través de la pantalla transparente 82, mientras que el dispositivo 80 de visualización fijo solo puede ocluir una parte de la pantalla transparente 82 con las imágenes 112 de realidad aumentada o virtual. En una realización, los procesadores 26, 44, 118 puede generar y superponer imágenes 112 de realidad aumentada o virtual sobre el flujo de datos de video de las imágenes 121 del mundo real (p. ej., instalaciones 94, entorno físico 100) utilizando una o más técnicas de fusión de video y/o de fusión óptica. En cualquier caso, el dispositivo 14 de visualización portátil puede generar la primera capa de características virtuales (p. ej., a través de las imágenes 24 de realidad aumentada o virtual) y el dispositivo 80 de visualización fijo puede generar la segunda capa de características virtuales (p. ej., a través de las imágenes 112 de realidad aumentada o virtual). Además o de otro modo, el sistema 10 de AR/VR puede estar configurado para generar 1, 2, 3, 4 o más capas de características virtuales.
Volviendo ahora al bloque 148, el proceso 140 también puede incluir la coordinación de la visualización de la primera capa de características virtuales y la segunda capa de características virtuales. La primera capa de características virtuales y la segunda capa de características virtuales pueden sincronizarse y/o coordinarse mediante los procesadores 26, 44 y/o 118 para mejorar la experiencia inmersiva y el realismo de los efectos virtuales percibidos por el pasajero 102 de la atracción emocionante 92. En una realización, los datos de imagen de cámaras distintas de las ubicadas en el dispositivo 14 de visualización portátil o el vehículo 86 de paseo de pasajeros pueden servir para facilitar la sincronización y/o coordinación entre la primera capa de características virtuales y la segunda capa de características virtuales. Tal sincronización y/o coordinación puede ser útil para la triangulación de la posición del pasajero 102 en base a la posición conocida de ciertas características fijas (p. ej., ciertas ubicaciones de atracciones), para la sincronización de ciertos efectos especiales (p. ej., fuegos artificiales o explosiones reales, aumentados o simulados), y otros efectos descritos a continuación.
En una realización, los procesadores 26, 44, 118 pueden recibir y analizar datos capturados en tiempo real, tales como datos de imagen, datos de posición y/o entradas de otros dispositivos electrónicos. Por ejemplo, con respecto a los datos de imagen, los procesadores 26, 44, 118 pueden recibir datos de video en tiempo real (p. ej., video en vivo) capturados a través de las cámaras 34, 36, 122 del dispositivo 14 de visualización portátil y/o del vehículo 86 de paseo de pasajeros. En una realización, el vídeo se puede utilizar para la generación de imágenes 22 y 121 del mundo real que se pueden mostrar en las gafas electrónicas 16 o en las pantallas transparentes 82, respectivamente. Por ejemplo, los procesadores 26, 44, 118 pueden generar un flujo de datos de video del entorno físico 100 (p. ej., una región del parque 90 de atracciones) para mostrarse en las pantallas 30, 32 del dispositivo 14 de visualización portátil y/o las pantallas transparentes 82 del dispositivo 80 de visualización fijo.
En una realización, los procesadores 26, 44, 118 pueden generar la primera capa de características virtuales y la segunda capa de características virtuales en base a uno cualquiera o en una combinación de factores. Tales factores pueden incluir la posición o ubicación del vehículo 86 de paseo de pasajeros a lo largo de las pistas 98 (p. ej., u otra ubicación cuando las pistas 98 no están presentes) en cualquier momento dado durante un ciclo de la atracción emocionante 92, una distancia predeterminada recorrida por el vehículo 86 de paseo de pasajeros durante un ciclo de la atracción emocionante 92, después de un lapso de tiempo predeterminado, o después de que el pasajero 102 del vehículo 86 de paseo de pasajeros haya realizado una o más acciones.
En otras realizaciones, el dispositivo 14 de visualización portátil, el sistema 40 de generación de gráficos por ordenador y/o el dispositivo 80 de visualización fijo pueden realizar uno o más algoritmos de reconocimiento geométrico o fotométrico en los datos de video o imagen capturados a través de las cámaras 34, 36, 122. para determinar los puntos de ubicación del pasajero 102 y/o el vehículo 86 de paseo de pasajeros. El dispositivo 14 de visualización portátil, el sistema 40 de generación de gráficos por ordenador y/o el dispositivo 80 de visualización fijo también pueden utilizar estos datos para controlar la sincronización de las imágenes 24, 112 de realidad aumentada o virtual con respecto al efecto de paseo (p. ej., las figuras animatrónicas 97) para sincronizar y/o coordinar la primera capa de características virtuales y la segunda capa de características virtuales con el efecto de paseo.
Si bien ciertas realizaciones se relacionan con la utilización del dispositivo 14 de visualización portátil y/o el dispositivo 80 de visualización fijo en el contexto de la atracción emocionante 92, debería apreciarse que el sistema 10 de AR/VR se puede utilizar fuera de la atracción emocionante 92 y en cualquiera de una variedad de entornos. Por ejemplo, las pantallas transparentes 82 pueden acoplarse a una pared para mostrar las ventanas de una habitación, y el usuario 12 (p. ej., el pasajero 102) puede utilizar gafas electrónicas 16 mientras el usuario 12 se sienta y/o atraviesa la habitación para proporcionar una experiencia inmersiva de la manera descrita en la presente memoria.

Claims (15)

REIVINDICACIONES
1. Un sistema para proporcionar una experiencia de realidad aumentada, realidad virtual y/o realidad mixta a un usuario, en donde el usuario ve un entorno del mundo real a través de una primera pantalla (16) y una segunda pantalla (82), comprendiendo el sistema:
un dispositivo (14) de visualización portátil que comprende la primera pantalla (16), en donde la primera pantalla (16) está configurada para mostrar una primera capa de características virtuales;
un dispositivo (80) de visualización fijo que comprende la segunda pantalla (82), en donde la segunda pantalla (82) está configurada para mostrar una segunda capa de características virtuales; y
un procesador (26) configurado para generar la primera capa de características virtuales y la segunda capa de características virtuales, y en donde el procesador (26) está configurado para comunicarse operativamente con el dispositivo (14) de visualización portátil y el dispositivo (80) de visualización fijo a través de características (38) de comunicación del sistema para coordinar temporal y espacialmente la presentación de la primera capa de características virtuales y la segunda capa de características virtuales.
2. El sistema de la reivindicación 1, en donde la primera pantalla (16) es una pantalla transparente o semitransparente y está configurada para permitir que el usuario, cuando utiliza el dispositivo (14) de visualización portátil, vea la segunda pantalla (82) a través de la primera pantalla (16).
3. El sistema de la reivindicación 2, que comprende además un vehículo (86) de paseo de pasajeros configurado para atravesar un trayecto durante un paseo en un parque de atracciones y en donde la segunda pantalla (82) es una pantalla transparente o sustancialmente transparente y está configurada además para ser opaca cuando es energizada, proporcionando de este modo la ilusión de que una cabina del vehículo (86) de paseo de pasajeros está encerrada por paredes macizas.
4. El sistema de la reivindicación 1, en donde la segunda pantalla (82) comprende una pantalla transparente de diodo emisor de luz o una pantalla transparente de diodo emisor de luz orgánico.
5. El sistema de la reivindicación 1, que comprende además un vehículo (86) de paseo de pasajeros configurado para atravesar un trayecto durante un paseo en un parque de atracciones y en donde la segunda pantalla (82) está acoplada al vehículo (86) de paseo de pasajeros.
6. El sistema de la reivindicación 1, en donde el procesador (26) está configurado para coordinar temporal y espacialmente la presentación de la primera capa de características virtuales y la segunda capa de características virtuales con un elemento asociado con una atracción en un parque de atracciones.
7. El sistema de la reivindicación 5, en donde la primera capa de características virtuales comprende una imagen virtual de un objeto dentro de una cabina del vehículo (86) de paseo de pasajeros, y la segunda capa de características virtuales comprende una imagen virtual de una característica en una ventana del vehículo (86) de paseo de pasajeros.
8. El sistema de la reivindicación 5, en donde la primera capa de características virtuales comprende una imagen virtual de un objeto externo a una cabina del vehículo (86) de paseo de pasajeros.
9. El sistema de la reivindicación 1, que comprende una o más cámaras (34, 36) o sensores (124) configurados para monitorizar el entorno del mundo real para facilitar la coordinación de la presentación de la primera capa de características virtuales y la segunda capa de características virtuales.
10. El sistema de la reivindicación 5, en donde el procesador (26) está configurado para coordinar temporalmente la presentación de la primera y segunda capas de características virtuales con efectos de atracción durante el paseo indicando al dispositivo de visualización portátil (14) y fijo (80) que superponga la primera y segunda capas de características virtuales en un tiempo predeterminado.
11. El sistema de la reivindicación 5, en donde la segunda pantalla (82) es transparente o sustancialmente transparente y en donde la segunda capa de características virtuales comprende grietas, condensación, carbonización, gotas de lluvia, nieve o una combinación de los mismos.
12. Un método para proporcionar una experiencia de realidad aumentada, realidad virtual y/o realidad mixta a un usuario, comprendiendo el método:
generar, utilizando un procesador (26), una primera capa de características virtuales y una segunda capa de características virtuales;
mostrar en un primer tiempo de visualización, en respuesta a las instrucciones del procesador (26), la primera capa de características virtuales en una primera pantalla (16), donde la primera pantalla (16) está dispuesta dentro de un dispositivo (14) de visualización portátil; y
mostrar en un segundo tiempo de visualización, en respuesta a las instrucciones del procesador (26), la segunda capa de características virtuales en una segunda pantalla (82), en donde la segunda pantalla (82) está dispuesta dentro de un dispositivo (80) de visualización fijo que está físicamente separado del dispositivo (14) de visualización portátil; y
en donde el primer tiempo de visualización y el segundo tiempo de visualización dan como resultado una muestra coordinada temporal y espacialmente de la primera capa de características virtuales y la segunda capa de características virtuales.
13. El método de la reivindicación 12, en donde la segunda pantalla (82) comprende una pantalla transparente acoplada a un vehículo (86) de paseo de pasajeros.
14. El método de la reivindicación 12, en donde el primer tiempo de visualización y el segundo tiempo de visualización dan como resultado una visualización coordinada de la primera capa de características virtuales y la segunda capa de características virtuales con un efecto de atracción de un parque de atracciones.
15. El método de la reivindicación 12, que comprende recibir, en el procesador (26), señales indicativas de un entorno del mundo real desde una o más cámaras o sensores, en donde el procesador (26) utiliza las señales recibidas para determinar el primer tiempo de visualización y el segundo tiempo de visualización para facilitar la coordinación de la presentación de la primera capa de características virtuales y la segunda capa de características virtuales con elementos en el entorno del mundo real.
ES18713457T 2017-03-06 2018-03-05 Sistemas y métodos para características virtuales en capas en un entorno de parque de atracciones Active ES2951475T3 (es)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201762467817P 2017-03-06 2017-03-06
US15/786,359 US12153723B2 (en) 2017-03-06 2017-10-17 Systems and methods for layered virtual features in an amusement park environment
PCT/US2018/020949 WO2018165039A1 (en) 2017-03-06 2018-03-05 Systems and methods for layered virtual features in an amusement park environment

Publications (1)

Publication Number Publication Date
ES2951475T3 true ES2951475T3 (es) 2023-10-23

Family

ID=63355058

Family Applications (4)

Application Number Title Priority Date Filing Date
ES18713457T Active ES2951475T3 (es) 2017-03-06 2018-03-05 Sistemas y métodos para características virtuales en capas en un entorno de parque de atracciones
ES18713458T Active ES2993944T3 (en) 2017-03-06 2018-03-05 Mixed reality viewer system and method
ES18713478T Active ES2965043T3 (es) 2017-03-06 2018-03-06 Sistema y método de paseo aumentado
ES18713479T Active ES2974886T3 (es) 2017-03-06 2018-03-06 Sistemas y métodos de vehículos de paseo de juego

Family Applications After (3)

Application Number Title Priority Date Filing Date
ES18713458T Active ES2993944T3 (en) 2017-03-06 2018-03-05 Mixed reality viewer system and method
ES18713478T Active ES2965043T3 (es) 2017-03-06 2018-03-06 Sistema y método de paseo aumentado
ES18713479T Active ES2974886T3 (es) 2017-03-06 2018-03-06 Sistemas y métodos de vehículos de paseo de juego

Country Status (11)

Country Link
US (5) US12153723B2 (es)
EP (4) EP3592444B1 (es)
JP (5) JP7257960B2 (es)
KR (6) KR20190123314A (es)
CN (5) CN110352085B (es)
CA (2) CA3054333A1 (es)
ES (4) ES2951475T3 (es)
MY (3) MY200651A (es)
RU (4) RU2771098C2 (es)
SG (4) SG11201907293SA (es)
WO (4) WO2018165041A1 (es)

Families Citing this family (154)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11960637B2 (en) 2013-11-11 2024-04-16 Whitewater West Ltd. Interactive amusement attraction system
US11487349B2 (en) * 2013-11-11 2022-11-01 Whitewater West Industries, Ltd. Interactive amusement attraction system and method
EP3062142B1 (en) 2015-02-26 2018-10-03 Nokia Technologies OY Apparatus for a near-eye display
DE112016007015T5 (de) * 2016-07-29 2019-03-21 Mitsubishi Electric Corporation Anzeigevorrichtung, anzeigesteuervorrichtung und anzeigesteuerverfahren
US10650552B2 (en) 2016-12-29 2020-05-12 Magic Leap, Inc. Systems and methods for augmented reality
EP3343267B1 (en) 2016-12-30 2024-01-24 Magic Leap, Inc. Polychromatic light out-coupling apparatus, near-eye displays comprising the same, and method of out-coupling polychromatic light
US12153723B2 (en) 2017-03-06 2024-11-26 Universal City Studios Llc Systems and methods for layered virtual features in an amusement park environment
US10977858B2 (en) 2017-03-30 2021-04-13 Magic Leap, Inc. Centralized rendering
US10639557B2 (en) * 2017-06-22 2020-05-05 Jntvr Llc Synchronized motion simulation for virtual reality
US11118930B2 (en) * 2017-07-14 2021-09-14 Lyft, Inc. Providing information to users of a transportation system using augmented reality elements
US10578870B2 (en) 2017-07-26 2020-03-03 Magic Leap, Inc. Exit pupil expander
US10362299B1 (en) * 2017-08-28 2019-07-23 Disney Enterprises, Inc. System for introducing physical experiences into virtual reality (VR) worlds
US10675766B1 (en) 2017-08-28 2020-06-09 Disney Enterprises, Inc. System for introducing physical experiences into virtual reality (VR) worlds
US11389719B2 (en) * 2017-11-10 2022-07-19 Whitewater West Industries Ltd. Water ride attraction incorporating interactive game play
AU2018379105B2 (en) 2017-12-10 2023-12-21 Magic Leap, Inc. Anti-reflective coatings on optical waveguides
WO2019126331A1 (en) 2017-12-20 2019-06-27 Magic Leap, Inc. Insert for augmented reality viewing device
US10695682B1 (en) * 2017-12-27 2020-06-30 Disney Enterprises Inc. Automated dynamic adaptive controls
US11113887B2 (en) * 2018-01-08 2021-09-07 Verizon Patent And Licensing Inc Generating three-dimensional content from two-dimensional images
US10369483B1 (en) 2018-01-23 2019-08-06 Universal City Studios Llc Interactive tower attraction systems and methods
US10398989B2 (en) 2018-01-29 2019-09-03 Universal City Studios Llc Ride with rotating lift
US10755676B2 (en) 2018-03-15 2020-08-25 Magic Leap, Inc. Image correction due to deformation of components of a viewing device
JP7650662B2 (ja) 2018-05-30 2025-03-25 マジック リープ, インコーポレイテッド 小型の可変焦点構成
WO2019228468A1 (en) 2018-05-30 2019-12-05 Ke.Com (Beijing) Technology Co., Ltd. Systems and methods for providing an audio-guided virtual reality tour
WO2019231850A1 (en) 2018-05-31 2019-12-05 Magic Leap, Inc. Radar head pose localization
JP7369147B2 (ja) 2018-06-05 2023-10-25 マジック リープ, インコーポレイテッド 視認システムのホモグラフィ変換行列ベースの温度較正
EP3803545B1 (en) 2018-06-08 2025-02-26 Magic Leap, Inc. Augmented reality viewer with automated surface selection placement and content orientation placement
US20190385372A1 (en) * 2018-06-15 2019-12-19 Microsoft Technology Licensing, Llc Positioning a virtual reality passthrough region at a known distance
US11579441B2 (en) 2018-07-02 2023-02-14 Magic Leap, Inc. Pixel intensity modulation using modifying gain values
US11510027B2 (en) 2018-07-03 2022-11-22 Magic Leap, Inc. Systems and methods for virtual and augmented reality
US11856479B2 (en) 2018-07-03 2023-12-26 Magic Leap, Inc. Systems and methods for virtual and augmented reality along a route with markers
CN112585581B (zh) 2018-07-10 2024-10-18 奇跃公司 用于跨指令集架构过程调用的线程编织
CN112639731A (zh) 2018-07-24 2021-04-09 奇跃公司 应用共享
JP7426982B2 (ja) 2018-07-24 2024-02-02 マジック リープ, インコーポレイテッド 移動検出デバイスの温度依存較正
WO2020023543A1 (en) 2018-07-24 2020-01-30 Magic Leap, Inc. Viewing device with dust seal integration
EP4650919A3 (en) 2018-08-02 2026-01-21 Magic Leap, Inc. A viewing system with interpupillary distance compensation based on head motion
WO2020028191A1 (en) 2018-08-03 2020-02-06 Magic Leap, Inc. Unfused pose-based drift correction of a fused pose of a totem in a user interaction system
DE102018213556A1 (de) * 2018-08-10 2020-02-13 Audi Ag Verfahren und System zum Betreiben von zumindest zwei von jeweiligen Fahrzeuginsassen am Kopf getragenen Anzeigeeinrichtungen
US12016719B2 (en) 2018-08-22 2024-06-25 Magic Leap, Inc. Patient viewing system
US11583781B2 (en) * 2018-09-17 2023-02-21 Universal City Studios Llc Systems and methods for actuating a show element on a ride vehicle
US10636218B2 (en) * 2018-09-24 2020-04-28 Universal City Studios Llc Augmented reality for an amusement ride
US11562539B2 (en) 2018-09-25 2023-01-24 Universal City Studios Llc Modular augmented and virtual reality ride attraction
US11212331B1 (en) 2018-10-26 2021-12-28 Snap Inc. Triggering changes to real-time special effects included in a live streaming video
CN117111304A (zh) 2018-11-16 2023-11-24 奇跃公司 用于保持图像清晰度的图像尺寸触发的澄清
KR102203371B1 (ko) * 2018-11-30 2021-01-15 삼성물산 주식회사 놀이공원에서 놀이기구를 가동하는 동안 이미지를 시각화하는 장치, 방법 및 이미지 시각화 장치를 관리하는 장치 및 방법
CN109725717A (zh) * 2018-11-30 2019-05-07 成都理想境界科技有限公司 应用于ar设备的图像处理方法及ar设备
US10692294B1 (en) * 2018-12-17 2020-06-23 Universal City Studios Llc Systems and methods for mediated augmented physical interaction
CN118409394A (zh) 2018-12-21 2024-07-30 奇跃公司 用于促进波导内的全内反射的气穴结构
US11340758B1 (en) * 2018-12-27 2022-05-24 Meta Platforms, Inc. Systems and methods for distributing content
US11318607B2 (en) * 2019-01-04 2022-05-03 Universal City Studios Llc Extended reality ride test assembly for amusement park system
US10839607B2 (en) * 2019-01-07 2020-11-17 Disney Enterprises, Inc. Systems and methods to provide views of a virtual space
US10780359B2 (en) 2019-01-08 2020-09-22 Universal City Studios Llc Systems and methods for a connected augmented environment
US11210772B2 (en) * 2019-01-11 2021-12-28 Universal City Studios Llc Wearable visualization device systems and methods
US10807531B2 (en) 2019-01-14 2020-10-20 Universal City Studios Llc Augmented reality system for an amusement ride
CN119200808A (zh) 2019-02-06 2024-12-27 奇跃公司 基于目标意图的时钟速度确定和调整
EP3939030B1 (en) 2019-03-12 2025-10-29 Magic Leap, Inc. Registration of local content between first and second augmented reality viewers
KR102424311B1 (ko) * 2019-03-27 2022-07-22 다보(주) 모바일 기기가 구비된 망원경형 증강현실 관람장치
US10816813B1 (en) * 2019-04-05 2020-10-27 Disney Enterprises, Inc. Systems and methods for enhancing accuracy of spatial location and rotational orientation determination of wearable head-mounted display device
CN110013668B (zh) * 2019-04-24 2020-09-11 重庆城市管理职业学院 基于vr技术的模拟飞行体验娱乐设施热力转盘
US11445232B2 (en) 2019-05-01 2022-09-13 Magic Leap, Inc. Content provisioning system and method
GB201906340D0 (en) * 2019-05-04 2019-06-19 Studio Go Go Ltd A method and system for providing a virtual reality experience
US11483486B1 (en) * 2019-05-23 2022-10-25 Disney Enterprises, Inc. Virtual experience imaging products
US11391257B2 (en) * 2019-07-23 2022-07-19 Ford Global Technologies, Llc Power supply during vehicle startup
US11529886B2 (en) 2019-07-23 2022-12-20 Ford Global Technologies, Llc Power supply during vehicle off state
US11514673B2 (en) 2019-07-26 2022-11-29 Magic Leap, Inc. Systems and methods for augmented reality
KR102784317B1 (ko) 2019-07-30 2025-03-24 삼성디스플레이 주식회사 표시장치
GB2586148A (en) * 2019-08-07 2021-02-10 Sony Interactive Entertainment Inc Content generation system and method
US11481980B2 (en) * 2019-08-20 2022-10-25 The Calany Holding S.Á´ R.L. Transitioning from public to personal digital reality experience
US10976818B2 (en) * 2019-08-21 2021-04-13 Universal City Studios Llc Interactive attraction system and method for object and user association
US11442533B2 (en) * 2019-09-13 2022-09-13 iPMachine, LLC System for mixed reality experiences
KR102324845B1 (ko) * 2019-10-02 2021-11-11 (주)케이시크 사용자 게임 연계 자율주행 방법 및 시스템
US11861802B2 (en) 2019-11-11 2024-01-02 Spin Master Ltd. Augmented reality system
US11377039B2 (en) * 2019-11-13 2022-07-05 Universal City Studios Llc Systems and methods to hold and charge a personal electronic device on a ride vehicle
US11830460B2 (en) * 2019-11-14 2023-11-28 Magic Leap, Inc. Systems and methods for virtual and augmented reality
EP4058936A4 (en) 2019-11-14 2023-05-03 Magic Leap, Inc. SYSTEMS AND PROCESSES FOR VIRTUAL AND AUGMENTED REALITY
CN114667538A (zh) 2019-11-15 2022-06-24 奇跃公司 用于在外科手术环境中使用的观看系统
JP6901541B2 (ja) * 2019-11-28 2021-07-14 株式会社カプコン ゲームプログラム、コンピュータ、及びゲームシステム
US11145117B2 (en) 2019-12-02 2021-10-12 At&T Intellectual Property I, L.P. System and method for preserving a configurable augmented reality experience
KR102307463B1 (ko) 2020-02-05 2021-09-29 이근호 사파리 투어 시스템 및 그 시스템의 구동방법
US11335070B2 (en) 2020-02-10 2022-05-17 Magic Leap, Inc. Dynamic colocation of virtual content
JP7539478B2 (ja) 2020-02-14 2024-08-23 マジック リープ, インコーポレイテッド セッションマネージャ
CN115516364B (zh) * 2020-02-14 2024-04-26 奇跃公司 工具桥
CN115398316B (zh) 2020-02-14 2025-08-26 奇跃公司 3d对象注释
US11474602B2 (en) * 2020-02-26 2022-10-18 Disney Enterprises, Inc. Gameplay system with play augmented by merchandise
US12229800B2 (en) * 2020-02-27 2025-02-18 Universal City Studios Llc Augmented reality guest recognition systems and methods
US11207606B2 (en) * 2020-03-02 2021-12-28 Universal City Studios Llc Systems and methods for reactive projection-mapped show robot
JP2021140085A (ja) * 2020-03-06 2021-09-16 富士フイルムビジネスイノベーション株式会社 情報処理装置及びプログラム
US11196944B2 (en) * 2020-05-06 2021-12-07 At&T Intellectual Property I, L.P. System for infinite windows with optical disparity and depth resolution
CN113694531B (zh) * 2020-05-21 2024-01-19 抖音视界有限公司 游戏特效的生成方法、装置、电子设备及计算机可读介质
US12014733B2 (en) 2020-05-27 2024-06-18 Gentex Corporation Moment capturing system
WO2021247940A1 (en) * 2020-06-03 2021-12-09 Mr Fun, Llc Location based augmented reality gaming system
US11774770B2 (en) 2020-06-03 2023-10-03 Universal City Studios Llc Interface device with three-dimensional (3-D) viewing functionality
CN111694430A (zh) * 2020-06-10 2020-09-22 浙江商汤科技开发有限公司 一种ar场景画面呈现方法、装置、电子设备和存储介质
US11839829B2 (en) * 2020-06-11 2023-12-12 Universal City Studios Llc Wearable visualization device with a retractable cover
CN111603766B (zh) * 2020-06-29 2024-01-09 上海完美时空软件有限公司 虚拟载具的控制方法及装置、存储介质、电子装置
CN111857138A (zh) * 2020-07-03 2020-10-30 深圳怡丰自动化科技有限公司 载人自动导引车的控制方法及其应用以及相关装置
US12379604B2 (en) * 2020-07-24 2025-08-05 Universal City Studios Llc Electromagnetic coupling systems and methods for visualization device
CN112130660B (zh) * 2020-08-14 2024-03-15 青岛小鸟看看科技有限公司 一种基于虚拟现实一体机的交互方法和系统
US11964214B2 (en) * 2020-08-19 2024-04-23 Universal City Studios Llc Systems and methods for adjusting an operation of an attraction system
US11747894B2 (en) * 2020-09-11 2023-09-05 Universal City Studios Llc Systems and methods to facilitate guest control of a ride vehicle
US11561611B2 (en) 2020-10-29 2023-01-24 Micron Technology, Inc. Displaying augmented reality responsive to an input
KR102420089B1 (ko) * 2020-11-30 2022-07-13 방성환 이미지 인식 기반의 증강현실 컨텐츠 제공 장치 및 방법
JP7538025B2 (ja) 2020-12-17 2024-08-21 トヨタ自動車株式会社 移動体
WO2022200249A1 (de) * 2021-03-22 2022-09-29 Manfred Weigl Vorrichtung zur ansteuerung von aktuatoren
US12112415B2 (en) * 2021-04-09 2024-10-08 Universal City Studios Llc Systems and methods for animated figure display
US11865440B2 (en) * 2021-04-15 2024-01-09 Niantic, Inc. Augmented reality hat
DE102021111457A1 (de) * 2021-05-04 2022-11-10 Vr Coaster Gmbh & Co. Kg Verfahren zum Betreiben eines Fahrgeschäfts sowie Fahrgeschäft
US12309660B2 (en) * 2021-05-06 2025-05-20 Universal City Studios Llc Systems and methods for layered data reporting in an attraction
ES3045357T3 (en) * 2021-05-06 2025-11-28 Universal City Studios Llc Systems and methods for layered data reporting in an attraction
US12175560B2 (en) * 2021-05-10 2024-12-24 Cerence Operating Company Touring circuitry for an immersive tour through a touring theater
JP7216940B2 (ja) * 2021-06-02 2023-02-02 株式会社Nttコノキュー 通信システム、通信方法及び通信プログラム
JP7352598B2 (ja) * 2021-07-01 2023-09-28 本田技研工業株式会社 仮想体験提供システム、及びプログラム
JP7698998B2 (ja) * 2021-07-02 2025-06-26 株式会社ソニー・インタラクティブエンタテインメント 画像表示システムおよび画像表示方法
KR102662250B1 (ko) 2021-07-13 2024-04-30 주식회사 리모샷 Vr 콘텐츠 제공 장치
DE102021121045A1 (de) * 2021-08-12 2023-02-16 Mack Rides Ip Gmbh & Co. Kg Vergnügungs-Fahrgeschäft und Verfahren zum Betrieb eines Vergnügungs-Fahrgeschäfts
JP7423781B2 (ja) * 2021-08-18 2024-01-29 株式会社ハシラス Vrアミューズメントプログラムおよび装置
US20240399869A1 (en) * 2021-09-22 2024-12-05 Telefonaktiebolaget Lm Ericsson (Publ) Virtual reality game experience in self-driving vehicle
CN113908552A (zh) * 2021-09-29 2022-01-11 东北电力大学 一种虚拟现实结合的闯关式冰雪娱乐系统
US12337730B2 (en) * 2021-10-15 2025-06-24 Hyundai Mobis Co., Ltd. System for controlling vehicle based on occupant's intent
EP4180100A1 (en) * 2021-11-11 2023-05-17 Playoke GmbH System for providing a single- or multi- player game experience
WO2023107542A1 (en) * 2021-12-09 2023-06-15 Universal City Studios Llc Amusement content processing systems and methods
KR20240132349A (ko) * 2022-01-04 2024-09-03 유니버셜 시티 스튜디오스 엘엘씨 가상 현실 시스템 및 방법을 위한 얼굴 활동 검출
US12333640B2 (en) 2022-01-04 2025-06-17 Universal City Studios Llc Facial activity detection for virtual reality systems and methods
CN114460749A (zh) 2022-01-29 2022-05-10 杭州灵伴科技有限公司 头戴式显示装置和载人装置
WO2023192517A1 (en) * 2022-03-31 2023-10-05 Universal City Studios Llc Show effect system for amusement park attraction system
US12079384B2 (en) * 2022-04-21 2024-09-03 Universal City Studios Llc Artificial intelligence (AI)-assisted and dynamic ride profile head tracking systems and methods
JP2025514080A (ja) * 2022-04-21 2025-05-02 ユニバーサル シティ スタジオズ リミテッド ライアビリティ カンパニー 人工知能(ai)支援型動的乗り物プロファイル頭部追跡システム及び方法
JP7805864B2 (ja) * 2022-05-23 2026-01-26 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
USD1023209S1 (en) 2022-05-26 2024-04-16 Sally Industries, Inc. Indoor amusement ride
US20230415050A1 (en) * 2022-06-22 2023-12-28 Universal City Studios Llc Systems and methods for ride system audio and visual effect synchronization
CN119630460A (zh) * 2022-08-03 2025-03-14 环球城市电影有限责任公司 用于操作游乐园系统的系统和方法
USD1044805S1 (en) 2022-08-04 2024-10-01 Niantic, Inc. Augmented reality hat
US12505587B2 (en) 2022-08-15 2025-12-23 Universal City Studios Llc Show effect system for amusement park attraction system
JP2025527463A (ja) * 2022-08-15 2025-08-22 ユニバーサル シティ スタジオズ リミテッド ライアビリティ カンパニー 遊園地アトラクションシステムのためのショー効果システム
JP2024034143A (ja) * 2022-08-31 2024-03-13 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置および情報処理方法
CA3264701A1 (en) * 2022-09-06 2024-03-14 Universal City Studios Llc TANGIBLE/VIRTUAL DESIGN SYSTEMS AND METHODS FOR AMUSEMENT PARK ATTRACTION DESIGN
KR102826046B1 (ko) 2022-09-15 2025-06-26 배재대학교 산학협력단 가상 현실 기반 관광지 액티비티 체험 시스템
KR102823179B1 (ko) * 2022-10-05 2025-06-20 가온그룹 주식회사 Ar 및 vr 호환형 xr 디바이스 장치
US12518492B2 (en) 2022-10-12 2026-01-06 Samsung Electronics Co., Ltd. Method and system for handling events of a real environment in a virtual reality environment
US12217372B2 (en) 2022-10-17 2025-02-04 T-Mobile Usa, Inc. Generating mixed reality content based on data from a wireless device
CN116248851A (zh) * 2022-12-01 2023-06-09 四川智能小子科技有限公司 基于实体剧场场景的增强现实系统和增强现实播放方法
US12208782B2 (en) * 2022-12-08 2025-01-28 Disney Enterprises, Inc. Systems and methods for pre-calculating information regarding interactions between objects during a simulation
KR102852564B1 (ko) * 2022-12-27 2025-08-29 주식회사 셀코스 Ar 및 vr 겸용 헤드셋 장치 및 그 영상 제공 방법
CN115840552A (zh) * 2022-12-27 2023-03-24 维沃移动通信有限公司 显示方法、装置及第一电子设备
US20240331306A1 (en) * 2023-03-30 2024-10-03 Glenn Robert Josefosky Rotating display for 360-degree visual content
US12505522B2 (en) * 2023-09-18 2025-12-23 Universal City Studios Llc Image correction system and method
CA3218716A1 (en) * 2023-10-10 2025-06-13 KHE Limited Slide and ride system
US20250131661A1 (en) * 2023-10-19 2025-04-24 Zeality Inc. Method and system for rendering modified scene in an immersive environment
US12475644B2 (en) 2023-10-25 2025-11-18 International Business Machines Corporation Virtual holiday control
GB2635395A (en) * 2023-11-10 2025-05-14 Sony Interactive Entertainment Europe Ltd Computer implemented method and system
US20250162609A1 (en) * 2023-11-20 2025-05-22 Adeia Guides Inc. System and methods for providing immersive virtual content during a self-driving mode of an autonomous vehicle
US20250288915A1 (en) * 2024-03-18 2025-09-18 Universal City Studios Llc Spatial audio adjustment system for an amusement ride
CN118071968B (zh) * 2024-04-17 2024-06-25 深圳市赛野展览展示有限公司 一种基于ar技术的智能交互深展示方法及系统
US20250334604A1 (en) * 2024-04-25 2025-10-30 Universal City Studios Llc System and method of user affordance and actuation
US20260003195A1 (en) * 2024-06-26 2026-01-01 Universal City Studios Llc Variable curvature reflective lens for head-mounted device

Family Cites Families (201)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5790187U (es) 1980-11-20 1982-06-03
JPS5790187A (en) 1980-11-27 1982-06-04 Matsushita Electric Works Ltd Multiaction type electronic digital timer
WO1993016776A1 (en) 1992-02-24 1993-09-02 Hughes Aircraft Company Virtual image entertainment
JPH06176131A (ja) 1992-12-03 1994-06-24 Namco Ltd 画像合成装置及びこれを用いた仮想体験装置
JPH08160349A (ja) * 1994-12-09 1996-06-21 Sega Enterp Ltd 頭部搭載型映像表示システム、および、頭部搭載型映像表示装置
JP3491327B2 (ja) 1994-04-13 2004-01-26 株式会社セガ 遊戯装置
TW275590B (en) 1994-12-09 1996-05-11 Sega Enterprises Kk Head mounted display and system for use therefor
GB9506861D0 (en) 1995-04-03 1995-05-24 Zeneca Ltd Method of coating optical fibres
GB2301216A (en) 1995-05-25 1996-11-27 Philips Electronics Uk Ltd Display headset
US6227121B1 (en) 1995-11-03 2001-05-08 Metero Amusement Corporation Modularized amusement ride and training simulation device
US5716281A (en) * 1995-11-27 1998-02-10 Sega Enterprises, Ltd. Game apparatus using a vehicle with an optical image synthesizing system
JPH1015252A (ja) 1996-07-04 1998-01-20 Sega Enterp Ltd ゲームシステムおよびゲーム用車両
US5785592A (en) * 1996-08-12 1998-07-28 Sarcos, Inc. Interactive target game system
JP3651204B2 (ja) * 1996-12-18 2005-05-25 トヨタ自動車株式会社 立体画像表示装置、立体画像表示方法及び記録媒体
AU6021398A (en) 1997-01-16 1998-08-07 Orlo J. Fiske Amusement vehicle
JPH10309381A (ja) 1997-05-13 1998-11-24 Yoshimasa Tanaka 移動体用遊戯装置
US6220965B1 (en) 1998-07-08 2001-04-24 Universal City Studios Inc. Amusement system
JP2002532795A (ja) 1998-12-07 2002-10-02 ユニバーサル シティ スタジオズ インコーポレイテッド 視点画像ゆがみを補償するための画像補正方法
US6170402B1 (en) * 1999-04-21 2001-01-09 Universal City Studios, Inc. Roller coaster control system
JP2001062154A (ja) 1999-08-23 2001-03-13 Kazuo Sawatake 稼動式遊戯乗り物用視覚効果及び音響効果機能ヘルメット。
JP3273038B2 (ja) * 1999-11-17 2002-04-08 株式会社ナムコ 仮想体験型ゲーム装置
US6533670B1 (en) 2000-08-14 2003-03-18 Universal City Studio, Inc. Amusement ride with pivotable motion base
US6796908B2 (en) 2001-06-14 2004-09-28 Creative Kingdoms, Llc Interactive dark ride
JP4124995B2 (ja) 2001-10-31 2008-07-23 キヤノン株式会社 映像合成装置および情報処理方法
CA2479025A1 (en) 2002-03-22 2003-10-09 David V. Threlkel Amusement ride
US6917370B2 (en) 2002-05-13 2005-07-12 Charles Benton Interacting augmented reality and virtual reality
US7495638B2 (en) 2003-05-13 2009-02-24 Research Triangle Institute Visual display with increased field of view
JP4378118B2 (ja) 2003-06-27 2009-12-02 学校法人早稲田大学 立体映像呈示装置
RU2293587C2 (ru) 2003-08-06 2007-02-20 Владимир Алексеевич Гнездилов Аттракцион (варианты)
US20160098095A1 (en) 2004-01-30 2016-04-07 Electronic Scripting Products, Inc. Deriving Input from Six Degrees of Freedom Interfaces
JP2005312685A (ja) 2004-04-28 2005-11-10 Aruze Corp 遊技機
US8585476B2 (en) * 2004-11-16 2013-11-19 Jeffrey D Mullen Location-based games and augmented reality systems
JP4738870B2 (ja) 2005-04-08 2011-08-03 キヤノン株式会社 情報処理方法、情報処理装置および遠隔複合現実感共有装置
US20060250322A1 (en) 2005-05-09 2006-11-09 Optics 1, Inc. Dynamic vergence and focus control for head-mounted displays
US7955168B2 (en) 2005-06-24 2011-06-07 Disney Enterprises, Inc. Amusement ride and video game
JP2007052484A (ja) 2005-08-15 2007-03-01 Dainippon Printing Co Ltd 画像処理装置、画像処理方法及び画像処理用プログラム並びに情報記録媒体
US20070106484A1 (en) 2005-11-04 2007-05-10 Triverity Corporation Entertainment ride experience enhancement system
US8212859B2 (en) 2006-10-13 2012-07-03 Apple Inc. Peripheral treatment for head-mounted displays
ES2300204B1 (es) 2006-11-16 2009-05-01 The Movie Virtual, S.L. Sistema y metodo para la visualizacion de una imagen aumentada aplicando tecnicas de realidad aumentada.
FR2911463B1 (fr) * 2007-01-12 2009-10-30 Total Immersion Sa Dispositif d'observation de realite augmentee temps reel et procede de mise en oeuvre d'un dispositif
US20080188318A1 (en) 2007-02-01 2008-08-07 Piccionelli Gregory A Ride system with motion simulation and video stream
US8511827B2 (en) 2008-01-22 2013-08-20 The Arizona Board Of Regents On Behalf Of The University Of Arizona Head-mounted projection display using reflective microdisplays
US8025581B2 (en) 2008-05-09 2011-09-27 Disney Enterprises, Inc. Interactive interface mounting assembly for amusement and theme park rides
EP2443055A1 (en) * 2008-06-17 2012-04-25 Digigage Ltd. System for altering virtual views
EP2138213B1 (de) 2008-06-26 2012-01-18 Maurer Söhne GmbH & Co. KG Fahrgeschäft, insbesondere Achterbahn
US20100131865A1 (en) 2008-11-24 2010-05-27 Disney Enterprises, Inc. Method and system for providing a multi-mode interactive experience
US8303406B2 (en) 2008-11-24 2012-11-06 Disney Enterprises, Inc. System and method for providing an augmented reality experience
ES2612231T3 (es) 2008-12-29 2017-05-12 Red.Com, Inc. Cámara digital modular
US20110025584A1 (en) * 2009-07-29 2011-02-03 Gm Global Technology Operations, Inc. Light-emitting diode heads-up display for a vehicle
RU2433487C2 (ru) 2009-08-04 2011-11-10 Леонид Михайлович Файнштейн Способ проецирования изображения на поверхности реальных объектов
US20110141246A1 (en) 2009-12-15 2011-06-16 Justin Michael Schwartz System and Method for Producing Stereoscopic Images
US9901828B2 (en) 2010-03-30 2018-02-27 Sony Interactive Entertainment America Llc Method for an augmented reality character to maintain and exhibit awareness of an observer
US8941559B2 (en) 2010-09-21 2015-01-27 Microsoft Corporation Opacity filter for display device
US9122053B2 (en) 2010-10-15 2015-09-01 Microsoft Technology Licensing, Llc Realistic occlusion for a head mounted augmented reality display
US9292973B2 (en) 2010-11-08 2016-03-22 Microsoft Technology Licensing, Llc Automatic variable virtual focus for augmented reality displays
US8576276B2 (en) 2010-11-18 2013-11-05 Microsoft Corporation Head-mounted display device which provides surround video
JP2012141461A (ja) 2010-12-29 2012-07-26 Sony Corp ヘッド・マウント・ディスプレイ
JP5704931B2 (ja) 2011-01-18 2015-04-22 株式会社三共 遊技機
WO2012118507A1 (en) * 2011-03-03 2012-09-07 Research In Motion Limited Methods and apparatus to generate virtual-world environments
JP5790187B2 (ja) 2011-06-16 2015-10-07 ソニー株式会社 表示装置
WO2013000075A1 (en) 2011-06-29 2013-01-03 Recon Instruments Inc. Modular heads-up display systems
US8491403B2 (en) 2011-07-08 2013-07-23 Nathan Schreibfeder Amusement ride system
US8963957B2 (en) 2011-07-15 2015-02-24 Mark Skarulis Systems and methods for an augmented reality platform
AU2011204946C1 (en) 2011-07-22 2012-07-26 Microsoft Technology Licensing, Llc Automatic text scrolling on a head-mounted display
JP2013027479A (ja) 2011-07-27 2013-02-07 Kunio Goto 映像投影施設
US9352225B2 (en) * 2011-08-18 2016-05-31 Game Nation, Inc. System and method for providing a multi-player game experience
US9342610B2 (en) 2011-08-25 2016-05-17 Microsoft Technology Licensing, Llc Portals: registered objects as virtualized, personalized displays
US9285871B2 (en) 2011-09-30 2016-03-15 Microsoft Technology Licensing, Llc Personal audio/visual system for providing an adaptable augmented reality environment
EP3258671B1 (en) * 2011-10-28 2018-09-05 Magic Leap, Inc. System and method for augmented and virtual reality
WO2013076994A1 (ja) 2011-11-24 2013-05-30 パナソニック株式会社 頭部装着型ディスプレイ装置
US20130137076A1 (en) 2011-11-30 2013-05-30 Kathryn Stone Perez Head-mounted display based education and instruction
US20130141419A1 (en) 2011-12-01 2013-06-06 Brian Mount Augmented reality with realistic occlusion
US8705177B1 (en) 2011-12-05 2014-04-22 Google Inc. Integrated near-to-eye display module
CN102402005B (zh) 2011-12-06 2015-11-25 北京理工大学 自由曲面双焦面单目立体头盔显示器装置
US20150312561A1 (en) 2011-12-06 2015-10-29 Microsoft Technology Licensing, Llc Virtual 3d monitor
US9497501B2 (en) 2011-12-06 2016-11-15 Microsoft Technology Licensing, Llc Augmented reality virtual monitor
US20130032053A1 (en) 2012-01-09 2013-02-07 Daniel James Stoker Hybrid Motion Ride and Ride Simulator Vehicle
US9092953B1 (en) 2012-01-24 2015-07-28 Bruce J. P. Mortimer System and method for providing a remote haptic stimulus
US8727896B2 (en) 2012-03-14 2014-05-20 Anton Frolov Underground and underwater amusement attractions
US9183676B2 (en) * 2012-04-27 2015-11-10 Microsoft Technology Licensing, Llc Displaying a collision between real and virtual objects
US9210413B2 (en) 2012-05-15 2015-12-08 Imagine Mobile Augmented Reality Ltd System worn by a moving user for fully augmenting reality by anchoring virtual objects
US9253524B2 (en) 2012-07-20 2016-02-02 Intel Corporation Selective post-processing of decoded video frames based on focus point determination
US10073201B2 (en) 2012-10-26 2018-09-11 Qualcomm Incorporated See through near-eye display
US9619911B2 (en) 2012-11-13 2017-04-11 Qualcomm Incorporated Modifying virtual object display properties
US20140146394A1 (en) 2012-11-28 2014-05-29 Nigel David Tout Peripheral display for a near-eye display device
US9851787B2 (en) * 2012-11-29 2017-12-26 Microsoft Technology Licensing, Llc Display resource management
US8867139B2 (en) 2012-11-30 2014-10-21 Google Inc. Dual axis internal optical beam tilt for eyepiece of an HMD
CN105188516B (zh) * 2013-03-11 2017-12-22 奇跃公司 用于增强和虚拟现实的系统与方法
FR3004817B1 (fr) 2013-04-19 2015-05-15 Thales Sa Systeme de visualisation hybride affichant des informations en superposition sur l exterieur
US9582922B2 (en) 2013-05-17 2017-02-28 Nvidia Corporation System, method, and computer program product to produce images for a near-eye light field display
US9519144B2 (en) 2013-05-17 2016-12-13 Nvidia Corporation System, method, and computer program product to produce images for a near-eye light field display having a defect
US10137361B2 (en) 2013-06-07 2018-11-27 Sony Interactive Entertainment America Llc Systems and methods for using reduced hops to generate an augmented virtual reality scene within a head mounted system
US10905943B2 (en) 2013-06-07 2021-02-02 Sony Interactive Entertainment LLC Systems and methods for reducing hops associated with a head mounted system
US9908048B2 (en) 2013-06-08 2018-03-06 Sony Interactive Entertainment Inc. Systems and methods for transitioning between transparent mode and non-transparent mode in a head mounted display
EP3008549B1 (en) * 2013-06-09 2021-03-17 Sony Interactive Entertainment Inc. Head mounted display
US9874749B2 (en) 2013-11-27 2018-01-23 Magic Leap, Inc. Virtual and augmented reality systems and methods
US20150003819A1 (en) 2013-06-28 2015-01-01 Nathan Ackerman Camera auto-focus based on eye gaze
US9437131B2 (en) 2013-07-05 2016-09-06 Visteon Global Technologies, Inc. Driving a multi-layer transparent display
JP6237000B2 (ja) 2013-08-29 2017-11-29 セイコーエプソン株式会社 頭部装着型表示装置
CA2865343C (en) 2013-09-30 2018-03-13 Rick A. Briggs Interactive play center
US9715764B2 (en) * 2013-10-03 2017-07-25 Honda Motor Co., Ltd. System and method for dynamic in-vehicle virtual reality
US9630631B2 (en) 2013-10-03 2017-04-25 Honda Motor Co., Ltd. System and method for dynamic in-vehicle virtual reality
US9536353B2 (en) 2013-10-03 2017-01-03 Honda Motor Co., Ltd. System and method for dynamic in-vehicle virtual reality
WO2015051660A1 (zh) 2013-10-13 2015-04-16 北京蚁视科技有限公司 头戴式立体显示器
WO2015074086A2 (en) 2013-11-18 2015-05-21 Raven Sun Creative, Inc. Tower ride
US9463379B1 (en) * 2013-12-17 2016-10-11 Thinkwell Group Ride vehicle mounted interactive game system
US9569886B2 (en) 2013-12-19 2017-02-14 Intel Corporation Variable shading
US9494800B2 (en) 2014-01-21 2016-11-15 Osterhout Group, Inc. See-through computer display systems
AU2015210704B2 (en) * 2014-01-31 2019-05-30 Magic Leap, Inc. Multi-focal display system and method
US9389423B2 (en) 2014-03-11 2016-07-12 Google Inc. Head wearable display with adjustable transparency
US9511650B2 (en) 2014-03-30 2016-12-06 Bob Momot Adjustable opacity control based on operator and light source position
CN103977559B (zh) * 2014-05-23 2017-10-17 北京智谷睿拓技术服务有限公司 交互方法及交互装置
US9155971B1 (en) 2014-05-28 2015-10-13 Disney Enterprises, Inc. Selective illumination of physical scenery in amusement park rides
JP2015228050A (ja) 2014-05-30 2015-12-17 ソニー株式会社 情報処理装置および情報処理方法
US9360671B1 (en) 2014-06-09 2016-06-07 Google Inc. Systems and methods for image zoom
GB2527503A (en) 2014-06-17 2015-12-30 Next Logic Pty Ltd Generating a sequence of stereoscopic images for a head-mounted display
RU2592458C2 (ru) 2014-06-26 2016-07-20 Общество с ограниченной ответственностью "АВИАРЕАЛ" Способ формирования изображения дополненной реальности, обеспечивающий корректное восприятие удаления виртуальных объектов
JP6361327B2 (ja) * 2014-07-02 2018-07-25 セイコーエプソン株式会社 電気光学装置、及び電子機器
CN104102412B (zh) * 2014-07-24 2017-12-12 央数文化(上海)股份有限公司 一种基于增强现实技术的手持式阅览设备及其方法
EP3041591B1 (de) 2014-08-11 2016-11-09 Mack Rides GmbH & Co. KG Verfahren zum betreiben einer vorrichtung, insbesondere eines fahrgeschäftes, eines transportmittels, eines fitnessgerätes oder dergleichen
US9690375B2 (en) 2014-08-18 2017-06-27 Universal City Studios Llc Systems and methods for generating augmented and virtual reality images
US10261579B2 (en) 2014-09-01 2019-04-16 Samsung Electronics Co., Ltd. Head-mounted display apparatus
KR102230076B1 (ko) 2014-09-01 2021-03-19 삼성전자 주식회사 헤드 마운트 디스플레이 장치
JP6290754B2 (ja) 2014-09-11 2018-03-07 株式会社パスコ 仮想空間表示装置、仮想空間表示方法及びプログラム
US10238979B2 (en) 2014-09-26 2019-03-26 Universal City Sudios LLC Video game ride
US20160097929A1 (en) 2014-10-01 2016-04-07 Dawson Yee See-through display optic structure
US20160097930A1 (en) 2014-10-06 2016-04-07 Steven John Robbins Microdisplay optical system having two microlens arrays
JP6363928B2 (ja) * 2014-10-10 2018-07-25 泉陽興業株式会社 遊戯施設
KR101930657B1 (ko) * 2014-10-24 2018-12-18 유센스, 인코퍼레이티드 몰입식 및 대화식 멀티미디어 생성을 위한 시스템 및 방법
US9366871B2 (en) 2014-10-24 2016-06-14 Emagin Corporation Microdisplay based immersive headset
WO2016075674A2 (en) 2014-11-16 2016-05-19 Guy Finfter System and method for providing an alternate reality ride experience
US10241328B2 (en) 2014-12-26 2019-03-26 Cy Vision Inc. Near-to-eye display device with variable resolution
US10108832B2 (en) 2014-12-30 2018-10-23 Hand Held Products, Inc. Augmented reality vision barcode scanning system and method
WO2016112017A2 (en) 2015-01-05 2016-07-14 Worcester Polytechnic Institute System and method for controlling immersiveness of head-worn displays
US10740971B2 (en) 2015-01-20 2020-08-11 Microsoft Technology Licensing, Llc Augmented reality field of view object follower
CN104627078B (zh) * 2015-02-04 2017-03-08 上海咔酷咔新能源科技有限公司 基于柔性透明oled的汽车驾驶虚拟系统及其控制方法
WO2016130941A1 (en) 2015-02-12 2016-08-18 Google Inc. Combining a high resolution narrow field display and a mid resolution wide field display
TWI567670B (zh) 2015-02-26 2017-01-21 宅妝股份有限公司 切換虛擬實境模式與擴增實境模式的管理方法以及系統
US9358473B2 (en) 2015-03-24 2016-06-07 Anthony Frolov Interactive amusement attraction
US10627908B2 (en) 2015-03-27 2020-04-21 Lucasfilm Entertainment Company Ltd. Facilitate user manipulation of a virtual reality environment view using a computing device with touch sensitive surface
US20160314624A1 (en) 2015-04-24 2016-10-27 Eon Reality, Inc. Systems and methods for transition between augmented reality and virtual reality
US9690374B2 (en) 2015-04-27 2017-06-27 Google Inc. Virtual/augmented reality transition system and method
WO2016187474A1 (en) 2015-05-20 2016-11-24 Daqri, Llc Acousto-optical display for augmented reality
US20160349509A1 (en) 2015-05-26 2016-12-01 Microsoft Technology Licensing, Llc Mixed-reality headset
US9877016B2 (en) 2015-05-27 2018-01-23 Google Llc Omnistereo capture and render of panoramic virtual reality content
US20170363949A1 (en) 2015-05-27 2017-12-21 Google Inc Multi-tier camera rig for stereoscopic image capture
US10038887B2 (en) 2015-05-27 2018-07-31 Google Llc Capture and render of panoramic virtual reality content
US9942539B2 (en) * 2015-06-01 2018-04-10 Disney Enterprises, Inc. Scanning laser-based three dimensional (3D) display systems for viewers wearing 3D glasses
US10366534B2 (en) 2015-06-10 2019-07-30 Microsoft Technology Licensing, Llc Selective surface mesh regeneration for 3-dimensional renderings
US9638921B2 (en) 2015-06-11 2017-05-02 Oculus Vr, Llc Strap system for head-mounted displays
US9977493B2 (en) 2015-06-17 2018-05-22 Microsoft Technology Licensing, Llc Hybrid display system
WO2016209941A1 (en) 2015-06-23 2016-12-29 Google Inc. Head mounted display device with dual curved displays
US10078917B1 (en) * 2015-06-26 2018-09-18 Lucasfilm Entertainment Company Ltd. Augmented reality simulation
US10712573B2 (en) 2015-07-06 2020-07-14 Frank Jones Methods and devices for demountable head mounted displays
US9606362B2 (en) 2015-08-07 2017-03-28 Ariadne's Thread (Usa), Inc. Peripheral field-of-view illumination system for a head mounted display
US20170039986A1 (en) 2015-08-07 2017-02-09 Microsoft Technology Licensing, Llc Mixed Reality Social Interactions
US9454010B1 (en) 2015-08-07 2016-09-27 Ariadne's Thread (Usa), Inc. Wide field-of-view head mounted display system
US20170053445A1 (en) 2015-08-20 2017-02-23 Microsoft Technology Licensing, Llc Augmented Reality
US10235808B2 (en) 2015-08-20 2019-03-19 Microsoft Technology Licensing, Llc Communication system
US10169917B2 (en) 2015-08-20 2019-01-01 Microsoft Technology Licensing, Llc Augmented reality
US9571741B1 (en) 2015-10-08 2017-02-14 Gopro, Inc. Smart shutter in low light
EP3360001B1 (en) 2015-10-08 2023-11-15 LG Electronics Inc. Head mount display device
US10724874B2 (en) * 2015-10-13 2020-07-28 Here Global B.V. Virtual reality environment responsive to predictive route navigation
US20170116950A1 (en) 2015-10-22 2017-04-27 Google Inc. Liquid crystal display with variable drive voltage
US9741125B2 (en) 2015-10-28 2017-08-22 Intel Corporation Method and system of background-foreground segmentation for image processing
US10001683B2 (en) 2015-11-06 2018-06-19 Microsoft Technology Licensing, Llc Low-profile microdisplay module
US9763342B2 (en) 2015-12-09 2017-09-12 Oculus Vr, Llc Cable retention assembly for a head mounted display
US10147235B2 (en) 2015-12-10 2018-12-04 Microsoft Technology Licensing, Llc AR display with adjustable stereo overlap zone
US20170176747A1 (en) 2015-12-21 2017-06-22 Tuomas Heikki Sakari Vallius Multi-Pupil Display System for Head-Mounted Display Device
US10229540B2 (en) 2015-12-22 2019-03-12 Google Llc Adjusting video rendering rate of virtual reality content and processing of a stereoscopic image
CN109074234B (zh) 2016-01-21 2022-01-25 谷歌有限责任公司 混合显示器全局命令接口、对应方法、装置和头戴显示系统
US10229541B2 (en) 2016-01-28 2019-03-12 Sony Interactive Entertainment America Llc Methods and systems for navigation within virtual reality space using head mounted display
US10209785B2 (en) 2016-02-02 2019-02-19 Microsoft Technology Licensing, Llc Volatility based cursor tethering
US20170225084A1 (en) * 2016-02-05 2017-08-10 S&S Worldwide, Inc. Immersive mobile theater
US11112266B2 (en) 2016-02-12 2021-09-07 Disney Enterprises, Inc. Method for motion-synchronized AR or VR entertainment experience
US10169922B2 (en) 2016-02-16 2019-01-01 Microsoft Technology Licensing, Llc Reality mixer for mixed reality
US10473933B2 (en) 2016-02-19 2019-11-12 Microsoft Technology Licensing, Llc Waveguide pupil relay
US9933624B1 (en) 2016-03-01 2018-04-03 Daryl White System and method for providing individualized virtual reality for an amusement attraction
US9778467B1 (en) 2016-03-01 2017-10-03 Daryl White Head mounted display
US9964767B2 (en) 2016-03-03 2018-05-08 Google Llc Display with reflected LED micro-display panels
KR102448919B1 (ko) 2016-03-16 2022-10-04 삼성디스플레이 주식회사 표시 장치
US10133345B2 (en) 2016-03-22 2018-11-20 Microsoft Technology Licensing, Llc Virtual-reality navigation
US10175487B2 (en) 2016-03-29 2019-01-08 Microsoft Technology Licensing, Llc Peripheral display for head mounted display device
US9946074B2 (en) 2016-04-07 2018-04-17 Google Llc See-through curved eyepiece with patterned optical combiner
US9965899B2 (en) 2016-04-28 2018-05-08 Verizon Patent And Licensing Inc. Methods and systems for minimizing pixel data transmission in a network-based virtual reality media delivery configuration
US20170323482A1 (en) 2016-05-05 2017-11-09 Universal City Studios Llc Systems and methods for generating stereoscopic, augmented, and virtual reality images
US20170323416A1 (en) 2016-05-09 2017-11-09 Intel Corporation Processing image fragments from one frame in separate image processing pipes based on image analysis
US10502363B2 (en) 2016-05-17 2019-12-10 Occipital, Inc. Self-contained mixed reality head mounted display
US10496156B2 (en) 2016-05-17 2019-12-03 Google Llc Techniques to change location of objects in a virtual/augmented reality system
US10151927B2 (en) 2016-05-31 2018-12-11 Falcon's Treehouse, Llc Virtual reality and augmented reality head set for ride vehicle
US9858848B1 (en) * 2016-06-09 2018-01-02 International Business Machines Corporation Dynamic display adjustment on a transparent flexible display
CN114495249A (zh) 2016-07-14 2022-05-13 奇跃公司 使用角膜曲率的虹膜边界估计
CN106019597A (zh) 2016-07-27 2016-10-12 北京小米移动软件有限公司 虚拟现实眼镜
US9922466B2 (en) * 2016-08-05 2018-03-20 Uber Technologies, Inc. Virtual reality experience for a vehicle
CN106154555B (zh) 2016-08-24 2020-08-21 北京小米移动软件有限公司 虚拟现实眼镜
TWI622803B (zh) 2016-08-30 2018-05-01 廣達電腦股份有限公司 頭戴式顯示裝置
DE202017105948U1 (de) 2016-10-03 2018-03-07 Google LLC (n.d.Ges.d. Staates Delaware) Augmented-Reality- und/oder Virtual-Reality-Headset
US10459236B2 (en) 2016-12-09 2019-10-29 Lg Electronics Inc. Head-mounted display device with earbud holder
US20180196262A1 (en) 2017-01-12 2018-07-12 Artavious Cage Virtual reality system
US12153723B2 (en) 2017-03-06 2024-11-26 Universal City Studios Llc Systems and methods for layered virtual features in an amusement park environment
JP7108346B2 (ja) 2020-02-26 2022-07-28 ベースフード株式会社 パンおよびパンの製造方法

Also Published As

Publication number Publication date
EP3592443A2 (en) 2020-01-15
EP3592442B1 (en) 2023-05-10
RU2019131371A (ru) 2021-04-07
KR20190117024A (ko) 2019-10-15
WO2018165170A1 (en) 2018-09-13
SG11201907293SA (en) 2019-09-27
RU2754992C2 (ru) 2021-09-08
US12153723B2 (en) 2024-11-26
JP2020514900A (ja) 2020-05-21
WO2018165039A1 (en) 2018-09-13
MY195166A (en) 2023-01-11
RU2019131372A3 (es) 2021-07-06
EP3592445B1 (en) 2024-01-31
US10289194B2 (en) 2019-05-14
WO2018165041A8 (en) 2019-04-18
CN110352085A (zh) 2019-10-18
JP2020511218A (ja) 2020-04-16
KR102145140B1 (ko) 2020-08-18
JP7257960B2 (ja) 2023-04-14
KR20190123314A (ko) 2019-10-31
KR20190124766A (ko) 2019-11-05
CA3054336A1 (en) 2018-09-13
EP3592444A1 (en) 2020-01-15
CN110352085B (zh) 2023-10-27
RU2771098C2 (ru) 2022-04-26
CN116474381A (zh) 2023-07-25
SG11201907990YA (en) 2019-09-27
CN110352086A (zh) 2019-10-18
US20180250589A1 (en) 2018-09-06
KR20250057913A (ko) 2025-04-29
CA3054963C (en) 2020-11-03
EP3592443B1 (en) 2023-09-06
RU2719237C1 (ru) 2020-04-17
RU2019131372A (ru) 2021-04-07
RU2019131371A3 (es) 2021-04-07
JP6756052B2 (ja) 2020-09-16
US20180253905A1 (en) 2018-09-06
US20250093944A1 (en) 2025-03-20
ES2993944T3 (en) 2025-01-14
CN110352086B (zh) 2024-03-12
KR102181793B1 (ko) 2020-11-25
MY200651A (en) 2024-01-09
JP7198213B2 (ja) 2022-12-28
CA3054963A1 (en) 2018-09-13
MY196303A (en) 2023-03-24
US20180255285A1 (en) 2018-09-06
ES2965043T3 (es) 2024-04-10
EP3592444B1 (en) 2024-09-25
KR20240042176A (ko) 2024-04-01
ES2974886T3 (es) 2024-07-02
JP2020513956A (ja) 2020-05-21
US10572000B2 (en) 2020-02-25
RU2754991C2 (ru) 2021-09-08
KR20190123311A (ko) 2019-10-31
RU2019131365A3 (es) 2021-04-07
JP2020513957A (ja) 2020-05-21
JP7655887B2 (ja) 2025-04-02
WO2018165041A1 (en) 2018-09-13
US10528123B2 (en) 2020-01-07
CA3054333A1 (en) 2018-09-13
CN110352087A (zh) 2019-10-18
CN110382066B (zh) 2023-10-13
SG11201907294PA (en) 2019-09-27
JP2022188084A (ja) 2022-12-20
WO2018165165A3 (en) 2018-11-01
US20180253141A1 (en) 2018-09-06
KR102145702B1 (ko) 2020-08-19
JP7497572B2 (ja) 2024-06-11
KR102795741B1 (ko) 2025-04-17
EP3592445A1 (en) 2020-01-15
EP3592442A1 (en) 2020-01-15
RU2019131365A (ru) 2021-04-07
WO2018165165A2 (en) 2018-09-13
CA3054671A1 (en) 2018-09-13
SG11201907988QA (en) 2019-09-27
CN110382066A (zh) 2019-10-25

Similar Documents

Publication Publication Date Title
ES2951475T3 (es) Sistemas y métodos para características virtuales en capas en un entorno de parque de atracciones
ES2917977T3 (es) Sistemas y métodos para la superposición de texto en un entorno de parque de atracciones
US20250155969A1 (en) Systems and methods for generating augmented and virtual reality images
JP7079207B2 (ja) 立体視的な拡張現実画像および仮想現実画像を生成するためのシステムおよび方法
ES2972485T3 (es) Sistemas de visualización en un entorno de entretenimiento
ES2999957T3 (en) Systems and methods for virtual feature development
HK40016432B (zh) 用於游乐园环境中的分层虚拟特徵的系统和方法
HK40016432A (en) Systems and methods for layered virtual features in an amusement park environment
Meier " Different Desert, Same War": The Simulacrum, the Real, and Drone Warfare in George Brant's Grounded
HK40087933A (zh) 用於生成增强和虚拟现实图像的系统和方法
HK40036042A (en) Systems and methods for textual overlay in an amusement park environment
HK40036042B (en) Systems and methods for textual overlay in an amusement park environment
HK1242806A1 (en) Systems and methods for generating augmented and virtual reality images